Aller au contenu Aller au menu Aller à la recherche

Événements et séminaires - LSTA
Laboratoire de Statistique Théorique et Appliquée

Partenariats

Informations pratiques

La séminaire a lieu le mardi, en alternance à Jussieu (UPMC) et à Sophie Germain (Paris Diderot).

 

À Jussieu : 10h45 en salle de séminaire (201), couloir 15-16 (2 ème étage).

Plan de JussieuNouvelle fenêtre

 

Au bâtiment Sophie Germain : 12h00 en salle 2015 (2 ème étage).

Prendre le grand escalier à droite en entrant ...

» En savoir +

Chiffres-clé

Chiffres

17 enseignants-chercheurs

18 doctorants

3 personnels administratifs

 

A voir

Nouvelle fenêtre

 

Nouvelle fenêtre

 

    Nouvelle fenêtre

Nouvelle fenêtre

21/03/2017 - A. Durmus (Télécom ParisTech)

Séminaire Commun de Statistique P6-P7

10h45 à Jussieu dans la salle de séminaire du LSTA, Tour 15-16 – 2 ème étage.
Optimal scaling and convergence of Markov chain

Sampling over high-dimensional space has become a prerequisite in applications of Bayesian statistics, for example to machine learning or biological models. The most common methods for dealing with this problem are Markov Chain Monte Carlo methods. In this talk, I will present new insights on the computational complexity of these algorithms. First, I will discuss the optimal scaling problem of the random walk Metropolis algorithm applied to densities which are differentiable in Lp mean but which may be irregular at some points (like Laplace type densities for example) and / or are supported on an interval. The scaling limit is established under assumptions which are much weaker than the one used in (Roberts, Gelman, Gilks, 1997). In the second part of this talk, we will present a method based on the Euler discretization of the Langevin diffusion with either constant or decreasing stepsizes. We will give several new results establishing the convergence to stationarity under different conditions on the log-density. A particular attention of these bounds with respect to the dimension of the state space will be paid.

Echelonnage optimal et convergence de méthodes MCMC

L'échantillonnage en grande dimension est devenu une condition préalable dans les applications des statistiques bayésiennes, par exemple pour l'apprentissage statistique ou les modèles biologiques. Les méthodes les plus courantes pour traiter ce problème sont les méthodes de Monte Carlo par chaîne de Markov. Dans cet exposé, je présenterai de nouveaux points de vue sur la complexité computationnelle de ces algorithmes. En premier lieu, je discuterai de l'échelonnage optimal de l'algorithme de Metropolis à marche aléatoire symétrique appliqué à des densités qui sont différentiables en moyenne Lp mais qui peuvent être irrégulières en certains points (comme les densités de type Laplace par exemple) et / ou sont supportées sur un intervalle. La limite d'échelle est établie sous des hypothèses qui sont beaucoup plus faibles que celles utilisées dans (Roberts, Gelman, Gilks, 1997). Dans la deuxième partie de cet exposé, nous analyserons une méthodes MCMC sans réjection basée sur la discrétisation d'Euler de la diffusion de Langevin. Nous présenterons plusieurs résultats de convergence explicites pour des pas de discrétisations qui peuvent être constants ou tendre vers 0. En particulier, suivant les hypothèses satisfaites par le potentiel de la densité cible, la dépendance de la convergence de l'algorithme en la dimension sera présentée.