Pénalité "data-driven" en sélection de modèles.

Matthieu Lerasle (Université de Sao Paulo)
vendredi 26 mars 2010

Résumé : La sélection de modèles a connu un essor considérable ces
dernières années, pour l’étude de problèmes de statistique non
paramétrique, comme l’estimation de la densité, de la régression, ou
encore des problèmes de classification. Elle a fait émerger un grand
nombre de questions ; il est clair qu’une bonne procédure de sélection
doit en pratique être complètement explicite, simple à implémenter,
rapide à calculer et fonctionner quel que soit le nombre de données.
En théorie, elle doit être définie et satisfaire de bonnes propriétés
asymptotiques de manière aussi générale que possible. Ces deux enjeux,
bien que fondamentaux, restent difficiles à concilier. Il existe
aujourd’hui un nombre formidable de procédures de sélections,
répondant toutes plus ou moins à ces objectifs. Les méthodes
"déterministes", comme celles définies par des pénalités
proportionnelles à la dimension des modèles, les pénalités L1 ou les
procédures d’agrégation sont plus simples et plus rapides à calculer,
elles permettent de couvrir de grandes collections de modèles. Elles
sont toutefois généralement trop conservatives pour être
asymptotiquement optimales ou s’adapter à des problèmes complexes
(bruit hétéroscédastique, condition de marge, données
mélangeantes...). A l’inverse, les procédures "data-driven" o-ffrent
l’avantage de bien apprendre la structure des données et d’obtenir,
pour des problèmes de sélection relativement simples, des résultats
remarquables comme des inégalités oracles asymptotiquement optimales.
Elles sont toutefois plus lourdes à implémenter ; cette gêne pouvant
être acceptable pour certaines procédures (heuristique de la pente
avec complexité déterministe, validation croisée V -fold) ou
complètement rédhibitoires (validation croisée "leave-p-out").
L’objectif de l’exposé est de montrer les avantages et les limites de
certaines pénalités "data-driven" dans un cadre relativement général
d’estimation de densité. Nous verrons comment calibrer ces différentes
pénalités lorsque les observations sont indépendantes, ou
mélangeantes. Pour ces di-fférentes procédures, nous montrerons que
l’estimateur sélectionné vérifi-e une inégalité oracle optimale. Nous
discuterons aussi de l’heuristique de la pente que nous justifi-erons
là aussi pour des processus non nécessairement indépendants.


Cet exposé se tiendra à 11h00 en salle C20-13, 20ème étage, Université
Paris 1, Centre Pierre Mendes-France, 90 rue de Tolbiac, 75013 Paris
(métro : Olympiades).