vendredi 19 novembre 2010

Présentation du 10/12/2010 Théorie de l'apprentissage "à la Vapnik" pour des séries temporelles.

Lieu :
ENGREF
19 avenue du Maine
75732 PARIS
Métro : Montparnasse, Falguière

Salle : amphi 208


Théorie de l'apprentissage "à la Vapnik" pour des séries temporelles.

Présentation par Pierre Alquier (Université Paris 7)

Abstract
L'idée de la théorie de l'apprentissage statistique est d'éviter de formuler un modèle, paramétrique ou non, sur les données. On se donne plutôt une famille de prédicteurs, et on essaie de répondre aux deux questions suivantes: existe-t'il dans cette famille un prédicteur capable d'effectuer de bonnes prévisions? comment "apprendre" (ou estimer) ce prédicteur à partir de données, si possible avec des garanties théoriques et sans faire tendre le nombre d'observations vers l'infini (cadre non-asymptotique).

Cette approche a connu un franc succès dans le traitement de données iid. Tenter de l'étendre au cas des séries temporelles semble donc naturel, il y a plusieurs approches possibles. Dans cet exposé je vais tenter de présenter l'approche qui colle au plus près la version "iid" de la théorie. Pour cela, je me baserai sur 3 articles qui, bien que proposant des résultats différents, visent grosso modo ce même objectif:

1) Modha & Masry, Minimum Complexity Regression Estimation with Weakly Dependent Observations,
1996, IEEE Transactions on Information Theory.

2) Meir, Non-Parametric Time Series Prediction Through Adaptive Model Selection, 2000, Machine
Learning.

3) Alquier & Wintenberger, Model Selection for Weakly Dependent Time Series Forecasting, 2009,
soumis et disponible sur arXiv.

Contrairement au cas iid, des hypothèses techniques sur les données sont nécessaires. On discutera les hypothèses dans ces 3 articles. J'essaierai également de discuter les liens et les différences avec d'autres approches pour la prédiction qui seront présentées plus tard dans ce séminaire (comme l'approche "prédiction de suites individuelles").