Séminaire nantais inter-établissements en Science des Données ...

Comité d'organisation : L. BELLANGER (SPAN, LMJL UMR CNRS 6629), V. CARIOU (StatSC, ONIRIS),
Y. FOUCHER (SPHERE INSERM UMR 1246 - LabCom RISCA), P.-A. GOURRAUD (ITUN - CRTI - UMR INSERM 1064 - CHU),
P. KUNTZ (DUKe, LS2N).


à venir | passés

Annonce du séminaire à venir

jeudi 6 juin 2019 : A venir ....

Anciens séminaires

Jeudi 13 décembre 2018 : Jean-Michel POGGI (PR Univ. Paris Descartes et Univ. Paris-Sud, LM Orsay) "Forêts aléatoires: importance et sélection de variables"

La méthode des forêts aléatoires, introduite par Leo Breiman en 2001, est désormais largement utilisée tant en classification qu'en régression avec un succès spectaculaire. Après avoir rappelé la source et les principes des méthodes d'arbres, on présente les forêts aléatoires, l'erreur Out-of-Bag et le score d'importance des variables par permutation. On esquisse ensuite une stratégie de sélection de variables en deux étapes : le classement des variables basé sur les scores d'importance suivie d'une procédure d'introduction ascendante séquentielle des variables.
Références : R. Genuer, J-M. Poggi. Arbres CART et Forêts aléatoires, Importance et sélection de variables, In Apprentissage Statistique et Données Massives, Maumy-Bertrand M., Saporta G. et Thomas Agnan C. (eds), Technip, p. 295-342, 2018

Mardi 12 juin 2018 : Stéphane CANU (PR INSA Rouen) "Panorama du Deep Learning aujourd'hui"

Si la recherche scientifique subit indéniablement des effets de mode, celle de l’apprentissage profond (ou deep learning) a surpris par sa force et son ampleur. Comme le titrait le Monde en 2015, « cette technologie d’apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l’intelligence artificielle en moins de cinq ans ». Afin d'expliquer ce phénomène nous présenterons ces nouveaux développements de l'apprentissage automatique couvrant les motivations de base, les idées, les modèles et l'optimisation des réseaux profonds (la rétropropagation), l'identification des défis et des opportunités.

Jeudi 7 septembre 2017 : Gilbert SAPORTA (PR Emérite CNAM) "Expliquer ou prédire ? Les nouveaux défis"

Le développement de la Data Science suscite fréquemment des controverses entre statistique et machine learning et conduit à repenser le débat entre expliquer et prédire initié par Leo BREIMAN en 2001. BREIMAN distinguait deux cultures dans la modélisation statistique : celle dominante jusqu’alors des modèles génératifs qui suppose que les données ont été engendrées par un modèle probabiliste qu’il faut ajuster et estimer, et la culture des modèles algorithmiques ou prédictifs qui ne se préoccupe que d’obtenir des prévisions précises et fiables et que les statisticiens avaient eu tort de négliger. Comme l’écrit David DONOHO qui a récemment repris ce thème, l’hypothèse implicite dans la première culture est qu’il existe un modèle «vrai», ce qu’a contesté George BOX avec sa phrase célèbre «Essentially, all models are wrong, but some are useful». Dans l’intervalle, le débat a fait l’objet de plusieurs publications : cf. Gilbert SAPORTA qui relevait l’ambigüité du terme de modèle utilisé aussi bien comme une représentation de la réalité que comme un algorithme et Galit SHUMUELI qui analysait la dualité explicatif/prédictif.