Séminaire nantais inter-établissements en Science des Données ...

Comité d'organisation : L. BELLANGER (SPAN, LMJL UMR CNRS 6629), V. CARIOU (StatSC, ONIRIS),
Y. FOUCHER (SPHERE INSERM UMR 1246 - LabCom RISCA), P.-A. GOURRAUD (ITUN - CRTI - UMR INSERM 1064 - CHU), P. KUNTZ (DUKe, LS2N).


à venir | passés

Annonce du séminaire à venir

Pour des raisons d'organisation, l'inscription à cette 1/2 journée est obligatoire
Inscription
jeudi 5 novembre 2020
UFR de Médecine, Bât Veil, 14h00 (Amphi 7)
A côté du CHU Nantes - Hôtel Dieu

Programme

  • 14h00 : Julie JOSSE (PR à l'Ecole Polytechnique) : "A missing value tour in R"

  • In many application settings, the data have missing features which make data analysis challenging. An abundant literature addresses missing data as well as more than 150 R packages. Funded by the R consortium, we have created the R-miss-tastic plateform along with a dedicated task view which aims at giving an overview of main references, contributors, tutorials to offer users keys to analyse their data. This plateform highlights that this is an active field of work and that as usual different problems requires designing dedicated methods.

    In this presentation, I will share my experience on the topic. I will start by the inferential framework, where the aim is to estimate at best the parameters and their variance in the presence of missing data. Last multiple imputation methods have focused on taking into account the heterogeneity of the data (multi-sources with variables of different natures, etc.). Then I will present recent results in a supervised-learning setting. A striking one is that the widely-used method of imputing with the mean prior to learning can be consistent. That such a simple approach can be relevant may have important consequences in practice.

  • 15h15 -16h00 : Discussions

Anciens séminaires

Jeudi 6 juin 2019 : Jean-Gabriel GANASCIA (PR à l'Université Pierre et Marie Curie (UPMC), membre de l'Institut universitaire de France et président du Comité d'éthique du CNRS (Comets) : "Ethique et épistémologie des données"

Qu'il s'agisse de protéger l'intimité la vie privée, l'anonymat ou la propriété, d'encourager le partage, voire de garantir l'absence de biais, les questions éthiques suscitées par la captation et l'exploitation des données sont à la fois nombreuses et anciennes. Or, l'approche de ces questions varie dans le temps et selon les cultures. De plus, certaines prescriptions morales, comme l'impartialité dans la collecte ou les principes de finalité et de proportionnalité de la CNIL, vont à l'encontre des postulats épistémologiques posés par les zélateurs les plus enflammés des masses de données. Il s'agira là de présenter ces problématiques éthiques et de les mettre en regard des questions fondamentales suscitées par la science des données.

Marie EKELAND (Co-fondatrice d’un fond de placement d’envergure internationale spécialisé dans l'économie numérique) : "Economie, société, humanisme : quels enjeux pour le numérique de demain ?"
Jeudi 13 décembre 2018 : Jean-Michel POGGI (PR Univ. Paris Descartes et Univ. Paris-Sud, LM Orsay) "Forêts aléatoires: importance et sélection de variables"

La méthode des forêts aléatoires, introduite par Leo Breiman en 2001, est désormais largement utilisée tant en classification qu'en régression avec un succès spectaculaire. Après avoir rappelé la source et les principes des méthodes d'arbres, on présente les forêts aléatoires, l'erreur Out-of-Bag et le score d'importance des variables par permutation. On esquisse ensuite une stratégie de sélection de variables en deux étapes : le classement des variables basé sur les scores d'importance suivie d'une procédure d'introduction ascendante séquentielle des variables.
Références : R. Genuer, J-M. Poggi. Arbres CART et Forêts aléatoires, Importance et sélection de variables, In Apprentissage Statistique et Données Massives, Maumy-Bertrand M., Saporta G. et Thomas Agnan C. (eds), Technip, p. 295-342, 2018

Mardi 12 juin 2018 : Stéphane CANU (PR INSA Rouen) "Panorama du Deep Learning aujourd'hui"

Si la recherche scientifique subit indéniablement des effets de mode, celle de l’apprentissage profond (ou deep learning) a surpris par sa force et son ampleur. Comme le titrait le Monde en 2015, « cette technologie d’apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l’intelligence artificielle en moins de cinq ans ». Afin d'expliquer ce phénomène nous présenterons ces nouveaux développements de l'apprentissage automatique couvrant les motivations de base, les idées, les modèles et l'optimisation des réseaux profonds (la rétropropagation), l'identification des défis et des opportunités.

Jeudi 7 septembre 2017 : Gilbert SAPORTA (PR Emérite CNAM) "Expliquer ou prédire ? Les nouveaux défis"

Le développement de la Data Science suscite fréquemment des controverses entre statistique et machine learning et conduit à repenser le débat entre expliquer et prédire initié par Leo BREIMAN en 2001. BREIMAN distinguait deux cultures dans la modélisation statistique : celle dominante jusqu’alors des modèles génératifs qui suppose que les données ont été engendrées par un modèle probabiliste qu’il faut ajuster et estimer, et la culture des modèles algorithmiques ou prédictifs qui ne se préoccupe que d’obtenir des prévisions précises et fiables et que les statisticiens avaient eu tort de négliger. Comme l’écrit David DONOHO qui a récemment repris ce thème, l’hypothèse implicite dans la première culture est qu’il existe un modèle «vrai», ce qu’a contesté George BOX avec sa phrase célèbre «Essentially, all models are wrong, but some are useful». Dans l’intervalle, le débat a fait l’objet de plusieurs publications : cf. Gilbert SAPORTA qui relevait l’ambigüité du terme de modèle utilisé aussi bien comme une représentation de la réalité que comme un algorithme et Galit SHUMUELI qui analysait la dualité explicatif/prédictif.