Séminaire nantais inter-établissements en Science des Données ...

Comité d'organisation : L. BELLANGER (ALEA, LMJL UMR CNRS 6629), V. CARIOU (StatSC, ONIRIS),
Y. FOUCHER (SPHERE INSERM UMR 1246 - LabCom RISCA), P.-A. GOURRAUD (ITUN - CRTI - UMR INSERM 1064 - CHU), P. KUNTZ (DUKe, LS2N).


à venir | passés

Annonce du séminaire à venir

Jeudi 17 juin 2021 14h00 : Pascal CREPEY (Professeur à l'EHESP Rennes) :
"Eléments de réflexion sur l'évaluation des stratégies de contrôle épidémique: du confinement à la vaccination" Résumé à venir

Pour des raisons d'organisation, l'inscription est obligatoire :
Inscription Liste des participants


Le séminaire aura lieu en virtuel, via l'outil zoom. Toutes les personnes inscrites recevront des informations leur permettant de se connecter et participer aux échanges

Anciens séminaires

Jeudi 5 novembre 2020 : Julie JOSSE (Advanced Researcher à l'INRIA de Montpellier) :
"An overview of methods to handle missing values"

Dans de nombreuses situations, les jeux de données collectés comportent des données manquantes qui rendent leur analyse d’autant plus complexe. Il existe une vaste littérature sur ce sujet ainsi que de plus de 150 packages R. Financé par le consortium R, nous avons créé la plateforme R-miss-tastic qui vise à offrir aux utilisateurs un aperçu des principales références, des contributeurs associés ainsi que des tutoriels permettant d’avoir des clés pour analyser des données entachées de valeurs manquantes. Cette plateforme met en évidence qu'il s'agit d'un domaine de recherche actif avec une diversité des problématiques nécessitant la conception de méthodes dédiées. Dans cette présentation, Julie Josse partage son expérience sur le sujet : (i) dans le cadre inférentiel, où le but est d'estimer au mieux les paramètres et leur variance en présence de données manquantes. Les dernières méthodes d'imputation multiple ont mis l'accent sur la prise en compte de l'hétérogénéité des données (multi-sources avec des variables de nature différente, etc.) ; mais aussi (ii) dans le cadre prédictif, avec des résultats récents en apprentissage supervisé et les conséquences pratiques de l'utilisation de la méthode, largement utilisée, d’imputation par la moyenne en amont de la phase de modélisation.

Jeudi 6 juin 2019 : Jean-Gabriel GANASCIA (PR à l'Université Pierre et Marie Curie (UPMC), membre de l'Institut universitaire de France et président du Comité d'éthique du CNRS (Comets) : "Ethique et épistémologie des données"

Qu'il s'agisse de protéger l'intimité la vie privée, l'anonymat ou la propriété, d'encourager le partage, voire de garantir l'absence de biais, les questions éthiques suscitées par la captation et l'exploitation des données sont à la fois nombreuses et anciennes. Or, l'approche de ces questions varie dans le temps et selon les cultures. De plus, certaines prescriptions morales, comme l'impartialité dans la collecte ou les principes de finalité et de proportionnalité de la CNIL, vont à l'encontre des postulats épistémologiques posés par les zélateurs les plus enflammés des masses de données. Il s'agira là de présenter ces problématiques éthiques et de les mettre en regard des questions fondamentales suscitées par la science des données.

Marie EKELAND (Co-fondatrice d’un fond de placement d’envergure internationale spécialisé dans l'économie numérique) : "Economie, société, humanisme : quels enjeux pour le numérique de demain ?"
Jeudi 13 décembre 2018 : Jean-Michel POGGI (PR Univ. Paris Descartes et Univ. Paris-Sud, LM Orsay) "Forêts aléatoires: importance et sélection de variables"

La méthode des forêts aléatoires, introduite par Leo Breiman en 2001, est désormais largement utilisée tant en classification qu'en régression avec un succès spectaculaire. Après avoir rappelé la source et les principes des méthodes d'arbres, on présente les forêts aléatoires, l'erreur Out-of-Bag et le score d'importance des variables par permutation. On esquisse ensuite une stratégie de sélection de variables en deux étapes : le classement des variables basé sur les scores d'importance suivie d'une procédure d'introduction ascendante séquentielle des variables.
Références : R. Genuer, J-M. Poggi. Arbres CART et Forêts aléatoires, Importance et sélection de variables, In Apprentissage Statistique et Données Massives, Maumy-Bertrand M., Saporta G. et Thomas Agnan C. (eds), Technip, p. 295-342, 2018

Mardi 12 juin 2018 : Stéphane CANU (PR INSA Rouen) "Panorama du Deep Learning aujourd'hui"

Si la recherche scientifique subit indéniablement des effets de mode, celle de l’apprentissage profond (ou deep learning) a surpris par sa force et son ampleur. Comme le titrait le Monde en 2015, « cette technologie d’apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l’intelligence artificielle en moins de cinq ans ». Afin d'expliquer ce phénomène nous présenterons ces nouveaux développements de l'apprentissage automatique couvrant les motivations de base, les idées, les modèles et l'optimisation des réseaux profonds (la rétropropagation), l'identification des défis et des opportunités.

Jeudi 7 septembre 2017 : Gilbert SAPORTA (PR Emérite CNAM Paris) "Expliquer ou prédire ? Les nouveaux défis"

Le développement de la Data Science suscite fréquemment des controverses entre statistique et machine learning et conduit à repenser le débat entre expliquer et prédire initié par Leo BREIMAN en 2001. BREIMAN distinguait deux cultures dans la modélisation statistique : celle dominante jusqu’alors des modèles génératifs qui suppose que les données ont été engendrées par un modèle probabiliste qu’il faut ajuster et estimer, et la culture des modèles algorithmiques ou prédictifs qui ne se préoccupe que d’obtenir des prévisions précises et fiables et que les statisticiens avaient eu tort de négliger. Comme l’écrit David DONOHO qui a récemment repris ce thème, l’hypothèse implicite dans la première culture est qu’il existe un modèle «vrai», ce qu’a contesté George BOX avec sa phrase célèbre «Essentially, all models are wrong, but some are useful». Dans l’intervalle, le débat a fait l’objet de plusieurs publications : cf. Gilbert SAPORTA qui relevait l’ambigüité du terme de modèle utilisé aussi bien comme une représentation de la réalité que comme un algorithme et Galit SHUMUELI qui analysait la dualité explicatif/prédictif.