CV de Laurence Devillers 

  

Professeur en Intelligence Artificielle
au LIMSI-CNRS

Equipe de recherche : Dimensions affectives et sociales dans les interactions vocales  (5-10 personnes) – 10 thèses encadrées, 3 en cours

Publications (h-index : 35) : scholar HAL  DBLP

Résumé du CV

Depuis septembre 2011, je suis professeur en intelligence artificielle à Sorbonne Université, et j’effectue ma recherche au sein du LIMSI/CNRS, où j’anime depuis 2004 une équipe sur les « dimensions affectives et sociales dans les interactions parlées ». J’ai précédemment enseigné l’informatique et en particulier l’intelligence artificielle au sein du département Informatique de l’université d’Orsay. J’ai également travaillé après ma thèse et avant de devenir maître de conférences à SRI (Stanford Research Institute) à Paris. Depuis 2015, je suis membre de la CERNA, commission de réflexion sur l’Ethique de la recherche en sciences et technologies du numérique d’Allistène. J’ai participé à la rédaction du rapport sur l’éthique de la recherche en robotique, j’ai dirigé celui sur l’éthique de la recherche en apprentissage machine, je coordonne actuellement un rapport sur l’éthique de la recherche sur les agents conversationnels. Au sein de DATAIA et TransAlgo, j’anime un axe de recherche sur le Nudging et un projet sur les agents conversationnels embarqués sur les robots : Bad Nudge – Bad Robot avec des collègues en droit et en économie numérique sur le plateau de Saclay. Le laboratoire LinX, a proposé de travailler sur éthique et droit (Soft – Hard Law) avec nous .  Ce projet d’envergure m’amène à proposer une chaire dans 3IA  sur Nudge et éthique des agents et robots conversationnels  avec comme objectifs de montrer l’importance d’agents conversationnels éthiques by design pour une plus grande confiance  des utilisateurs ce qui nécessite de mettre en place des outils d’évaluation (serious game), d’éducation des utilisateurs ( empowerment), et de vérification des systèmes (loyauté, non discrimination, etc.) . Ce projet de recherche porte également sur l’imitation des humains et en quoi cette imitation nous manipule : Pourra t on toujours déceler que nous parlons à un humain et non à une machine (test de Turing) ? La manipulation par les intonations de la voix, par la prosodie est importante : une voix dans un certain registre donne confiance, il existe un espace inconsciemment sécuritaire. Le fait que le système de dialogue nous évalue et nous renvoie cette évaluation  “Quantified Self” grâce au discours ou à un objet connecté (ex: “tu as l’air en colère !” ou “Ton rythme cardiaque s’accélère”) aura une incidence sur notre comportement.  L’aspect pluridisciplinaire et culturel (études en parallèle pour d’autres cultures : par exemple au Japon, en Allemagne ou en Angleterre ) est fondamental dans ce projet. J’organise un séminaire à Dagstuhl  (#20021) en Janvier 2020 “on Spoken Language Interaction with Virtual Agents and Robots (SLIVAR): towards effective and ethical interaction” avec des partenaires de Kyoto University, JP, de l’University of Sheffield, GB et Tufts University – Medford, US.

Mes activités de recherche comprennent 3 grandes périodes : la reconnaissance de la parole (1989-1994), les systèmes de dialogue homme-machine (1995-2002) et l’« affective computing » (informatique émotionnelle) (2001- ). Les travaux sur l’informatique émotionnelle regroupent 3 axes de recherche : la détection des émotions, la génération des émotions et le raisonnement à partir de connaissances affectives. Plus récemment, je me suis intéressée à l’éthique des agents et robots conversationnels et par exemple au « nudging » (incitation) de ces machines. Ces recherches se situent au carrefour de plusieurs domaines : les neurosciences, l’intelligence artificielle, la reconnaissance des formes, la linguistique, le traitement du signal mais aussi les sciences cognitives et les sciences humaines, la psychologie, l’éthologie, la sociologie, le droit et la philosophie. J’ai écrit un ouvrage « Des robots et des hommes : mythes, fantasmes et réalité » chez Plon en 2017. J’anime les travaux qui sont conduits au LIMSI sur ces thématiques au sein du groupe “Traitement Automatique de la Parole”. Ces travaux ont donné lieu à plus de 150 publications dans des colloques ou des revues spécialisées (h-index : 35 scholar).

Je suis diplômée d’une thèse en Informatique (en 92), et d’une habilitation à diriger des recherches en Informatique (en 06).

Le sujet que je propose pour une chaire 3IA est  “Nudge et éthique des agents et robots conversationnels”.  Les objets connectés et spécifiquement les agents conversationnels comme Google Home, qui sont déjà au sein de nombreux foyers, apportent une nouvelle dimension dans l’interaction, à savoir la parole, et pourraient devenir un moyen d’influence des individus. Ils ne sont pour l’instant ni régulés, ni évalués et très opaques. Les ‘nudges’, issues des sciences comportementales, consistent à inciter les individus à changer de comportement sans les contraindre  en utilisant leurs biais cognitifs. Souvent utilisés à bon escient pour la santé, les nudges sont des outils efficaces de politique publique. Mais l’utilisation d’interface vocale personnalisée et l’informatique émotionnelle (affective computing) pourrait amplifier les phénomènes de manipulation de ces agents/robots-compagnons. Un projet de grande envergure intégrant la dimension sociale et culturelle du nudge dans l’interaction vocale est à l’étude avec des chercheurs étrangers d’universités prestigieuses comme au Japon (Kyoto et Tokyo Université), en Allemagne (Karlsruhe Université),  ou en Angleterre (Imperial College). Je suis aussi en lien avec Harvard et la société savante  IEEE sur le nudging. J’anime un groupe au sein d’ IEEE normes et standard: P7008, sur le nudging.  Des discussions sont en cours avec des industriels comme Softbank Robotics, Spoon, Orange,  ou encore Snips.

Mots-clés : Ethique by design, Nudge, Agent conversationnel –Affective computing– Interaction Humain-Robot

 CV long (version française)

Laurence DEVILLERS
mariée, 2 enfants
Nom d’épouse : DESCHAMPS BERGER
Nationalité : française

Mel : laurence.devillers@limsi.fr
Mobile : (+33) 6 12 43 43 12
@lau_devil

Parcours professionnel en enseignement et en recherche

  • 2011 :    Professeur des Universités en Informatique, UFR de sociologie et d’informatique, Sorbonne-Université, rattachée au LIMSI-CNRS
  • 2010 – 1995        Maître de conférences à l’Université Paris-XI, groupe TLP – LIMSI – Délégation CNRS (2009-10), Détachement (2001-03), PEDR (2007-15)
  • 1994 – 1995       Ingénieur R&D, pour SRI « Stanford Research Institute » à Paris
  • 1993 – 1994       ATER IUT Orsay, LIMSI
  • 1989 – 1992       CDD CNRS LIMSI projet européen ESPRIT POLYGLOT (89-92), ESPRIT1 – 291/860 (87-89)

Diplômes

  • 2006 :   Habilitation à Diriger des Recherches en Informatique de l’Université Paris XI, Orsay, 04/12/2006 au Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur, LIMSI-CNRS (UPR 3251)

Titre : Les émotions dans les interactions Homme-Machine : perception, détection et génération.

Directeur d’habilitation : Dr. Joseph Mariani

  • 1992 :     Thèse de doctorat en informatique de l’Université Paris-XI – Orsay, soutenue le 6 novembre 1992

Titre : Reconnaissance de parole continue avec un système hybride neuronal et markovien.

Directeur de thèse : Dr. Jean-Sylvain Liénard

Partenariat et valorisation

Projets européens :

  • Projet européen CHISTERA :JOKER (2014-2018) Interaction sociale et affective Homme-Robot
  • Réseau d’Excellence (ReX) :FP6-HUMAINE « HUman-MAchine Interaction Network on Emotion » (2004-2008)
  • Projet intégré (IP): Esprit POLYGLOT (1992-1992), Esprit MASK (1994-1998), LE-MLAP-RAILTEL (1995-1996) LE3-ARISE (1996-1998)

Projets nationaux :

  • Projet Technolangue: MEDIA (2001-2003) (Responsable du projet)
  • Projet ANR TLOG(Technologies Logicielles de l’Agence Nationale de la Recherche): Affective Avatars (2007-2010)  Animation comportementale d’avatars anthropomorphiques pilotés à la voix (Responsable du projet)
  • Projet DIGITEO : SECURITEO (2007- 2009) : Responsable de l’axe 5 : Systèmes informatiques pour la sécurité des biens et des personnes
  • Projets FUI CAP DIGITAL : ROMEO (2009-2012) Interaction sociale Homme-Robot, VoxFactory (2009-1011) Détection de la satisfaction du client dans les centres d’appels
  • Projet ANR TECSAN (Technologies Santé) : ARMEN (2010-2013), Interaction Homme-Robot pour les personnes dépendantes
  • Projet FEDER CAP DIGITAL: E-Therapies (2011-2014) Serious game pour le traitement des phobies sociales
  • Projet BPI : ROMEO 2 (2013-2017) Interaction sociale Homme-Robot
  • Projet ISN (Saclay) : Projet Quantified self (Sociologie Telecom Paris / LIMSI-CNRS) – Mémoire et droit des robots (Univ. Sceaux/ LIMSI-CNRS)
  • Projet institut de convergence DATAIA : BAD NUDGE – NAD ROBOT (2018-2021) Bad Nudge – Bad Robot? est un projet interdisciplinaire entre le CNRS et l’Université Paris-Sud, entre des informaticiens, linguistes, économistes et juristespour répondre à cinq verrous de recherche sur le nudge dans l’interaction homme-machine: 1- la définition des nudges et des bad nudges 2- le développement d’outils d’évaluation des nudges  3-  la mise en oeuvre de stratégies de nudging avec des robots montrant l’impact des nudges4- le développement d’un agent évaluateur et une étude longitudinale sur un objet connecté vocal existant (ex: Google Home) 5l’élaboration à l’aune de nos disciplines de préconisations éthiques et juridiques de politique publique pour la régulation de ces objets dans la société. Une plus grande transparence des systèmes permettrait l’amélioration de la confiance et de la compréhension des systèmes par les utilisateurs, notamment pour des personnes vulnérables comme les enfants et les personnes âgées. Ce projet est en adéquation avec trois des axes de travail décrits dans le projet de l’institut de convergence DATAIA de Paris-Saclay et implique des équipes interdisciplinaires qui ont déjà travaillé ensemble.

Collaboration avec des industriels par des encadrements de thèse ou projets :

  • THALES (CIFRE 2007- 2009)
  • France Telecom Lannion R&D (CIFRE 2003-2007)
  • PME DreamQuark (CIFRE 2016-2019)
  • Voxler, Spirops, Sinequa, Softbank, Spoon, Orange, Snips

Activités d’encadrement

Animation d’une équipe de 5-10 personnes (depuis 2004):

  • Chercheur invité rémunéré sur projet (6 mois en 2010): Björn Schuller (Université de Munich),
  • Encadrement de 10 thèses dont 2 CIFRE (3 nouvelles thèses en cours dont 1 CIFRE),
  • Encadrement de 3 Post-Doctorants (2008-2010, 2009-2010 et 2014-2016)
  • Encadrement de stages d’école Polytechnique (2006, 2008) : stages de 4ièmeannée  (8 étudiants)
  • Encadrement de 12 stages de MASTER M2 Recherche
  • Encadrement de 10 stages de MASTER M1 PXI (Orsay), MASTER Langue et informatique (Sorbonne)
  • Encadrement de 4 ingénieurs d’études

Responsabilités en enseignement

  • 2011-18 : Responsable Licence LFTI, Sorbonne
  • Avant septembre 2011 : Responsable cours L1 PXI, Responsable du Master PRO PXI, Responsable Option Master Recherche PXI, Responsable des mémoires de M1 PXI, Instances locales Paris 11 : Membre élu de la CSE

Administration de la recherche

  • 2017: Membre sur mission au conseil scientifique de l’institut de convergence DATAIA (sciences des données)
  • 2017: Membre du conseil scientifique de TransAlgo (Transparence des algorithmes)
  • 2018: Membre fondateur du HUB IA (éco-système privé-public)
  • Membre IEEE, Initiative internationale sur l’éthique des systèmes intelligents autonomes – 2018-2021 : P7008 IEEE working group : Nudging
  • 2019 : Co-éditeur du livre “Advanced Social Interaction with Agents” – 8th International Workshop on Spoken Dialog Systems, IWSDS 2017, Farmington, PA, USA, 6-9 June 2017, revised selected papers. Lecture Notes in Electrical Engineering 510, Springer 2019
  • 2018, 2016: Co-editeur du workshop ETHI-CA2 : ETHics In Corpus Collection, Annotation & Application
  • 2014 : Co-éditeur du livre “Natural Interaction with Robots, Knowbots and Smartphones, Putting Spoken Dialog Systems into Practice”. Springer 2014, ISBN 978-1-4614-8279-6
  • 2010 : Co-Editeur d’un numéro special dans la revue Computer Speech & Language “Naturalistic corpora of speech for the study and modelling of the use of affect in human communication”, L. Devillers, N. Campbell
  • 2014, 2012, 2010, 2008, 2006: Co-editeur du workshop “Corpora for Research on Emotion and Affect”, workshop satellite de LREC  Editeurs L. Devillers & al.

Membre d’associations :

  • AFCP (membre élu 2012-16), ISCA et IEEE (No 90526905), IFRATH, HUMAINE, Renaissance Numérique « Think tank » (membre du CA 2007-11) : http://renaissancenumerique.typepad.fr/
  • ISCA – Distinguished lecturer 2017-2019
  • Animation du site « emotion and speech » de HUMAINE: http://emotion-research.net/sigs/speech-sig
  • W3C expert – “incubator group on emotion representation” (2 ans)
  • Animation de sessions spéciales : Interspeech 2010 et 2011
  • Membre de comités scientifiques : ACII, WACA, LREC, ICASSP, Interspeech

Recherche : Dimensions affectives et sociales des interactions vocales avec des (ro)bots et projet  de chaire  sur les enjeux éthiques

Participants (LIMSI) : Laurence Devillers (resp.), Gilles Adda,Claude Barras, Lucile Béchade, Eric Bilinski(P2I), Caroline Etienne, Joseph Mariani, Sophie Rosset (ILES), Ioana Vasilescu, Sergey Volkov(Sorbonne Université)

Les activités  du thème que j’anime « Dimensions affectives et sociales des interactions parlées avec des (ro)bots et enjeux éthiques» ont été concentrées de 2013 à 2018 sur trois axes : le premier axe porte sur la robustesse de la détection des émotions à partir d’indices paralinguistiques et l’utilisation de ces systèmes dans les interactions avec des robots, le deuxième axe porte sur l’interaction affective avec des machines en utilisant des théories en linguistique sur l’interaction, en sociologie sur les rites sociaux, en psychologie cognitive sur les modèles d’évaluation et la théorie des états mentaux, et enfin le troisième axe le plus nouveau porte sur le besoin de réflexions éthiques autour de la modélisation affective et du pouvoir de manipulation par les machines vocales (chatbot, robots sociaux, objets vocaux connectés) dans la société.

Les sujets de recherche principaux sont la perception et l’interprétation des signaux émotionnels et sociaux en contexte dans l’interaction orale avec des bots ou des robots. La détection des émotions est effectuée à partir d’indices non verbaux principalement acoustiques alliés à la détection d’indices linguistiques. Les performances des modèles (Séparateurs à Vastes Marges, réseaux de neurones, deep learning) et leur pouvoir de généralisation dépendent de la qualité et quantité des données d’entraînement. Mon travail de recherche sur les émotions est fondé sur l’utilisation de matériel spontané « real-life ». L’équipe a collecté et analysé un grand nombre de bases de données dans différents contextes permettant des études cross-corpus : dans des centres d’appels pour des consultations financières, des appels d’urgence médicale ou encore lors d’interactions humain-robot avec des personnes âgées dans des maisons de retraite. Les expressions émotionnelles sont extrêmement variables d’un individu à l’autre, d’une situation à l’autre. Nous étudions ces facteurs de variabilité (âge, sexe, tâche, personnalité, santé, lieu, rôle, etc.) et comparons différentes approches d’apprentissage dans l’interaction robotique. L’utilisation des robots conversationnels est assez récente et peu contextualisée.

Nous visons à former des machines intelligentes capables de traiter des dimensions affectives et sociales dans l’interaction avec des humains en contexte dans un espace physique et social. Dans l’interaction, un profil de l’utilisateur est construit dynamiquement à partir du comportement expressif non verbal détecté et du contexte pendant l’interaction. Ce profil est utilisé pour modifier le comportement de la machine qui s’adapte ainsi à l’utilisateur. Le rôle de l’humour dans l’interaction humain-machine a fait l’objet de travaux récents (https://lejournal.cnrs.fr/billets/rire-avec-les-robots-pour-mieux-vivre-avec(2015)) . Des tests ont été menés auprès de personnes âgées pour des applications de robots compagnons avec les robots Pepper et Nao à l’hôpital Broca et dans des EHPAD avec des gérontologues et des ergothérapeutes dans le cadre de deux projets JOKER et ROMEO2. Nous avons monté le projet EU-Chistera JOKER (2013-2018) et participé au projet BPI ROMEO2 (2013-17) www.projetromeo.com, qui faisait suite au projet FUI ROMEO.

5 thèses ont été soutenues entre 2013 et 2018  sur des sujets autour des interactions émotionnelles :  C. Chastagnol (Reconnaissance automatique des dimensions affectives dans l’interaction orale homme-machine pour des personnes dépendante) en 2013,  A. Delaborde (Modélisation du profil émotionnel de l’utilisateur dans les interactions parléesHumain-Machine) en 2013, M. Soury (Détection multimodale du stress pour la conception de logiciels de remédiation) en 2014, F. Yang (Détection de marqueurs affectifs et attentionnels de personnes âgées en interaction avec un robot) en 2015 et L. Béchade (L’humour dans les interactions sociales homme-robot ) en mars 2018.

L’interaction avec des robots affectifs et sociaux a un fort pouvoir de modification du comportement des personnes qui vont les utiliser. Je parle de co-évolution humain-machine : la machine s’adapte à l’humain et l’humain s’adaptera à la machine. Ces sujets sont importants à anticiper dans la société, ce sujet dépasse la communauté scientifique et a été diffusé à une large audience dans le livre “Des robots et des hommes : mythes, fantasmes et réalité”, paru chez Plon en 2017.

Des travaux sur l’éthique de la conception de ces systèmes doués d’intelligence artificielle sont en cours à la fois sur la transparence et explicabilité des approches d’apprentissage “deep learning” (Thèse CIFRE de C. Etienne (en cours)), sur le pouvoir de manipulation dans l’interaction avec des machines affectives mais aussi sur la réflexion nécessaire en philosophie des sciences sur l’appréhension de la réalité technologique des interactions homme-machine. Je suis impliquée dans le comité de réflexion sur l’éthique de la recherche en numérique CERNA d’Allistène depuis 2015. Plusieurs rapports ont été produits sur l’éthique de la recherche en robotique, sur l’éthique de la recherche en apprentissage machine (L. Devillers et al., CERNA 2017 (FR) 2018 (EN)). Par ailleurs, l’équipe a été impliquée dans l’ISN sur le pôle co-évolution humain-machine  pour mener des recherches interdisciplinaires avec des sociologues et des juristes (ISN T2R (2015-2016), ISN IHR (2015-2016)). J’ai  actuellement un nouveau projet financé par l’institut de convergence interdisciplinaire de Paris-Saclay DATAIA (http://dataia.eu/node/79) sur la manipulation incitative par les machines affectives (Bad Nudge, Bad Robot) avec des économistes et des juristes (2 thèses débuteront en parallèle en informatique et en économie en octobre 2018) et nous sommes impliqués dans IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. Je suis en charge d’un groupe de réflexion P7008 sur les standards et normes autour du “nudging“. Un travail en philosophie des sciences est en cours avec le co-encadrement de S. Volkov (2016-) sur le sujet « Vers un nouveau paradigme de l’interaction humain-machine » avec la philosophe des sciences A. Barberousse (Sorbonne Université). L’objectif de la thèse est l’analyse philosophique du problème de l’interaction homme-robot (IHR). La robotique sociale vise la construction de robots qui possèdent des compétences sociales acceptées par les humains. Trois questions principales sont traitées : la construction de la sociabilité artificielle, en évoquant le problème de l’équilibre entre la fonctionnalité interne et l’apparence physique des robots sociaux ; les problèmes de la perception de tels robots par les humains avec l’analyse philosophique du phénomène de « la vallée dérangeante » ; et, finalement, la question des articulations internes du système homme-robot pris comme un tout où il s’agira principalement de la possibilité de la coadaptation entre homme et agent artificiel (problèmes éthiques et risques). J’ai co-orgnisé un workshop international et pluridisciplinaire sur “Social Robot as the Object of Philosophical Inquiry”le 30-31 mai 2018 à la Sorbonne (Sorbonne/LIMSI-CNRS). J’ai également proposé un axe transversal “ALLIÉ: Alliance entre Langue, Linguistique, Interaction affective humain-machine et Éthique”  sur ce sujet au département CHM du LIMSI-CNRS.

Interventions dans les médias 

  • Presse/TV : Le Monde (2008), Emission France 2 (2008), film sur le robot NAO (2011) http://www.lemonde.fr/week-end/video/2011/04/29/le-tour-des-labos-par-nao-le-robot_1514792_1477893.html
  • L. Devillers : plus de 45 interviews sur l’Intelligence Artificielle, la robotique, l’éthique et les retombées sociétales dont :
    • Tester les robots pour mieux vivre avec, Pour la Science, juin 2017
    • Interview pour le magazine Science et Avenir, Intelligence Artificielle : où en est-on vraiment ? Septembre 2017
    • Mon assistant le Robot, La recherche, septembre 2017
    • Rire avec les robots pour mieux vivre avec, Journal du CNRS, juin 2015.
    • Le jeu et Go et L’intelligence artificielle, Public Sénat, mars 2016
    • Musée du Quai Branly, exposition Persona étrangement humain, Public Sénat, 17 juin 2016
    • Solar Impulse et présentation de livre : Des robots et des hommes, Public Sénat, mars 2017
    • 28 minutes sur l’IA et les robots, septembre 2017
    • 24 heures Pujadas, l’info en questions, juillet 2017
    • le 5/7 France Inter, mars 2017
    • les Savanturiers France Inter, mars 2017
    • le 6/9 du week-end, mars 2017
    • France Inter, la tête au carré, mai 2017
    • Europe 1, Social club, avril 2017
    • L’étincelle, Sciences et Avenir, France 3 en octobre 2017
    • RFI, Autour de la question, octobre 2017
    • France Inter, le nouveau rendez-vous, novembre 2017
    • Europe 1, C’est arrivé demain, novembre 2017
    • Ce soir ou jamais ? F. Taddéi, INTELLIGENCE ARTIFICIELLE : FAUT-IL TOUT ARRÊTER ?, 11 mars 2016
    • S3Odeon, TED, Robot, tu seras humain et drôle, septembre 2016
    • S3Odeon, TED, Le robot de compagnie, septembre 2015
    • Des robots et des Hommes, MOOC mairie de Paris, 2017
    • France Culture, matières à penser avec Serge Tisseron, les robots dotés d’humanité feinte,10 novembre 2017
    • C dans l’air, Intelligence artificielle : doit-on s’en méfier ?, 30 décembre 2017
    • France Culture, du grain à moudre : Les robots ont ils des préjugés ? janvier 2018
    • France Culture, le magazine de la rédaction : les Gafa : la voix est libre, janvier 2018
    • BFM Business, 27 janvier 2018, 27 mars 2018
    • France Culture, la conversation scientifique : Qu’est ce que les robots nous apprennent sur nous mêmes ? avril 2018
    • France Culture, la méthode scientifique : A quand un Nobel pour une intelligence artificielle ? avril 2018
    • Blog Usine Nouvelle : https://www.usinenouvelle.com/blogs/laurence-devillers/les-chatbots-et-robots-emotionnels-sont-ils-nos-futurs-compagnons.N737814

Médiation scientifique

  • Séminaires invités 2004-2016 : 17 en France (DGA) et à l’étranger (Japon, Corée, Hong-Kong)
  • Membre élu du CEP (2018) : comité d’éthique de la publicité
  • Séminaires invités 2017-2018 :
    • Symposium franco-Japonais (Juin 2017) Tokyo – nuit de la philosophie (B. Stiegler)
    • Symposium franco-Japonais, 2018 (France)
    • AIforHumanity – mission Cédric Villani (mars 2018)
      • Duo sur l’intelligence humaine avec Justine Cassel, collège de France.
      • Diner de travail  à l’Elysée la veille avec le président de la république
    • Taking responsabilité for AI in Europe, 5 June 2018, Berlin
    • Symposium franco-Japonais, juillet 2018 (France)
    • Invitation à intervenir à ALLEA-Royal Society Conference “Flourishing in a Data-enabled Society”, 1-2 Nov 2018, UK
    • 1er Symposium franco-germano-japonais sur l’IA – 21&22 novembre, Tokyo (Japon)