5Les onze commandements

Quels sont les onze commandements établis par Laurence Devillers pour contrôler et prévenir les risques de dérives des robots ? « Tu ne divulgueras pas mes données à n’importe qui, tu oublieras tout si je te le demande, tu pourras te déconnecter d’Internet si je te le demande, tu seras régulièrement contrôlé pour évaluer ce que tu as appris, tu pourras toujours m’expliquer tes comportements si je te le demande, etc. » ; voici quelques commandements imaginés par la chercheuse afin de contrôler les comportements de nos futurs compagnons robotisés. Les voitures autonomes posent par exemple clairement des questions de régulation, de responsabilité juridique : qui sera responsable en cas d’accident ? Ces questions, auxquelles il est impossible de répondre de manière globale, devront faire l’objet d’études et d’expérimentations. Par ailleurs, devra-t-on à l’avenir taxer les robots ? Laurence Devillers nous expliquera que cette mesure pose un certain nombre de problèmes qu’il s’agira d’énumérer…

Laurence Devillers

Laurence Devillers, LIMSI-CNRS, Professeur Paris-Sorbonne 4

Laurence Devillers est Professeure d’informatique à l’Université Paris-Sorbonne 4 et responsable du thème : Dimensions affectives et sociales dans les interactions parlées au LIMSI-CNRS à Orsay.

http://www.limsi.fr/tlp/topic2.html

Ses recherches portent principalement sur l’ «affective computing», le traitement automatique de la langue parlée, la détection des émotions « real-life », l’interaction homme-machine et la robotique affective et sociale.
Elle est impliquée dans l’association Eurobotics dans les groupes de travail sur «Natural Interaction with Social Robot» et «Socially intelligent robots».
Elle a participé à la rédaction du premier rapport sur l’éthique du chercheur en robotique pour la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique (Cerna) de l’alliance Allistene et est maintenant membre de la Cerna et anime un groupe de travail sur «Ethique en apprentissage machine».
Elle participe aussi à l’initiative IEEE dans les groupes «moral values» et «affective computing».