Les grands défis de la robotique dans la société : comprendre et construire la société numérique.

Le projet TE2R propose, en alliant les compétences des TIC et du droit, une démarche in concreto et ex ante, consistant à relire le droit de la responsabilité à l’aune des traces. L’objectif final est de faire des préconisations qui permettraient aux industriels d’anticiper les recherches de responsabilité.

L’homme et le robot vont véritablement bientôt « coexister ». Mais cette coexistence ne sera pas nécessairement paisible. L’interaction humain-robot pose la question cruciale de la confiance. Pour que l’interaction soit possible, il est nécessaire que les utilisateurs puissent avoir confiance dans les robots avec lesquels ils entrent en contact. « Un des buts des chercheurs en robotique sociale est d’essayer d’empêcher un déficit de confiance de la part des utilisateurs mais également d’empêcher une confiance trop aveugle dans le robot » (CERNA, L’éthique du chercheur en robotique, Novembre 2014, rapport dans lequel L. Devillers était impliquée). L’évaluation du niveau de confiance des utilisateurs envers les comportements et performances du robot est un axe de ce projet.

La coexistence des robots et des humains va par ailleurs amener des problématiques de droit différentes. Les dommages causés par les robots à des individus ou à des biens constituent un problème nouveau et délicat, dont le droit doit naturellement se saisir. Si l’adaptation des règles classiques de la responsabilité délictuelle s’impose désormais comme une nécessité, plusieurs voies restent ouvertes du fait de la complexité de la situation. Il serait ainsi possible d’envisager d’engager la responsabilité du propriétaire ou de l’utilisateur du robot. On songe ici aux règles organisant la responsabilité du fait des choses, qui permettent d’engager la responsabilité du gardien dès lors que la chose qu’il a sous sa garde cause à autrui un dommage. Si la solution est séduisante – notamment parce qu’elle n’impose pas de révolution au sein des règles de la responsabilité, mais simplement une « mise à jour » qui se traduirait par une ouverture de la responsabilité du fait des choses à cette nouvelle hypothèse –, elle peut néanmoins faire l’objet de critiques.

Ainsi, dès lors que le robot acquiert une intelligence artificielle et, partant de là, une certaine autonomie (notamment parce qu’il est désormais capable d’assimiler des connaissances qui lui sont propres), le choix de l’engagement de la responsabilité du propriétaire ou de l’utilisateur demeure-t- il pertinent ? Le robot est-il encore véritablement sous la garde de ces derniers ? Tout va dépendre du niveau des connaissances qu’il a acquises.

Dans ces conditions, la prise d’indépendance croissante du robot n’impose-t-elle pas d’envisager une responsabilité personnelle de la créature robotique ? Et, dans l’affirmative, comment concevoir juridiquement cette expression presque antinomique? A ce sujet, la reconnaissance de la personnalité juridique du robot – qui fait aujourd’hui l’objet de débats – pourrait s’imposer comme la première pierre de l’édifice que représenterait cette nouvelle forme de responsabilité, et ouvrirait la voie à des questionnements novateurs, comme l’appréciation du degré d’autonomie du robot qui justifierait sa reconnaissance en tant que sujet de droit.

Les questions que soulève l’étude de la responsabilité du robot sont donc multiples et particulièrement riches. Elles suscitent par ailleurs d’autres interrogations, « par ricochet » en quelque sorte, dans le domaine des garanties et des assurances. Il serait en effet possible d’envisager la création de nouveaux types d’assurances ou de fonds de garantie spécifiques, qui auraient vocation à réparer les dommages causés par les robots.

Le projet d’étude se propose d’ouvrir la boîte de Pandore que représente cette question complexe de la responsabilité des robots. Entre interrogations sur la personne (du robot comme de son utilisateur), sur le degré d’autonomie, sur le droit de la responsabilité ou le droit des assurances, le sujet est assurément fécond.

L’aspect pluridisciplinaire JURIDIQUE et TIC permettra de démontrer que, tandis que le robot s’émancipe de l’humain, LES TRACES ET EXPLICATION DU ROBOT SONT AU CŒUR DU SUJET. Tracer et expliquer les comportements du robot sont parmi les préconisations proposées par la CERNA dans son rapport sur l’éthique du chercheur en robotique. Les règles juridiques applicables peuvent, elles aussi, se détacher des mécanismes existants en proposant des solutions nouvelles, dont l’enjeu est aujourd’hui incontestable ; le projet cherche enfin, autant que possible par cette approche pluridisciplinaire, à anticiper les conséquences de la technique, plutôt que de courir après cette dernière.

Le traçage est utilisé dans le sens de l’explication des décisions et des actions du robot. Si un robot simule une émotion, il est important de pouvoir tracer le calcul qui a abouti à cette décision pour en comprendre la raison. Plus généralement, il importe que le système humain-robot ait un comportement prévisible et robuste, aussi complexe soit-il. Ceci nécessite notamment que l’humain puisse avoir confiance dans le comportement du robot, et de prendre en compte les possibles défaillances du système. Dans notre projet, nous appliquons ce concept de traces au dialogue oral. De façon générale, il importe d’avoir une trace du comportement du robot permettant d’analyser les causes d’un dysfonctionnent, tant pour l’amélioration du robot et la confiance des utilisateurs que pour d’éventuelles recherches de responsabilités en cas de préjudice. Ceci est un problème difficile en général dans le domaine de l’informatique. Il y a des limites théoriques (dans la théorie de la Calculabilité) qui disent que l’explication du résultat d’un programme n’est pas toujours possible.

L’intérêt d’imposer un traçage est de faciliter la responsabilité en cas de dommage et, parallèlement, d’augmenter le degré de confiance. L’obligation pourrait sur ce point être comparée à une obligation d’information, comme il en existe de nombreuses en matière de droit de la consommation.

L’objectif final est de rédiger des préconisations pour les industriels sur des normes éthiques de traçage à mettre en place. La présence de la PME Aldebaran dans le projet est un des intérêts majeurs de celui-ci. La société sera ainsi consultée sur les préconisations et charte pouvant être adoptées.

Partenaires : 

Alexandra Bensamoun, Directrice du CERDI, UPSud, Faculté Jean Monnet, coporteur
Laurence Devillers, Professeur, département Communication Homme-Machine, Equipe: Dimensions affectives et sociales dans les interactions parlées – Interaction Humain-Robot, LIMSI- CNRS, co-animateur du pôle co-évolution Humain-Machine, ISN, coporteur

Guillaume Duplessis Dubuisson, post-doc en IA au LIMSI-CNRS

Julie Groffe, docteur en droit, post-doc au CERDI Rodolphe Gelin (Société Aldebaran)