Sécurité : faut-il des lois pour régir les robots ?

La science-fiction nous a averti : de Terminator à Matrix en passant plus récemment par Marvel’s Agents of Shield et Avengers : Age of Ultron, les robots et autres intelligences artificielles ne veulent pas notre bien. Et au-delà d’Hollywood, des gens comme Elon Musk ou l’astrophysicien Stephen Hawking sont très virulents sur les dangers potentiels de l’intelligence artificielle. Pourtant, les amateurs de science-fiction vous donneront automatiquement la réponse : il n’y a qu’à intégrer les trois lois d’Asimov dans la programmation des robots. En mars 2007, la Corée du Sud avait d’ailleurs sérieusement songé à les placer dans sa charte éthique des robots.

 

Isaac Asimov, auteur de Science Fiction.

Les trois lois d’Asimov, dites également lois de la robotique, les voici :

  • Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger.
  • Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Est-ce vraiment aussi simple ? Créées en 1947 en un temps où l’informatique n’en était qu’aux balbutiements, ces « lois » ont subi au fil des romans et des nouvelles d’Isaac Asimov une série d’échecs et de contournement. Pour Alex Nikolavitch, romancier, scénariste et essayiste spécialiste des littératures de l’imaginaire, « Les lois de la robotique sont des principes généraux, ce n’est pas ainsi que fonctionne l’intelligence artificielle. Il faudrait qu’elle puisse identifier l’humain comme humain dans toutes les situations et évaluer d’avance les actions potentielles. En fait, il s’agit d’un problème de définition : comment définir de façon non équivoque “humain” ou “nuire” ? Rien que le débat politique sur n’importe quelle loi humaine à destination des humains démontre qu’il y a une ambiguïté sur cette dernière notion. Qu’est-ce qui nuit ou pas ? Comment le savoir ? Comment un robot pourrait-il le déterminer à la volée, en temps réel ?

Outre Asimov, Jack Williamson avait écrit Les Humanoïdes, un roman sur les conséquences d’une directive de ce genre, appliquée à la lettre, jusqu’à l’absurde. Je ne vois pas de formulation simple possible. Dès lors que l’on confère une intentionnalité propre aux actions et paroles du robot, ça implique de changer la définition de la personne au sens juridique. Ou de se retrouver dans des situations à la Blade Runner, de relégation. Quant à obéir des constructions artificielles ? N’est-ce pas ce que nous faisons déjà quand l’ordinateur de l’EDF nous téléphone automatiquement pour nous relancer quand on n’a pas payé la facture ? »

On ne peut apprendre le Bien et le Mal à une équation

Du côté des spécialistes de l’intelligence artificielle, la réponse est aussi non pour toutes une série de raisons. Ainsi David Medernach, docteur en informatique spécialiste dans la vie artificielle, estime que même avec des IA évolutives actuelles, c’est impossible : « on ne peut pas inculquer des notions de Bien et de Mal à une équation mathématique, on ne sait pas le faire. » Jade Le Maître, CTO et cofondatrice de Hease Robotics estime elle qu’il faut avant tout repenser la sécurité des robots : « La plus grande faiblesse des robots à l’heure actuelle c’est ce que sont des humains qui les conçoivent.

Le premier des garde-fous, est s’assurer que l’humain ne soit pas pas biaisé et qu’il n’inculque à un robot un comportement nuisible à la société, de façon voulue ou non. Du côté technique pur, il faut s’assurer que dans n’importe quelle circonstance le niveau de sécurité soit toujours fonctionnel, c’est-à-dire que moi en tant que conceptrice de robot je dois le penser pour éviter que le robot ne heurte une personne ou que le logiciel soit hacké. Chacune de ces sécurités est redondante et doit fonctionner même si le robot est endommagé.

Malheureusement aucun système n’est parfait n’est totalement sur. Parfois on doit accepter qu’un système ne soit pas à 100 % sécurisé cela ne veut pas dire qu’il entrainera la destruction de l’humanité pour autant. »

La responsabilité reste du domaine de l’humain

Un des éléments qui pourrait être mis en avant serait que le robot puisse justifier ses actions. Oren Etzoni, PDG de Allen Institute for Artificial Intelligence proposait trois nouvelles lois dans une tribune pour le New York Times : un système doit se présenter comme une création artificielle, se soumettre aux lois en vigueur et déclarer quelles informations il détient sur ses interlocuteurs.

 

Pourquoi Asimov à placé les trois lois de la robotique dans cet ordre. (Crédit xkcd)

Pour Malik Gallab, directeur de recherche émérite LAAS – CNRS, Univ. de Toulouse, intelligence artificielle et robotique, ces lois sont une bonne base : « Ce que propose Etzoni n’est pas limité à la robotique et est parfaitement applicable. » Il rappelle toutefois que la responsabilité reste du domaine de l’humain : « Pour des questions de principe, les humains sont considérés comme des êtres responsables pour vivre en société depuis le Code de Hammurabi. Et on délimite exactement quelle réparation est due si un humain cause préjudice à un autre.

La machine n’est qu’une machine, et pour moi elle est complètement irresponsable. La responsabilité appartient à celui qui la fabrique, celui qui la diffuse et celui qui l’utilise. C’est à nous qu’incombe la responsabilité de celle qu’elles font de leurs déploiements et de leurs usages. Et les principes doivent être les mêmes pour la conduite automatique, un site Web ou un outil d’aide à la décision. »

Comprendre le contexte pour apprendre l’éthique

Alexandre Coninx, maître de conférences à l’université Pierre et Marie Curie en robotique, apporte toutefois un bémol en rappelant qu’« On crée des IA sur l’exemple des humains, mais l’exemple des humains était très mauvais, comme le prouve l’IA de Microsoft qui a été débranchée, car rendue raciste par certains utilisateurs de Twitter. Il ya aussi la problématique de transparence : le robot doit pouvoir dire ce qu’il fait et pourquoi il le fait à un moment donné. Or c’est quelque chose qui est très difficile à faire avec certaines techniques de machine learning et de deep learning. Un robot vit dans le même monde que les humains, mais il ne perçoit pas le monde comme nous, et donc ne l’appréhende pas comme nous.

Si on a des systèmes dont on ne sait pas comment les décisions sont prises, on ne peut pas mettre d’éthique dedans. Si on comprend comment le robot se représente le monde, on peut lui apprendre l’éthique. » Catherine Simon, présidente d’Innorobo, pense elle aussi que la perception du monde est un problème : « On est encore loin de l’IA générale de science-fiction comme les humains, qui comprendrait l’environnement et son contexte. On n’a pas encore besoin de mettre des garde-fous, mais il faut commencer à réfléchir, car une IA avec le contexte non seulement environnemental et social pourrait aider l’humain.

Plutôt que des garde-fous, il faut mettre en marche notre imagination positive : plutôt que dire à la machine tu ne feras pas ci ou ça, lui dire au contraire tu feras ci ou ça pour aider les gens. Il ne faut pas réfléchir en termes d’interdit, mais plutôt réfléchir aux applications positives et comment on pourrait mettre ces intelligences artificielles au service de l’homme. » Eric Dosquet, chief innovation officier chez Avanade et ancien d’Aldebaran la rejoint sur cette notion de bienveillance : « Bruno Maisonnier, le fondateur d’Aldebaran avait édicté plusieurs lois additionnelles à celles d’Asimov, toutes tournées autour de l’amour.

Aider à mieux comprendre le contexte

Les robots d’Aldebran étaient conçus comme des robots compagnons, destinés à accompagner les humains avec autant de bienveillance et d’affection qu’un chien peut en avoir pour son maître. Le principe général est posé et nous n’avons aucune alternative, toute invention a dû être régulée de la même manière que des voitures répondent à des normes et sont pilotées dans un cadre légal. Ces sujets ne sont pas une question d’informatique, mais une question civilisationnelle à laquelle la société civile et politique doit prendre part.

Il est très probable qu’il n’y aura pas une loi fondamentale commune à toute l’humanité. En effet, les différences de culture ont construit une perception différenciée aux hommes et aux objets. On peut donc penser qu’il y aura non pas une série de lois (même représentant un plus petit dénominateur commun), mais des grappes de lois coexistantes. »

Outre les problématiques techniques consistant à retracer le raisonnement du robot ou de l’IA, l’aider à mieux comprendre le contexte en plus de son environnement, et coder les interdits juridiques dans son système, installer ou non des garde-fous au cœur même des machines pensantes va aussi demander de revoir notre conception même de société et la façon dont nous interagissons avec nos outils.

Pour aller plus loin sur ce sujet

  • Moral Machine du MIT demande aux internautes d’aider eux-mêmes les voitures autonomes à prendre des décisions éthiques
  • En France la réflexion autour de l’éthique et du développement de l’intelligence artificielle s’organise autour de la CERNA

ZDNet