Ce qu’ils sont et ce qu’ils disent

Alexis Tremblay
Alexis Tremblay

Le Trois lois de la robotiqueformulé par l’écrivain de science-fiction Isaac Asimov Dans le 1942représente un code éthique conçu pour réguler l’interaction entre les êtres humains et les machines intelligentes. Introduit dans l’histoire Ruissellement puis devenir un point de référence dans la littérature de genre, ces règles Ils imposent les robots pour ne pas nuire aux êtres humainsDe obéir aux ordres et de protéger son existencemais toujours en respectant une hiérarchie précise. Dans ce cas, ces lois sont formulées comme suit:

  1. Un robot ne peut pas endommager un être humain et il ne peut pas permettre que, en raison de son incapacité à intervenir, un être humain subit des dommages.
  2. Un robot doit obéir aux ordres donnés par les humains, à condition que ces ordres ne contrastent pas la première loi.
  3. Un robot doit protéger son existence, à condition que la sauvegarde de celui-ci ne contraste pas avec la première ou la deuxième loi.

Par la suite, Asimov a introduit une loi encore plus générale, la « Zéro loi »qui prétexte le puits de l’humanité dans son ensemble à celui des individus. Malgré le charme et la solidité logique de ces règles, leur mise en œuvre dans les robots modernes se heurte aux limites techniques et aux besoins réels du développement technologique. L’intelligence artificielle actuelle est incapable de comprendre des concepts tels que «blesser un être humain» dans leur complexité, et l’industrie robotique suit souvent les priorités loin de celles imaginées par Asimov, en particulier dans des domaines particuliers, comme le militaire.

L’idée derrière les trois lois de la robotique

Quand Asimov formulé le Trois loisla robotique était encore un domaine à l’aube, et sa vision reflétait davantage une utopie littéraire qu’une perspective concrète du développement technologique. Les lois établissent qu’un robot ne devrait jamais endommager un être humain ni permettre, par l’inaction, que cela se produise. Ils doivent également effectuer les ordres reçus, à moins que ceux-ci ne contrastent avec la première règle, et protéger leur existence sans violer les deux précédents. Le So-called « Zéro loi »introduit par Asimov dans 1985 avec le roman Robots et empiredit que « Un robot ne peut pas endommager l’humanité, et il ne peut pas permettre que, en raison de son manque d’intervention, l’humanité subit des dommages« En imposant des robots pour protéger l’humanité dans son ensemble, même au prix de sacrifier les individus. L’idée derrière ces règles était Créer des machines qui, par nature, ne pouvaient pas se rebeller contre leurs créateursévitant le scénario classique de la rébellion des machines, répandue dans la science-fiction de l’époque.

En les commentant, Filippo Cavalloprofesseur de l’école secondaire Sant’anna à Pise, à l’occasion du 75e anniversaire des trois lois, a déclaré:

Les lois d’Asimov sont très strictes et rigides, mais ont été conçues dans un contexte historique, culturel et scientifique qui n’a pas encore évolué comme actuel. Ils sont toujours valables et du bon sens, mais il est nécessaire de les insérer dans un cadre plus complexe de règles.

Parce que les trois lois de la robotique sont difficiles à appliquer aujourd’hui

Malgré leur élégance théorique, le Trois lois s’avèrent difficiles à appliquer dans le monde réel Et pour diverses raisons. Un premier obstacle est certainement de la nature technique: Les robots actuels n’ont pas une compréhension avancée du langage naturel ou des situations complexes. Prenons cet exemple. Une infirmière robot devrait-elle empêcher un patient de refuser une thérapie éventuelle potentiellement de la vie? Dans un accident de la circulation inévitable, comment un véhicule autonome devrait-il se comporter pour minimiser les dommages? Ces questions montrent comment la logique binaire des trois lois n’est pas suffisante pour Gérer les situations complexes d’un point de vue éthique.

Une autre limite est liée à intérêts économiques et politiques. Une grande partie de la recherche robotique est financée par des entités militaires, qui développent des machines à des fins de guerre, ce qui rend impossible d’appliquer la première loi, ce qui interdit les nocifs aux êtres humains. De plus, des robots conçus pour le secteur industriel ou domestique sont construits pour Maximiser l’efficacité et la productiviténe pas suivre un code éthique abstrait. Cela soulève des questions sur la sécurité et la responsabilité éthique à laquelle il est difficile de répondre. Juste pour dire: si un robot prend une « décision » qui cause des dommages à un être humain, qui répond? Le fabricant du robot? L’équipe de développement de son logiciel? Le robot lui-même?

Sans surprise, la communauté scientifique est discutée depuis des années sur la nécessité de développer des réglementations la plus appropriée à la réalité actuelle. Selon certains experts, Les trois lois pourraient être intégrées dans un système plus complexecela prend en compte les scénarios spécifiques et les compétences réelles des machines. D’autres affirment qu’il serait plus réaliste de s’appuyer sur des réglementations juridiques et des normes techniques, plutôt que sur des principes philosophiques difficiles à traduire dans le code informatique. Compte tenu des progrès dans le domaine de la robotique et des pas en avant dans le secteur de l’IA, le débat est destiné à rester ouvert et à poser de plus en plus de questions aux réponses.