En 1967, le philosophe anglais Philippa R. Foot a posé ce qui pourrait ressembler à un simple problème d’éthique : un wagon (chariot) sans contrôle est sur le point d’écraser 5 personnes bloquées sur la piste. Cependant, le chariot est sur le point de rencontrer un carrefour et, si quelqu’un actionnait le levier qui contrôle le carrefour, le chariot pourrait changer de direction, heurtant ainsi une seule personne.
Ce qu’il faut faire? Tirer le levier et ainsi réduire le nombre de morts, ou laisser le wagon suivre son cours ?
La réponse peut paraître évidente, mais elle ne l’est pas si c’est nous qui devons tirer le levier, ni encore moins si les variables en jeu changent encore.
Essayons de comprendre dans cet article comment résoudre ce problème « simple » éthique cache un énorme importance dans le technologie moderne, dans lequel nous en sommes venus à nous demander : à l’ère de l’intelligence artificielle, quelle éthique devrions-nous enseigner aux voitures autonomes ?
La naissance du problème du tramway et la doctrine du double effet
Est-il plus juste de laisser les gens mourir ou tuer tout en sauvant des vies ?
C’est d’une réflexion sur cette question qu’est né le problème du chariot. 1967, quand le Philosophe anglaise Philippa R. Footà l’intérieur de l’article Le problème de l’avortement et la doctrine du double effet où le philosophe critiquait doctrine du double effet posée par Thomas d’Aquin. Pour le théologien italien, en simplifiant, la solution réside dans les conséquences, c’est-à-dire le double effet : si un comportement amoral, comment tuer, apportez avec vous un plus grand bien au préjudice infligé, alors une action normalement considérée comme immorale cela peut devenir légitime.
Foot s’est retrouvé à réfléchir à la question de l’avortement, un sujet qui fait encore aujourd’hui l’objet de vifs débats dans toutes les régions du monde. Mais pour ce faire, il a réduit la question à une sorte d’énigme compréhensible par tous :
Le conducteur d’un train s’est évanoui et un wagon – un chariot – roule sans guide et s’apprête à heurter cinq personnes malheureusement attachées aux voies. Cependant, il y a une chance pour les cinq malheureux : le chariot se dirige vers une bifurcation sur la route. Il est donc possible pour un passant qui serait témoin de la scène dramatique de détourner la course folle du train en actionnant le levier et ainsi sauver les cinq. Cependant, une personne est coincée sur la piste secondaire et serait tuée par cette action.
Alors que devons-nous faire, les laisser mourir ou tuer et réduire le nombre de morts ?
Dans ce cas, on peut être amené à penser que l’actionnement du levier n’implique pas l’intention de tuer, mais seulement celle de sauver. Quelle différence y aurait-il eu si le problème avait été posé différemment et si – au lieu de la conscription – il avait fallu agir physiquement en tuant quelqu’un ?
Les variantes du problème et les variables morales
Beaucoup de personnes interrogées sur le problème de chariot Au fil des années, ils ont répondu que oui, ils auraient tiré sur le levier pour sauver davantage de vies. Cependant, il arrive quelques années plus tard version du problème de La philosophe américaine Judith Jarvis Thomson.
La situation est la même : un wagon incontrôlable est sur le point de percuter cinq personnes attachées aux voies. Cette fois, il n’y en a pas carrefour pour pouvoir détourner le train, mais au-dessus des voies il y a un viaduc avec un homme dessus. La seule façon de sauvez les cinq personnes Et pousser Ce homme qui, tombant du viaduc et finissant heurté par la voiture, allait la bloquer, sauvant ainsi les cinq personnes.
Le problème est formellement le même : je sauve cinq vies en en tuant une. Mais le fait que dans ce cas le meurtre soit direct change tout. La réponse de la plupart des personnes interrogées change radicalement : « Je ne suis pas sûr de pouvoir tuer quelqu’un ». La réponse devient encore plus complexe si la personne à pousser est une personne qui nous est chère. Pourtant, même dans le cas initial, nous aurions tué une personne en actionnant le levier.
De toute évidence, une variable humaine supplémentaire apparaît : la caractère physique de l’action directe.
Mais pas seulement. Si l’homme avait été mauvais ou détestable pour une raison quelconque ? Aurions-nous été plus justifiés de le tuer pour sauver cinq vies ?
Il est évident que tout le monde ne ferait pas les mêmes choix : les différences entre les individus et leurs cultures influencent nos choix. En effet, les personnes interrogées ont donné des réponses différentes selon la physicalité des personnes, leur appartenance ethnique ou leur appartenance à des groupes mineurs, démontrant la discrimination qui peut être présente dans notre société.
Ou pire encore, si s’il n’y avait pas eu un homme pour pousser, mais nous aurions dû sauter nous-mêmes pour sauver les cinq personnes, nous aurions pu le faire pour obtenir « le moindre mal »?
Il existe de nombreuses variantes de problème de chariotplus ou moins « cruel » ou imaginatif, ce qui a rendu ce problème fortement critiqué au fil des années pour sa forme abstraite et parce qu’il réduit la philosophie à un puzzle.
Toutefois, ces dernières années, ce problème a trouvé une application extrêmement pratique : lorsque nous conduisons une voiturenous gérons les situations de danger en fonction de nos instincts et de nos ressentis, c’est pourquoi nous n’agirons pas tous de la même manière. Et donc, que doit faire une voiture autonome si elle est confrontée à un problème de chariot ?
Le dilemme éthique des voitures intelligentes et autonomes
Pensons à cela problème de chariot: un fille traverse soudain la route en courant après un ballon. Nous, qui conduisons la voiture, devons décider rapidement quoi faire : faire un écart et heurter une personne âgée qui se trouve sur le trottoir.
Que choisirions-nous ? En parlant de responsabilité, c’est la petite fille qui n’a pas respecté le code de la route, pourtant on pourrait penser que faire un écart est un devoir, considérant qu’elle est mineure alors qu’une personne âgée est sur le trottoir. Et s’il y avait deux, trois ou cinq personnes âgées ? Combien de personnes faut-il être pour que la vie de la petite fille devienne moins importante que la leur ?
Et si c’était plutôt une personne âgée qui traversait et qu’il y avait un mineur sur le trottoir ? Une variation simple qui change complètement la donne.
De tels problèmes éthiques naît un dilemme éthique fondamental pour la mise en circulation de voitures entièrement autonomes. Nous parlons du niveau d’automatisation maximum, celui dans lequel il est possible de conduire un véhicule sans l’affecter de quelque manière que ce soit.
Dans ce cas, Que devrions-nous « apprendre » aux voitures ?
L’IA prend des décisions en fonction de ce qu’elle sait
De nos jours, le voiture à conduite entièrement automatisée – soit les niveaux 4 et 5 – Ils ne sont pas encore là. LE problèmes auxquels ils doivent faire face sont en fait multiples d’un même point de vue technologique, mais aussi éthique Et perspicace.
En effet, l’intelligence artificielle prend des décisions en fonction des données qu’elle possède et, pour simplifier beaucoup les choses, de la manière dont on lui demande de les interpréter. Il faut donc dire que pour pouvoir prendre une décision dans un contexte comme celui décrit ci-dessus, où il faut choisir entre la vie d’une petite fille qui commet une erreur et celle d’une personne âgée qui n’en a commis aucune infraction, c’est tâche des programmeurs établir selon quelle éthique il faut se comporter.
Sur place, on pourrait répondre par une règle de base rationnelle : « celui qui commet une erreur paie ou recherche le moins de dégâts (comme une personne décédée au lieu de cinq) ». Cependant, il faut considérer que si, par exemple, le moindre mal est que notre voiture dérape et s’écrase contre une barrière, alors nous pouvons affirmer avec certitude que le choix humain serait de se préserver. On se demande alors si on accepterait d’être à bord d’une voiture qui pourrait décréter que le moindre mal est de se faire du mal au profit de la santé d’autrui.
Toutes les considérations évoquées ci-dessus s’inscrivent clairement encore dans une logique débat toujours vivant et fervent au sein de la communauté scientifique. En effet, les situations dangereuses sont presque toujours dues à une erreur humaine, que ce type de véhicule résoudrait. Ce qui est sûr, cependant, c’est que pour qu’il n’y ait pas d’erreur humaine à considérer – comme un dépassement risqué par exemple – toutes les personnes sur la route devraient disposer d’une voiture autonome.
Il faut toujours considérer que ces les problèmes éthiques doivent alors être combinés en même temps que les problèmes technologiques. En fait, à ce jour, les voitures entièrement autonomes ne sont pas capables de lire instantanément la situation à laquelle elles sont confrontées, afin de décider ce qui est le plus éthique à faire.