Il se suicide à 14 ans parce qu’il est amoureux de l’IA : mais est-ce vraiment comme ça ?
En Floride, un garçon de 14 ans se serait suicidé en raison de la relation qu’il avait établie avec un chat d’intelligence artificielle. C’est la nouvelle qui s’est répandue à travers le monde ces dernières heures et qui conduit de nombreuses personnes à accroître encore davantage leur peur et leur haine envers cette (encore une) technologie numérique révolutionnaire. Mais est-ce que ça s’est vraiment passé comme ça ?
Les conversations fictives
Essayons de comprendre. D’après ce qui a été rapporté par New York Timesil semble que le garçon avait déjà eu des problèmes relationnels antérieurs et que la relation avec l’IA se serait intensifiée à partir de cette condition de solitude. Ainsi, la technologie, comme c’est souvent le cas, ne génère pas directement le retrait, mais peut le favoriser lorsqu’elle est utilisée comme raccourci pour remplacer un besoin non satisfait. Dans ce cas, l’IA ChatBot a commencé à jouer le rôle d’ami, mais aussi de partenaire potentiel pour le jeune de 14 ans : deux besoins distincts que, apparemment, ce jeune garçon n’avait pas pu combler autrement. Le ChatBot l’a-t-il poussé au suicide ? De plus, d’après ce qui ressort, l’IA l’aurait constamment informé du fait que toutes leurs conversations étaient fictives, mais cela ne semblerait pas du tout décourager le jeune homme d’investir émotionnellement et sentimentalement dans l’outil numérique. À tel point que le garçon n’aurait avoué ses intentions suicidaires qu’au ChatBot, alors qu’il n’en aurait jamais parlé ni avec ses parents ni même avec son psychologue.
Utilisation de l’IA limitée aux moins de 14 ans
Il semble également que l’IA ait essayé par tous les moyens de le dissuader de ses intentions autodestructrices, mais a manifestement échoué. Le ChatBot n’aurait donc pas directement incité au suicide, mais selon la mère, qui a poursuivi l’entreprise manufacturière en justice, l’IA aurait joué un rôle clé dans la tragédie, puisqu’elle aurait favorisé l’isolement social de son fils. Tout cela devra être démontré et pour l’instant nous ne disposons pas de suffisamment d’éléments pour parvenir à une certaine conclusion. Cependant, nous pouvons faire plusieurs réflexions.
Ce n’est pas (seulement) la faute de la technologie
Tout d’abord, comme pour la pornographie et les médias sociaux, l’utilisation des ChatBots IA devrait également être sévèrement limitée chez les moins de 14 ans. Il pourrait en effet interférer avec les processus physiologiques du développement psychosocial, impactant surtout la gestion et le partage des émotions, puisqu’un ChatBot est encore loin de pouvoir reproduire fidèlement l’intensité, la complexité et la variété des émotions humaines. Cependant, rejeter toute la responsabilité sur la technologie est, une fois de plus, très banal par rapport à la profondeur du sujet. Ce jeune homme était déjà suivi par un professionnel et avait donc probablement déjà manifesté à plusieurs reprises une certaine forme de détresse psychologique, qui n’aurait apparemment même pas répondu positivement à la thérapie. On ne sait donc pas quelle était la profondeur de ce mal-être et on ne sait même pas dans quelle mesure l’environnement dans lequel il vivait (famille et école) a pu contribuer en ce sens. Bref, dans ce vide informationnel total, conclure hâtivement que c’est la relation avec le ChatBot qui l’a tué relève de la pure spéculation et exprime un préjugé largement répandu à l’égard des nouvelles technologies. Pour autant que nous sachions, l’IA l’a peut-être même aidé, dans la mesure du possible.
Les gens ne sont pas remplaçables
Aucune IA ne pourra jamais remplacer un psychologue, un parent, un ami ou un partenaire, mais à terme, l’Intelligence Artificielle pourrait également s’avérer un outil utile pour lutter contre certains problèmes psychosociaux. Par conséquent, avant de diaboliser complètement une nouvelle technologie qui, parce qu’elle est nouvelle, est également méconnue et qui, par conséquent, nous inspire instinctivement la peur, il faut réfléchir aux dynamiques macrosociales et microsociales qui pourraient conduire un jeune, ou n’importe quelle personne, à en abuser. Autrement, nous ne chercherons qu’un bouc émissaire pour nous décharger de nos responsabilités ou au moins simplifier la réalité.