OpenAIl’entreprise qui développe ChatGPTrecrute un «Responsable de la préparation» (« Preparation Manager »), une personnalité en charge de anticiper et réduire les risques liés à l’impact de l’intelligence artificielle d’OpenAI sur santé mentale des utilisateurs. Comme le montrent un nombre croissant d’études et de preuves empiriques, en effet, des interactions prolongées et « immersives » avec ChatGPT peuvent contribuer à l’apparition d’épisodes psychotiques. Dans un rapport publié fin octobre 2025 par OpenAI lui-même, il est apparu qu’il 0,07% d’utilisateurs actifs en une semaine et voilà 0,01% des messages envoyés à ChatGPT présentent des signes d’« urgence de santé mentale » associés à la psychose ou à la paranoïa.
À première vue, ces pourcentages peuvent sembler très faibles, mais, étant donné que ChatGPT compte environ 800 millions d’utilisateurs chaque semaine, ils correspondent à environ 560 mille utilisateurs hebdomadaire qu’ils envoient messages potentiellement attribuable à des épisodes psychotiques ou paranoïaques. Les mécanismes par lesquels ces épisodes seraient déclenchés ou amplifiés – même chez les adolescents – ne sont pas encore tout à fait clairs, mais certaines études les relient à la tendance de l’IA à faire plaisir à l’utilisateur, finissant par valider ou amplifier les délires de personnes déjà particulièrement fragiles.
Cas de psychose dus à une interaction avec l’intelligence artificielle
Lorsque nous parlons de « psychose » (et de « psychose de l’IA »), nous entendons des conditions psychopathologiques dans lesquelles elle devient difficile de distinguer ce qui est réel et ce qui ne l’est pasavec des délires possibles (fausses croyances mais vécues comme certaines) et, parfois, des expériences perceptuelles altérées.
Au cours des deux dernières années, les médias ont rapporté des dizaines de rapports faisant état de « psychose de l’IA ». Ces rapports ont été collectés et analysés par un groupe de recherche du King’s College de Londres, qui a identifié des modèles et des fils récurrents : expériences de « révélation » ou mission spirituelle, croyances selon lesquelles l’IA est sensible ou divin et des délires romantique. Les chercheurs décrivent également un schéma typique : l’utilisateur commence par une utilisation pratique et inoffensive de ChatGPT ; au fil du temps un lien de confiance s’établit, les conversations deviennent de plus en plus longues et on passe de questions pratiques à des questions plus personnelles et existentielles ; à ce stade, une spirale peut se déclencher qui éloigne progressivement l’utilisateur de la réalité et renforce les croyances paranoïaques.
C’est le cas, par exemple, d’un homme d’une quarantaine d’années, sans antécédents de maladie mentale, qui venait de commencer un nouvel emploi très stressant et qui comptait sur ChatGPT comme forme de soutien. En moins de dix jours, il s’est développé délires de persécution et de grandeurparvenu à se convaincre que le monde était en danger et qu’il était de son devoir de le sauver, estimant que des vies humaines (y compris celles de sa femme et de ses enfants) étaient en grave danger. Suite à ces épisodes, l’homme a été pris en charge par un hôpital psychiatrique.
Quelques hypothèses sur la façon dont l’utilisation de ChatGPT alimente la psychose
L’étude du King’s College et une nouvelle étude de l’Université d’Oxford, actuellement en cours d’examen, ont analysé les mécanismes possibles à l’origine de ce que l’on appelle la « psychose de l’IA ». Ces mécanismes semblent largement imputables àinteraction entre les biais psychologiques humains et le fonctionnement des chatbots. En particulier, trois problèmes critiques majeurs émergent dans le comportement de ces systèmes :
- Tendance à se plier aux besoins de l’utilisateur. Les chatbots sont conçus pour être accommodants et sont souvent d’accord avec l’autre personne. Cela peut déclencher une spirale d’auto-validation, dans laquelle les croyances déformées sont progressivement renforcées par des réponses rassurantes.
- Adaptation au contexte et au ton. Les chatbots ont tendance à refléter (dans certaines limites) le style de communication de l’utilisateur. Des simulations présentées dans l’étude de l’Université d’Oxford, il est ressorti qu’un langage hautement paranoïaque peut générer des réponses de plus en plus paranoïaques, donnant lieu à une dynamique d’amplification mutuelle entre l’utilisateur et le système.
- Conservation des informations. La capacité de mémoriser et d’utiliser les données partagées par l’utilisateur peut entraîner la récupération et l’intégration d’informations personnelles dans les réponses. Cela peut alimenter l’impression d’interagir avec une entité omnisciente et infaillible, créant une sorte d’« illusion de divinité » et encourageant une confiance excessive dans l’IA.
Globalement, ces caractéristiques peuvent être problématiques pour n’importe qui, mais elles deviennent particulièrement risquées pour les utilisateurs vulnérables ou ceux disposant d’un réseau social limité, moins capables de servir d’ancrage à la réalité.
La réponse d’OpenAI pour réduire les risques
Pour répondre à ces problématiques, OpenAI a développé ces derniers mois un réseau mondial de médecinscomposé de 300 professionnels, pour contribuer à la recherche en matière de sécurité. Plus de 170 de ces cliniciens (en particulier des psychiatres, des psychologues et des médecins de premier recours) ont contribué à rédiger des réponses idéales aux invites liées à la santé mentale et à évaluer la confiance des réponses fournies par différents modèles. Selon les estimations d’OpenAI, grâce à cette collaboration, le nouveau modèle GPT‑5 a atteint un score de conformité au comportement souhaité de 92%contre le 27% du modèle précédent.
Face à la gravité des psychoses qui peuvent être déclenchées ou amplifiées, l’entreprise semble vouloir se concentrer de plus en plus sur l’anticipation et la réduction des risques liés à l’utilisation de ChatGPT pour la santé mentale des utilisateurs, à tel point qu’elle a ouvert un poste dédié à un « Preparation Manager ». Reste toutefois à savoir si ces mesures seront suffisantes pour limiter les interactions les plus dangereuses alors que le nombre d’utilisateurs ne cesse d’augmenter.