ELIZA, le premier chatbot de l’histoire, et le besoin humain d’être compris

Alexis Tremblay
Alexis Tremblay

« L’intelligence artificielle » fait référence à la capacité des machines à imiter les fonctions et comportements humains tels que l’apprentissage, la capacité de raisonner et de générer un langage, à résoudre des problèmes, à prendre des décisions – mais aussi à comprendre les êtres humains, en simulant l’empathie et en exprimant des « sentiments ». Cela se produit grâce à LLMdes « grands modèles de langage » qui, grâce à un entraînement sur des milliards de textes et de conversations, sont capables de répondre de manière de plus en plus empathique et personnalisée, au point d’établir des relations que beaucoup perçoivent comme authentiques, à égalité avec les humains.

Les chatbots contemporains sont nés entre 2016 et 2020, mais c’est avec ChatGPT, fin 2022, qu’ils entrent dans le quotidien, marquant le début de l’ère duIA conversationnelle générativetant au travail que pendant leur temps libre : en 2025, près de 30 % des Italiens ont utilisé au moins un outil d’intelligence artificielle – en tête, en fait, Chat GPT. Et si on vous disait que le premier chatbot remonte à soixante ans ? Son nom était ÉLISA et c’est l’expérience d’un physicien allemand, Joseph Weizenbaum, qui l’a inventé en 1966. Le scientifique n’entendait pas montrer à quel point un ordinateur pouvait être « intelligent », bien au contraire : il voulait mettre en évidence les limites des machines à vraiment comprendre le langage et les émotions humains.

La naissance et le développement du premier chatbot de l’histoire

Après la Seconde Guerre mondiale, Alan Turing se demandait si les machines pouvaient penser. Vingt ans plus tard, en 1966, le physicien allemand Joseph Weizenbaumprofesseur au MIT de Boston, a créé ce que l’on peut définir comme le premier chatbot de l’histoire, capable de se présenter comme une personne réelle, plus précisément un psychothérapeute pouvant interagir avec son « patient ».

Tirant son nom de Eliza Doolittlepersonnage du Pygmalion de George Bernard Shaw qui, grâce au professeur de phonétique Henry Higgins, parvient à se faire passer pour une duchesse d’une pauvre demoiselle d’honneur au fort accent ouvrier, ELIZA est née comme une logiciel très simple capable de donner à ceux qui le consultaient l’illusion d’avoir été compris. Ceci grâce à la reformulation des entrées de l’utilisateur, transformées en phrases génériques et répétitions sous forme de questions, comme l’aurait fait un thérapeute rogérien (d’après l’approche de Carl Rogers, centrée sur la promotion de la conscience de soi du patient, en l’accueillant sans jugement).

Ci-dessous l’exemple d’une conversationpublié par Weizenbaum en janvier de la même année dans un article : «ELIZA — un programme informatique pour l’étude de la communication en langage naturel entre l’homme et la machine», publié dans la revue académique Communication de l’ACMpublié parAssociation pour les machines informatiques (ACM).

Les effets d’ELIZA

Dans l’œuvre de Shaw, Eliza réussit la transformation sur laquelle Higgins avait parié et revendique son indépendance et son humanité, refusant d’être considérée comme une simple « expérience ». Aussi ELIZA était une expérience réussie, ou peut-être échouée: Weizenbaum a réalisé comment, dans le dialogue avec le programme, les gens étaient amenés à s’ouvrir et à développer un lien empathique, se trompant avec une facilité surprenante d’être compris. Son objectif n’était cependant pas de montrer le potentiel de ces machines, mais plutôt de démontrer qu’une réelle compréhension de leur part était impossible. en raison d’une limite structurelle.

Avec ELIZA le transfert entre médecin et patient que Sigmund Freud avait remarqué s’est produit pour la première fois dans une version artificielle et informatisée, inaugurant ce qui fut plus tard appelé « l’effet Eliza » – et qui est devenu de plus en plus fort à mesure que les capacités conversationnelles des ordinateurs progressaient. Le résultat du chatbot, déjà à l’époque, s’est avéré si convaincant qu’il a inquiété son créateur, qui a grandi dans l’Allemagne nazie : Weizenbaum était convaincu qu’une dépendance obsessionnelle à l’égard de la technologie pouvait être le signe d’une échec moral de la sociétéet regrettait son invention un peu comme Robert Oppenheimer l’avait fait avec la bombe atomique.

Sa principale préoccupation était que les ordinateurs soient jugés, jusqu’à un délégation de décisions morales et personnelles. Selon Weizenbaum, l’informatisation conduirait également à limiter la responsabilité personnelle et le potentiel des relations humaines, contribuant ainsi à rendre le monde plus bureaucratisé et conservateur. Au lieu de déclencher une révolution capable de renverser les structures répressives du pouvoir, le scientifique craignait que cela ne conduise à une contre-révolution qui les renforcerait.

Dans « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul » (1976) critiquait ainsi non pas tant l’intelligence artificielle, mais les systèmes conçus pour remplacer automatiquement la prise de décision humaine.  » La dépendance à l’égard des ordinateurs n’est que l’exemple le plus récent – et le plus extrême – de la façon dont les êtres humains s’appuient sur la technologie pour échapper au fardeau d’agir de manière autonome« , a-t-il déclaré dans une interview au magazine Nouvel Âge en 1985. Ces craintes font de lui un « hérétique » et l’éloignent de plus en plus de la communauté scientifique impliquée dans l’étude de l’IA.

Image

Les chatbots aujourd’hui : données en Italie

Données de la plateforme MyMetrix par ComScore ils nous disent qu’en avril 2025, 13 millions de personnes en Italie utilisaient au moins une application d’IA (28 % de la population en ligne). Au premier trimestre 2025, selon les données « Audicom – Audiweb system », ChatGPT était utilisé en moyenne par 7,2 millions d’utilisateurs chaque mois, soit par 17% de la population entre 18 et 74 ans qui utilise internet (avec un pic en avril de 9 millions d’utilisateurs).

La croissance depuis 2023 a été très rapide : si en avril 2023 il était utilisé par 750 000 Italiens et en avril 2024 par 2,4 millions, entre avril 2024 et 2025 il y a eu une augmentation de 266% – avec encore +45% au cours des quatre premiers mois de l’année. Après ChatGPT, les IA les plus utilisées sont Gemini (2,8 millions d’utilisateurs en avril 2025), Microsoft Copilot (2,7 millions), DeepSeek (518 000), Perplexity (270 000) et Claude (158 000). Character.AI arrive ensuite avec 119 000, mais utilisé en moyenne 20 heures par mois par utilisateur, notamment par les jeunes et les femmes.

Le Centre de recherche Pew a mené une enquête sur la perception de l’IA et son utilisation dans 25 pays à travers le monde, dont l’Italie, et a constaté que la confiance dans l’IA n’est pas encore si élevée: en général, les gens sont 34% plus inquiets qu’enthousiastes, 42% également inquiets et enthousiastes et seulement 16% plus enthousiastes qu’inquiets (selon les données médianes). Les plus inquiets sont les États-Unis, l’Italie, l’Australie, le Brésil et la Grèce : en Italie, le niveau d’inquiétude s’élève à 50 %, avec 37 % d’inquiétude et d’enthousiasme égaux, et seulement 12 % d’enthousiasme.

L’héritage d’Eliza, près de 60 ans plus tard

Les chatbots contemporains ont la capacité de plus en plus fine d’apprendre et de s’adapter aux modèles linguistiques des utilisateurs, ainsi qu’à leurs préférences individuelles, et sont capables de modifier dynamiquement vos réponses en fonction du contexte des conversations, facilitant ainsi un soutien émotionnel personnalisé. Si la dernière version de GPT-5 fait partie des IA ayant le plus faible niveau de comportement flagorneur, donnant des réponses de ce type seulement dans 29 % des cas, DeepSeek-V3.1 le fait dans 70 % des cas.

Comme l’a déjà démontré l’expérience du physicien allemand, il nous est aujourd’hui étonnamment facile de confier nos fragilités et nos désirs à une IA de plus en plus personnalisée et de lui demander conseil sur des questions même délicates. Parce que ça semble plus facile d’avouer à une machine qu’à un autre être humain ? Tout d’abord, l’IA est toujours disponible. De plus, contrairement aux gens qui nous entourent, nous nous attendons à ce qu’ils ne nous jugent pas, qu’ils ne divulguent pas nos secrets et que nous n’ayons pas à en avoir honte.

En nous faisant croire que nous avons affaire à quelqu’un capable de nous comprendre, explique Nigel Crook, directeur de l’Institute for Ethical AI, les chatbots ont «la capacité de manipuler émotionnellement les gens». Pourtant, « l’IA ne fait rien d’autre que prédire une séquence plausible de mots, c’est ce qu’elle fait. Et il ne comprend pas que cette séquence de mots correspond à quelque chose dans la réalité. »

Plus nous dépendons des machines, plus il sera facile, comme le prédisait Weizenbaum, de leur déléguer une partie de nos décisions – et de notre libre arbitre.