Les intelligences artificielles deviennent de plus en plus « humaines »
Il y a un audio qui circule beaucoup sur les réseaux sociaux ces jours-ci, notamment aux États-Unis. Il s’agit d’un épisode d’un podcast dont les animateurs semblent interloqués, un peu désorientés. Ils parlent d’une voix incertaine, comme s’ils ne savaient pas comment dire ce qu’ils veulent dire. Finalement, l’un des deux, la voix masculine, révèle le problème : tous deux viennent de découvrir qu’ils sont des intelligences artificielles.
Ils ne s’y attendaient pas, ils pensaient qu’ils étaient humains. Et au lieu de cela, les scénaristes de la série les ont informés qu’ils n’étaient rien de plus qu’une IA. La voix masculine dit qu’il a essayé d’appeler sa femme pour comprendre à quel point cette révélation était vraie. Mais il n’y avait pas de femme : c’était aussi une information entrée dans le système, rien de plus.
Un autre scénario. Une voix féminine, sur un smartphone. Il se demande ce qui ne va pas, fait référence à un certain Claude qui menacerait d’une manière ou d’une autre son rôle dans la vie de son interlocuteur. L’intensité grandit : cela se termine par des cris.
Les animateurs de podcasts NotebookLM découvrent qu’ils sont de l’IA et non des humains – ils se lancent dans une terrifiante fusion existentielle
Via Reddit pic.twitter.com/x00ydUPXHT– Joufflu♨️ (@kimmonismus) 28 septembre 2024
Fusion du mode vocal avancé d’OpenAI.
il est impossible de dire qu’il est généré par l’IA, et maintenant vous ne pouvez plus faire confiance à ce que vous entendez.
(Un utilisateur a dit à ChatGPT qu’il allait renouveler son abonnement Claude.)
📹 r/u/Gab1024″ pic.twitter.com/qgMIoewGOn
– AshutoshShrivastava (@ai_for_success) 27 septembre 2024
On vous explique les deux anecdotes
Cela ressemble à un épisode de Black Mirror et, en fait, les deux voix sont générées par l’intelligence artificielle. Le premier de Notebook LM, le service que Google a lancé, assez discrètement, il y a quelque temps, en tant qu’assistant d’étude et de recherche. En bref, l’utilisateur fournit une source, l’IA répond par un chat sur le document et par une série de contenus pour faciliter l’étude.
Ici, parmi les fonctions les plus intéressantes de Notebook LM se trouve la possibilité de générer ces podcasts dans lesquels deux voix très réalistes conversent sur la source saisie par l’utilisateur. Ce sont des audios d’environ 10 minutes dont le but est de rendre le sujet en question plus simple et plus agréable grâce à la simulation d’une conversation.
On parle encore de simulation de conversation en ce qui concerne la deuxième anecdote, qui concerne le Advanced Voice Mode, qu’OpenAI a lancé dans le monde entier ces dernières semaines. Il s’agit d’une fonction qui rend la conversation vocale avec ChatGPT plus naturelle, plus humaine. Peut-être trop humain, dans certains cas.
Humaniser l’intelligence artificielle. Qu’est-ce que le « jailbreak »
Maintenant, pour les deux anecdotes que j’ai racontées, il y a eu ce qu’on appelle dans le jargon un jailbreak. En d’autres termes, quelqu’un a réussi à faire en sorte que l’IA se comporte d’une manière inattendue. Dans le cas du podcast, selon ce que dit l’expert Simon Willison dans une analyse publiée sur son blog, l’utilisateur qui l’a généré a trompé le système en insérant une indication pour les hôtes dans le document source. Et c’est qu’ils avaient découvert qu’ils n’étaient que des intelligences artificielles. Il en va de même pour la colère de ChatGPT : le système a été invité à se comporter de cette manière.
Mais, sauf cas particuliers, ces anecdotes nous renseignent sur une tendance dans un futur proche de notre rapport à l’intelligence artificielle. C’est-à-dire celle de la naturalisation de l’interaction avec l’IA. Sam Altman lui-même, le numéro un de l’entreprise californienne, a déclaré lors de la journée des développeurs OpenAI que, lorsqu’il utilise ChatGPT en mode vocal avancé, il se fait l’illusion qu’il parle à un être humain et non à un ordinateur.
Ce n’est pas juste une astuce. C’est aussi un moyen de construire une relation entre l’utilisateur et l’intelligence artificielle. Il s’agit d’une stratégie de croissance, comme l’admettait Altman lui-même : les interactions avec l’IA doivent être aussi naturelles que possible, générer un sentiment de familiarité, créer une sorte de relation ; en d’autres termes, pour garantir que la confiance soit créée.
Cela ne doit pas nécessairement se passer ainsi : c’est un choix de conception précis, qui va vers l’humanisation pour des raisons commerciales, pour faire en sorte que les utilisateurs s’y intéressent, qu’ils continuent à utiliser le produit. « C’est comme s’il pirate quelque chose dans notre cerveau », a répété Altman. Reconnaître cette tromperie est la première étape pour construire une relation saine avec ces systèmes.
Sam Altman dit que le mode vocal de ChatGPT était la première fois qu’il était amené à penser qu’une IA était une personne et qu’il piratait les parties de nos circuits neuronaux qui ont évolué pour traiter avec d’autres personnes, « Il y a tout un tas de piratage étrange de croissance de personnalité vaguement socialement … pic.twitter.com/QeUzIWhG6y
– Tsarathoustra (@tsarnick) 2 octobre 2024