Les géants de la technologie veulent que nous tombions amoureux de l’intelligence artificielle
Joanna Stern, journaliste au Wall Street Journal, sourit. Et il pose une question spécifique à Rick Osterloh, vice-président senior des plates-formes et des appareils chez Google. « Il semble que vous, les habitants de la Silicon Valley, ayez cette obsession de recréer le film. Son. Mais ça ne se termine pas bien pour les humains, je ne sais pas si vous vous en souvenez. » La réponse d’Osterloh est un peu embarrassée : « Eh bien, ce n’est certainement pas notre objectif. Nous voulons que l’intelligence artificielle soit aussi utile que possible aux humains.
Publié par @joannasternAfficher sur les discussions
Quoi de neuf de Google, OpenAI et Apple
Le contexte de cette interview est la présentation du nouveau Google Pixel 9, le smartphone phare de Big G. Un appareil qui, bien entendu, intègre une série de fonctions d’IA. L’un des aspects centraux de la présentation était Gemini Live, l’évolution de l’intelligence artificielle de Google.
Gemini Live est un assistant vocal, capable de converser naturellement avec l’utilisateur. La voix est plus crédible, capable de moduler le ton et l’intonation pour se rapprocher le plus possible de la parole humaine.
C’est une victoire pour Google. Première grande entreprise à réellement lancer cette évolution, celle de l’IA comme assistante. OpenAI y travaille, après avoir présenté en mai GPT-4o, le nouveau modèle capable de parler de manière crédible avec les utilisateurs (avec la voix de Scarlett Johanson, mais c’est une autre histoire). Et Apple devrait lancer quelque chose de similaire en septembre, qui, avec iOS 18 et Apple Intelligence, prévoit de donner une évolution importante au très décrié Siri.
Bref, c’est une direction que semble avoir prise la Silicon Valley : le futur proche de l’intelligence artificielle, c’est la voix. Un assistant, capable de faire quelque chose d’utile, avec qui il est aussi agréable de discuter.
Quels sont les risques
Et nous revenons ici au début de cet article. Et au film Sonqui raconte une histoire d’amour entre un homme et son assistant vocal. Le principal risque est précisément celui décrit par le réalisateur Spike Jonze : que les gens s’attachent trop à l’intelligence artificielle.
C’est ce qu’affirme OpenAI lui-même, qui dans un récent rapport de sécurité admettait que ce type de voix pouvait pousser certains utilisateurs à développer un attachement émotionnel envers le chatbot. Ces indications se trouvent dans la Fiche Système GPT-4o, un document technique qui décrit les risques identifiés par l’entreprise pour le modèle, ainsi que des informations sur les tests de sécurité et les mesures prises pour minimiser ces risques. « C’est notre dernier jour ensemble », aurait déclaré à GPT-4o l’un des participants au test de sécurité de l’IA.
Selon le Massachusetts Institute of Technology, « nous sommes confrontés à une expérience massive en cours, sans savoir exactement quel impact ces chatbots IA auront sur nous en tant qu’individus ou sur la société ». De plus, à mesure que la crédibilité augmente, le risque de ce que l’on appelle l’effet ELIZA, c’est-à-dire la tendance des gens à donner un sens émotionnel ou une intelligence aux réponses fournies par les programmes informatiques, augmente. Ainsi, nous développons des liens : l’intelligence artificielle, après tout, est toujours là et semble comprendre nos désirs et nos besoins. Cela apparaît, d’autant plus s’il a une voix humaine et vivante.
Le but : construire une relation avec l’objet
Les compagnons IA sont un phénomène qui existe déjà. Il existe des applications dédiées, comme Replika et Character.AI, qui ont pour objectif de mettre à disposition des chatbots – personnalisés ou non – pour lutter contre la solitude, tenir compagnie. Ils fonctionnent, notamment aux États-Unis : au moment de la rédaction de cet article, Character est la quatrième application de divertissement la plus téléchargée aux États-Unis. Et c’est ce modèle, celui des relations, que semble rechercher la Silicon Valley.
Car réfléchissez-y, que se passe-t-il si nous nous attachons à quelqu’un ou à quelque chose ? On revient toujours, on cherche le contact. Si nous parlons d’un objet, nous continuons à l’utiliser : il fait partie, d’une manière ou d’une autre, de nos journées. C’est peut-être une coïncidence, mais aujourd’hui c’est précisément le problème de l’intelligence artificielle générative, de ChatGPT, Gemini ou Claude : tout le monde l’a essayé, peu l’utilisent quotidiennement et la trouvent réellement utile.
Serait-ce la clé – très risquée – ?