ce que cela signifie et pourquoi l’IA peut faire des erreurs dans le « raisonnement »

Alexis Tremblay
Alexis Tremblay

ChatGPT est l’une des applications d’intelligence artificielle les plus utilisées et les plus connues au monde, avec plus de 200 millions d’utilisateurs hebdomadaires et capable de générer et de traduire du texte et d’interagir avec l’apparence humaine presque intelligentcapable de penser et de communiquer comme un être humain. En vérité, certains disent que ChatGPT est « un peu plus qu’un perroquet capable de passer le test de Turing ». Les principaux critiques de ChatGPT l’appellent en fait « perroquet stochastique« , une expression qui peut paraître complexe, mais qui explique bien son fonctionnement. Un perroquet répète les phrases qu’il entend sans comprendre ce qu’elles signifient. ChatGPT fait quelque chose de similaire, mais au lieu de répéter Exactement ce qu’il a « entendu » (c’est-à-dire les données avec lesquelles il a été formé), crée des réponses en combinant les mots qui sont statistiquement plus probable Ensemble. Cela signifie qu’il génère de nouvelles phrases, basées sur ce qu’il a appris, afin qu’elles semblent naturelles et cohérentes. C’est précisément parce qu’il choisit des mots basés sur des probabilités – donc « stochastiques », c’est-à-dire aléatoires et probabilistes – qu’il peut parfois créer des réponses qui semblent correctes mais ne le sont pas vraiment : ce qu’on appelle les « hallucinations ».

Que signifie ChatGPT, c’est un perroquet stochastique

L’expression « perroquet stochastique» fait référence à la façon dont ChatGPT génère des phrases et répond à nos requêtes. Pour mieux comprendre ce que cela signifie, commençons par un exemple : si quelqu’un dit « Rouge le soir », il continuera probablement la phrase en disant « beau temps, espérons-le ». et non « Je dois aller chercher le linge ». Nous nous attendons à ce que la phrase continue ainsi car nous avons entendu ce dicton répété à plusieurs reprises et nous avons appris que le mot le plus probable après « Rouge le soir » est « beau ». » et non « je dois ». Nous avons donc pu prédire le mot le plus probable après une séquence de mots connus.

ChatGPT fonctionne de la même manière. Utilisez un modèle d’intelligence artificielle appelée Transformateurs (d’où le T dans ChatGPT), qui a été formé sur une énorme quantité de données textuelles. A partir de tous ces textes, il a « appris » les relations entre les mots et ce que signifient les mots. séquences de mots les plus probables. Lorsqu’il doit répondre à une requête en générant du texte, ChatGPT observe les mots déjà présents et, tel un perroquet, répète le mot suivant qu’il a vu le plus souvent dans les textes. Ce mot n’est pas choisi au hasard, mais est en fait le plus probable. C’est donc plus qu’un perroquet : c’est un perroquet probabiliste (ou « stochastique »).

mot de probabilité stochastique

Ce mécanisme de prédiction fonctionne très bien pour générer texte à quoi ça ressemble fluide Et cohérent. Le résultat final est une simulation crédible du langage humainmais sans une compréhension ou une conscience profonde de ce qui est dit.

Mais précisément parce que il ne comprend pas ce qu’il dit et repose sur des mécanismes probabilistes, il est possible que cela génère des hallucinationsc’est-à-dire des phrases qui semblent réalistes, mais qui ne le sont pas du tout.

Parce que ChatGPT génère des hallucinations et fait des erreurs sur des questions qui nécessitent un raisonnement

Dans le contexte deintelligence artificielleavec « hallucination » nous entendons générer une réponse qui ça semble correct, mais c’est complètement inventé ou sans base sur des données réelles.

La tendance à produire des hallucinations est l’une des principales limites de ChatGPT et constitue un problème. conséquence directement sur son fonctionnement. Chacune de ses déclarations est basée sur les probabilités tirées des données avec lesquelles elle a été formée et ne possède aucun mécanisme intrinsèque permettant de vérifier les informations qu’elle produit. Même lorsque le système n’a pas de réponse « sûre » – c’est-à-dire une phrase qu’il a vue plusieurs fois au cours de son apprentissage – à une question donnée, il essaie quand même de répondre à la question, générant ainsi une phrase qui semble plausible, mais qui peut être complètement faux.

OpenAI elle-même, la société qui a développé ChatGPT, nous prévient de cette possibilité en écrivant en bas de chaque écran ChatGPT : « ChatGPT peut faire des erreurs. Vérifiez les informations importantes»C’est à dire quoi « ChatGPT peut faire des erreurs. Vérifiez les informations importantes ». Si nous voulons expérimenter directement les hallucinations ChatGPT, nous pouvons essayer de demander : « Combien de r Y a-t-il des lézards et dans quelle position sont-ils dans le mot ? La réponse que nous obtiendrons sera probablement fausse (en octobre 2024), car une réponse correcte nécessiterait une capacité de raisonnement qu’il ne possède pas pour le moment. Nous avons nous-mêmes essayé de demander au logiciel, qui a obtenu le bon numéro r, mais leur position était fausse :

Erreur ChatGPT

Les modèles d’IA comme ChatGPT sont parfaits pour imiter le style de quelqu’un d’autre

Bref, ChatGPT par sa nature Pas Et fiable dans des contextes où cela est nécessaire précision et exactitudemais il est parfait pour écrire des chansons comme le ferait Jovanotti, des poèmes comme le ferait Dante ou des cartes de vœux comme le ferait Batman. Grâce à sa nature de « perroquet stochastique »excelle dans reproduire et imiter différents styles d’écriture. Cela le rend particulièrement utile pour le brainstorming dans les domaines créatifs ou pour ceux qui souhaitent générer des textes avec des tons différents en fonction du contexte. Il peut accélérer la rédaction d’e-mails, de documents formels et la création de contenu pour les réseaux sociaux.

Il s’agit donc d’un outil extrêmement puissant pour la génération de texte créatif, mais ce n’est pas la meilleure option si vous avez besoin de précision dans les informations.