Chatgpt peut faire des erreurs: erreurs d’intelligence artificielle

Alexis Tremblay
Alexis Tremblay

L’utilisation de Chatte comme un outil tous les jours Il est de plus en plus répandu. Chaque jour, nous voyons né Nouveau LLM (Modèle grand langage) de plus en plus présent et avec des technologies d’intelligence artificielle qui s’améliorent de jour en jour. Ce qui est important à garder à l’esprit, cependant, c’est que l’intelligence artificielle reste de toute façon différent de l’intelligence humaine précisément d’un point de vue substantiel, et cela parce que ça ne pense pas vraiment, Mais imite très bien – et toujours mieux – notre raisonnement.

L’intelligence artificielle n’est pas l’intelligence humaine, mais elle l’imite très bien

LE’Intelligence artificielle Il s’agit, par définition, d’une technologie qui essaie d’attribuer aux technologies de la caractéristiques généralement considéré humain, comme celui de raisonnement. Cela nous amène souvent à penser que ce type de logiciel est en fait capable de « penser avec sa propre tête », il y a même ceux qui croient pouvoir avoir des émotions! En vérité, ce n’est pas le cas.

Lorsque nous parlons du raisonnement par l’intelligence artificielle, nous devons garder à l’esprit que dans tous les cas logiciel que – grâce à certaines technologies, comme le Apprentissage automatique – parvient à reproduire des mécanismes qui flic Le notre raisonnement. Cela peut sembler une fine différence, mais c’est substantiel. Prenons en considération le LLM, c’est-à-dire i Modèle de grande langue comme un chatppt. Ce sont littéralement de « grands modèles linguistiques », c’est-à-dire des logiciels formés manipuler Les textes qui lui sont fournis dans la phase de formation. Cela signifie que, pour nous répondre, ils interprètent les mots qui composent nos questions et les associent aux textes que nous avons « enseigné« , afin de pouvoir répondre de la manière la plus cohérente possible. Et comment font-ils? En un mot, ils recherchent le Réponse plus probable Dans toutes les choses qu’ils ont apprises pendant la formation. Cela permet à LLM de répondre très bien à nos questions, mais il peut arriver que le SO-cal « Hallucinations ». De quoi s’agit-il?

L’exemple du « R » dans Ramarro: parce que Chatgpt est faux de les positionner

Pour le comprendre, considérons Chatgpt 4o – c’est-à-dire la version sans raisonnement – Et demandez-lui: « Combien de R y a-t-il à Ramarro et dans quelle position sont-ils dans le mot? ». La réponse que nous recevrons sera probablement incorrecte (sauf si vous utilisez la version O1, qui utilise la méthodologie COT) car une réponse correcte aurait besoin d’une capacité de raisonnement qui, jusqu’à présent, n’a pas. Nous avons nous-mêmes essayé de demander au logiciel, qui a jusqu’à présent le nombre de « R », mais faux la leur position:

Erreur de chatppt

même Il arrive si nous posons la même question à Deepseek, toujours sans activer l’option de Raisonnement.

Cependant, pour obtenir une réponse satisfaisante de Chatgpt et Deepseek, nous avons juste besoin d’activer – en fait – le raisonnement, c’est-à-dire les versions « améliorées » des deux LLMS: Chatppt 01 Et Deepseek R1.
Merci à une méthodologie appelée Chaîne de personnes attendues Lit de lit, Ces modèles de raisonnement Ils parviennent à terminer leur tâche correctement sans problème. Mais comment font-ils?

Parce que l’IA fait des erreurs et comment la chaîne de pensée résout le problème

Nous essayons tout d’abord de comprendre pourquoi, sans utiliser de raisonnement, les deux modèles Ils ont tort. Nous devons garder à l’esprit que LLM, précisément parce que Ils ne pensent pas vraiment, Ils ne sont pas vraiment conscients de toutes les lettres qu’ils lisent, mais ils pensent pour des parties des appels texte jeton. Nous pouvons les imaginer comme une sorte de « syllabe », qui sont élargies ou rétrécies en fonction de la précision des programmatoires précis ou de la quantité de puissance de calcul dont ils disposent. Pour cette raison, en lisant je jeton Et Pas le lettres individuelles, Les deux LLM ne savent pas quelles lettres sont contenues dans chacun jetonet pour cela, ils ne peuvent pas compter le nombre de r Dans « Ramarro ».

Lorsque nous activons le modèle de raisonnement Plutôt, Une méthodologie appelée est utilisée Chaîne de personnes attenduesqui substantiellement avant de répondre à un demande, la divise en underblocchi de taille mineure avant de commencer à réfléchir pour jeton. Cela permet au modèle de lire certaines parties du sous-texte Qui compte tenu de la question dans son ensemble, ils peuvent échapper au logiciel. Si, par exemple, le nombre de lettres en un mot, le modèle reconnaît qu’il s’agit d’une demande qui ne peut pas être satisfaite par le « raisonnement » habituel et décide donc d’utiliser directement un code spécialement écrit pour effectuer un décompte.

Mais c’est possible « astuce« Aussi les modèles de raisonnement? Oui.

Parce que l’IA fait des erreurs et comment la chaîne de pensée résout le problème

LE’devinette de lampe et les dieux Trois commutateurs se lit comme suit:

À l’intérieur d’une pièce, il y a une ampoule fermée, tandis qu’il y a trois interrupteurs différents à l’extérieur de la pièce. La porte de la pièce est fermée et il n’y a aucun moyen de voir si, en appuyant sur l’un des trois interrupteurs, l’ampoule s’allume. Ce que nous sommes sûrs, c’est qu’un et unique l’un des trois interrupteurs allume réellement l’ampoule.

Comment pouvons-nous découvrir quel commutateur est le bon si nous ne pouvons ouvrir la porte qu’une seule fois et, une fois ouvert, pouvons-nous ne plus toucher les commutateurs?

Demander à cette question de Deepseek R1nous recevons en fait le réponse correcte (La réponse est en anglais; si vous êtes curieux, vous pouvez trouver une solution articulée dans notre article sur l’Indovinel):

Bulbes d'énigmes de réponse R1 Deepseek

Eh bien, non? Il a réussi à penser comme nous le ferions. Ce que nous avons fait à ce stade, cependant, était Répétez la même demande mais simplification La rivière: nous déclarons que le chambre dans lequel se trouve l’ampoule verre. Un être humain répondrait rapidement que, étant la salle de verre, il me suffira de tromper avec les interrupteurs et de regarder à travers le mur lequel des trois allume réellement la lumière. Le verre est transparent!

Devinez trois commutateurs une ampoule

Deepseek R1, en revanche, a répondu exactement comme il l’avait fait dans le cas de « l’énigme classique ». Et cela précisément parce qu’il ne pense pas, mais « fouiller dans les tiroirs » de ce qu’il a appris, à la recherche de la réponse la plus plausible, trouvant ainsi la solution classique à l’Indovine des trois commutateurs.

Solution

Cela nous montre comment le modèle ne pense pas réellement, mais répondant de manière probabiliste, sans nécessairement donner le bon poids à tous les mots qu’il rencontre dans son chemin.