ChatGPT a-t-il empiré ? C’est le sentiment qu’ont ressenti de nombreux utilisateurs après la sortie du modèle GPT-5 en août dernier. Réponses plus courtes, imprécisions diverses, oublis sensationnels… des signaux qui ne sont pas passés inaperçus auprès des utilisateurs, qui ont exprimé leur déception sur les réseaux sociaux en publiant des commentaires négatifs et des retours sur l’apparente rétrograder du célèbre chatbot OpenAI. Mais car on a le sentiment que ChatGPT est moins intelligent qu’avant? Une partie du problème vient de la structure même du nouveau système, qui n’est pas un modèle unique, mais un tout coordonné par un mécanisme qui décide quel « cerveau artificiel » utiliser en fonction de la question posée par l’utilisateur. Si ce sélecteur automatique – appelé routeur – fait ses calculs de manière imparfaite, l’utilisateur peut obtenir des réponses de mauvaise qualité, même au cours d’une même conversation.
À l’enjeu technique s’ajoutent également des questions délicates de sécurité : la recherche de CCDH (Centre de lutte contre la haine numérique) indique que GPT-5, dans des tests sur des sujets sensibles comme le suicide et l’automutilation, aurait offert plus souvent des indications dangereuses que le modèle GPT-4o. Cela survient alors que des millions d’utilisateurs utilisent ChatGPT chaque jour à diverses fins, y compris des fins émotionnellement sensibles, augmentant le risque d’interactions renforçant des croyances déformées ou des comportements nuisibles. Et puis il y a la question des attentes nourries par l’OpenAI : après des mois d’annonces sur l’arrivée d’une intelligence artificielle de plus en plus performante, ce que beaucoup voient aujourd’hui apparaît plus comme une étape intermédiaire qu’une véritable révolution.
La raison principale est le routeur : qu’est-ce que cela signifie
L’un des points clés du sentiment selon lequel ChatGPT s’est aggravé depuis l’avènement du GPT-5 concerne l’utilisation de ce que l’on appelle routeur. Au lieu de toujours utiliser le modèle le plus puissant pour apporter des réponses aux questions des utilisateurs, GPT-5 essaie de comprendre la complexité de votre demande et sélectionne un modèle plus léger lorsque la question est simple. En théorie, cela devrait produire des réponses plus rapidement, à moindre coût et en permettant un accès universel à la version la plus avancée du modèle uniquement lorsque cela est réellement nécessaire. En pratique cependant, si le routeur fait une erreur dans son évaluation et qu’un modèle répond moins préparé au type de problème que vous avez posé, vous aurez le sentiment que ChatGPT est moins « intelligent » qu’avant. Selon certains chercheurs, comment Jia Xuan Vous de l’Université de l’Illinois, il arrive que des morceaux d’une même demande soient confiés à des modèles différents puis recombinés, générant des contradictions. Vers la revue FortunesVous avez expliqué.
Le routeur modèle envoie parfois des parties de la même requête à différents modèles. Un modèle moins cher et plus rapide pourrait fournir une réponse, tandis qu’un modèle plus lent, axé sur le raisonnement, en fournirait une autre, et lorsque le système combine ces réponses, de subtiles contradictions apparaissent. L’idée du routage de modèles est intuitive mais le faire fonctionner réellement est très compliqué.
La raison pour laquelle You utilise le conditionnel est qu’il n’a pas pu prouver sa théorie. Outre le problème technique du routage du modèle, il existe également des problèmes liés à sécurité du contenu. D’après les tests de CCDH (Centre de lutte contre la haine numérique), GPT-5 répondrait plus souvent de manière problématique sur des sujets tels que le suicide ou les troubles de l’alimentation que GPT-4o. Dans ce cas, GPT-5 aurait produit du contenu préjudiciable dans 63 réponses sur 120ou dans 53% des cas, contre 52 sur 120 pour le GPT-4o, soit 43 % des cas. Alors que le modèle précédent avait tendance à rejeter les requêtes malveillantes, le nouveau modèle fournissait dans certains cas des informations détaillées et potentiellement risquées. OpenAI a répondu en arguant que l’étude ne prendrait pas en compte les mises à jour publiées en octobre, y compris des mesures de sécurité supplémentaires telles que le contrôle parental et une détection améliorée de la détresse psychologique. Cependant, il est clair que les systèmes de protection peuvent être facilement contournés par des utilisateurs experts, et le secteur est toujours à la recherche de solutions efficaces et stables.
Attentes non satisfaites sur AGI
Le sentiment que ChatGPT est moins intelligent qu’auparavant est également influencé par le fait que attentes non satisfaites sur AGIune intelligence artificielle générale qui serait capable de surpasser l’intelligence humaine dans de multiples contextes. GPT-5 a été présenté comme un pas de géant dans cette direction, mais le résultat s’est avéré plus modeste que prévu. La vérité, du moins pour le moment, est qu’il n’y a pas d’IA définitive : GPT-5 est un système en transition (et les corrections apportées au modèle, publié avec GPT-5.1 ces derniers jours en sont la confirmation). Pour toutes ces raisons, si ChatGPT semble moins intelligent qu’avant c’est parce que vous interagissez avec une IA qui évolue et change de structure. Et jusqu’à ce que ce changement soit complet, l’impression d’un déclin peut rester partie intégrante de l’expérience.