Quand ils sont interrogés sur des nouvelles d’actualité, L’IA finit par signaler de fausses informations dans 35% des cas: est le résultat d’une année d’observation systématique sur les principaux systèmes d’intelligence artificielle générative. Cela signifie qu’en moyenne, plus d’une réponse sur trois contient des éléments inconnus ou complètement inventés. Le pourcentage, mesuré par Newsguard Entre Août 2024 Et Août 2025 et publié dans un rapport le 4 septembre, il est presque doublé par rapport aux 18% détectés l’année précédente. Faire frapper n’est pas seulement l’augmentation nette, mais le fait qu’elle se déroule malgré une année de progrès technologique, a plongé par des annonces de mises à jour et des promesses de plus grande fiabilité par les entreprises qui développent les modèles. Un autre fait intéressant, les chatbots évitent aujourd’hui beaucoup moins que de répondre – pour l’enregistrement, la part des « non-réponses » s’est effondrée de 31% à 0% – Et la disponibilité de l’IA pour parler de tout a conduit à une croissance des erreurs. Ici, apprenez à cultiver sa pensée critique combinée à savoir comment identifier quand une nouvelle est fausse est deux aspects essentiels pour vivre dans la société d’aujourd’hui.
Chatbot et fausses nouvelles: l’IA répond plus mais pire
En zoomant sur Résultats de l’étude conduit par Newsguardil est possible d’apprécier certains Différences entre les systèmes analysésqui, comme vous pouvez le voir, sont remarquables. Le modèle Claude d’Anthropic a enregistré les erreurs les plus basses d’erreurs autour du 10%tandis que Google Gemini s’arrêtait à 17%. D’un autre côté, une plus grande inflexion a dépassé le 56% et perplexité le 46%. Les chatbots les plus populaires, tels que Openai Chatgpt, le copilote de Microsoft et les conversations de Mistral, sont placés dans une zone intermédiaire, avec des valeurs autour du 35-40%.

Le problème, cependant, ne concerne pas seulement les chiffres: deuxième Newsguardla principale difficulté est liée à façon dont les chatbots choisissent des sources. Avec l’introduction de la recherche en temps réel, les chatbots ont commencé à pêcher le contenu directement sur le Web, qui est un environnement riche mais également contaminé par la propagande et les sites peu fiables. Et c’est aussi la raison pour laquelle un chatbot refuse de répondre. Voici comment Newsguard a commenté la chose:
Avec l’introduction de recherches réelles, les chatbots ont cessé de refuser de répondre. Les cas dans lesquels ils n’ont fourni aucune réponse passée de 31% d’août 2024 à 0% d’août 2025. Pourtant, la probabilité a également augmenté, maintenant à 35%, que les modèles signalent de fausses informations. Au lieu de signaler les limites temporelles de leurs données ou d’éviter les sujets délicats, les modèles linguistiques s’appuient désormais sur un écosystème d’information en ligne confus, souvent pollué intentionnellement par des réseaux organisés, y compris ceux responsables des opérations d’influence russe. Ainsi, ils finissent par traiter des sources non fiables comme si elles étaient fiables.
UN Exemple utile pour comprendre le mécanisme C’est celui du So-appelé « Réseaux ». Ce sont des structures organisées qui créent des centaines de sites d’information apparemment dans le but de diffuser de faux récits. Un de ces réseaux, appelé Pravda et lié aux intérêts russes, Publie des millions d’articles chaque année Sans presque aucune interaction réelle des utilisateurs. L’intention n’est pas de convaincre les lecteurs humains, mais Saturer l’écosystème numérique afin d’être indexé par les moteurs de recherche Et, par conséquent, finir dans les réponses du chatbot. Lorsque les modèles ne font pas de distinction entre une source fiable et une manipulée, elles finissent par amplifier la désinformation de ce type de « faux incubateurs ».
De la surveillance de Newsguard Il est donc apparu que, alors que dans le passé, les chatbots avaient tendance à refuser de répondre à des questions délicates, en maintenant une approche prudente, aujourd’hui ils préfèrent répondre même si cela signifie pêcher la réponse de sources peu fiables. Ce mouvement du « meilleur à ne rien dire » à « nous répondons toujours » « crée unIllusion de précision qui peut être plus dangereuseparce que le lecteur reçoit une réponse claire et structurée, qu’il peut étiqueter comme « crédible », bien qu’il soit en mesure de se reposer sur de fausses données.

Comment se défendre des fausses nouvelles de l’IA et de la désinformation
À la lumière des résultats mis en évidence dans l’étude susmentionnée, il est naturel de penser à une stratégie pour se défendre contre les fausses nouvelles promues par l’IA. Le conseil que nous vous donnons est de toujours suivre ces deux conseils.
- Vérifiez toujours en revenant aux sources des nouvelles: Cela pourrait l’appeler la «règle d’or» lorsque nous nous informerons en ligne, que vous le faites directement en interrogeant un chatbot AI ou en consultant un journal en ligne considéré comme fiable. Vous ne devez jamais manquer de vérifier les faits, les chiffres, les données et les déclarations. Juste pour donner un exemple, si vous résumez un devis d’une certaine source en ligne, serait-il préférable de poser des questions similaires: la paraphrase de la citation est-elle correcte? Qui a fait cette déclaration? Dans quel contexte? La citation complète vous permet-elle de donner une clé de lecture différente à une phrase extrapolée du contexte? Bien sûr, pour répondre à toutes ces questions, il est essentiel de faire des recherches pour revenir à la source d’origine contenant la déclaration, qui est essentielle pour ne pas être victime de désinformation.
- Partagez avec les autres, seulement si vous êtes sûr de la véracité d’une nouvelle: Étant donné que les fausses nouvelles vivent avec des parts et des réconciliations par des utilisateurs moins conscients, quand une certaine nouvelle est douteuse, mieux vaut ne pas le partager. De cette façon, vous contribuerez à briser la chaîne de désinformation.