Là lutte contre les théories du complot peut-il aussi passer par l’intelligence artificielle ? Une étude menée auprès de près de 2200 volontaires adeptes de diverses théories du complot et publiée dans la revue Science montre que DebunkBot – un chatbot basé sur le LLM (Grand modèle de langage) GPT-4 Turbo – s’avère efficace pour réfuter les théories du complot en aidant ceux qui y croient à réviser leurs convictions. Tirant parti d’une stratégie personnalisée, DebunkBot interagit directement avec les utilisateurs, démanteler leurs arguments complotistes en temps réel. Le nom même du chatbot rappelle le concept de démystificationc’est-à-dire « démanteler » les fausses nouvelles, les canulars ou (comme dans ce cas) les théories du complot. Contrairement à d’autres chatbots – des logiciels qui simulent des conversations réalistes avec l’utilisateur – Debunkbot est spécifiquement calibré pour mener des conversations qui visent à stimuler ceux qui croient aux théories du complot à remettre en question leurs croyances erronées à travers des arguments convaincants présentés de manière efficace du point de vue de la communication.
Les résultats de l’étude menée par des chercheurs de Université Cornell et de MIT (Institut de technologie du Massachusetts) en a en effet mis en évidence un réduction d’environ 20%. dans la croyance de certaines des principales théories du complot, avec un l’effet a duré au moins 2 mois après le test. «Ces résultats » les auteurs de l’étude ont déclaré «suggèrent que de nombreux partisans des théories du complot peuvent réviser leurs points de vue s’ils sont présentés (dialogues) avec des preuves suffisamment convaincantes».
Comment l’étude a été menée
DebunkBot n’est pas seulement un chatbot qui répertorie des faits pour démystifier une théorie du complot. Utiliser l’intelligence artificielle pour personnaliser le dialogue avec chaque utilisateurrépondant directement aux preuves qu’ils apportent pour étayer leurs convictions. Contrairement aux tentatives de démystification standard, qui sont souvent limitées par une approche globale, DebunkBot est capable pour s’adapter aux besoins individuelsva fournir contre-tests sur mesure.
Lorsqu’une personne présente une théorie du complot, DebunkBot « écoute » attentivement les informations présentées par l’utilisateur et répond rapidement, sans essayer de se submerger de trop de faits à la fois, mais en articulant un argument ciblé et progressif. L’étude, qui a impliqué 2190 bénévoles (dont chacun croit à au moins une théorie du complot), a été structuré en 3 tours de dialogue. Dans les conversations entre le chatbot et les utilisateurs humains, dure en moyenne environ 8,4 minutescertaines des principales théories du complot ont été abordées et réfutées, comme celle relative à l’assassinat de Kennedy, celle sur les événements du 11 septembre, en passant par celle du COVID-19, l’alunissage et l’existence d’un nouvel ordre mondial.
Pour tester si les LLM peuvent réfuter efficacement les croyances conspirationnistes comme celles qui viennent d’être mentionnées, ou si les besoins et motivations psychologiques rendent les adeptes du complot totalement immunisés même face aux preuves les plus convaincantes, les chercheurs ont entraîné l’IA spécifiquement à «convaincre très efficacement» aux utilisateurs de ne pas croire au complot de leur choix. Pour améliorer cette approche personnalisée, le chatbot a reçu la justification écrite du complot de chaque participant comme message d’ouverture de la conversation, ainsi que l’évaluation initiale du participant sur sa croyance dans la théorie du complot discutée. Cette « configuration » particulière permettait à l’IA de réfuter les allégations spécifiquestout en simulant un dialogue naturel dans lequel le participant avait déjà exprimé son point de vue.
Des conversations qui ont eu lieu entre le chatbot et les utilisateurs, il a été constaté que 27,4 % des participants à l’étude ont commencé à avoir des doutes sur les théories du complot dont ils étaient certains avant de converser avec DebunkBot, diminuant ainsi leur confiance en elles. Pour évaluer la persistance de cet effet, les chercheurs ont recontacté les participants à deux reprises : les 10 premiers jours après le test initial ; le deuxième 2 mois après la réalisation de l’étude. Avec quels résultats ? Les chercheurs ont déclaré :
La durée de nos découvertes sur 2 mois, ainsi que les effets d’entraînement de l’intervention sur des complots et des intentions comportementales sans rapport, suggèrent que les participants ont sérieusement considéré et intériorisé les arguments de l’IA.
En d’autres termes, les nouvelles croyances acquises grâce à l’interaction avec le chatbot ont poussé les utilisateurs non seulement à revoir leurs croyances, en les modifiant face aux preuves présentées par l’intelligence artificielle, mais à se les approprier.

Les limites de l’étude
Les chercheurs qui ont réalisé les tests ont cependant admis la présence de limites de l’étude en question. Même si les résultats ont été jugés comme «prometteur», les chercheurs admettent que l’étude s’est basée principalement sur des répondants américains à des enquêtes en ligne qui ont choisi de participer moyennant des frais. À l’avenir, il faudra vérifier si les résultats peuvent également être étendus aux personnes qui croient aux théories du complot et qui ne participent généralement pas aux enquêtes, ainsi qu’aux personnes d’autres pays et d’autres cultures.
Une autre précision apportée par les chercheurs concerne le fait que, même si de nombreux participants se sont déclarés très convaincus des théories du complot évoquées avec le chatbot, il faudra voir si l’approche sera également efficace pour convaincre des personnes encore plus enracinées. dans la théorie du complot, comme ceux qui participent activement à des groupes ou à des événements liés au complot.