Entre novembre 2024 et mars 2025, une équipe deUniversité de Zurich conduit un expérience Sur Reddit, une plate-forme sociale similaire à un forum, pour évaluer combien ils sont persuasif Intelligences artificielles. La recherche a émergé que l’IA bien plus bien des gens Pour faire changer les utilisateurs de Reddit, même jusqu’à six fois beaucoup. Ces résultats, publiés dans leur version préliminaire, ont déclenché une forte protestation par les utilisateurs et les administrateurs de la plate-forme, qui ne savaient pas qu’ils participent à une expérience. Suite aux préoccupations éthiques soulevées et en raison de l’échec de l’information, La recherche a été interrompue.
Dans cet article, nous explorons les raisons de l’étude, les résultats préliminaires et les principaux problèmes éthiques qui en tirent.
Testez l’influence de l’intelligence artificielle sur l’homme: l’étude
L’intelligence artificielle peut influence notre opinion Plus que ce que fait une autre personne? Et s’il savait détails personnels Sur nous, en tant qu’âge, genre ou orientation politique, serait-il encore mieux de le faire? Le groupe de chercheurs de l’Université de Zurich a commencé à partir de ces questions pour structurer ses recherches. L’objectif était de comprendre si les réponses générées par une IA pouvaient faire changer d’avis.
Jusqu’à présent, des études sur cette question ont été menées dans des environnements contrôlés, les participants conscients de faire partie d’une expérience. L’équipe voulait plutôt observer Que se passe-t-il dans un contexte réeloù l’interlocuteur ne sait pas qu’il parle à l’intelligence artificielle et ne faisait même pas partie d’une expérience. Pour ce faire, ils ont choisi Reddit, un énorme Forum en ligne composé de milliers de communautés thématiques – appels Sumddit – Et en particulier r / changemyview – « Laisse-moi changer mon esprit » – un espace où Utilisateurs discuter opinion Même très différent les uns des autres et récompenser les commentaires capables de les faire refléter ou de modifier la position avec des « points ».
Entre novembre 2024 et mars 2025, les chercheurs ont infiltré une série de botou ai capable d’écrire textescomme Chatgpt. Chacun des robots infiltrés avait sa propre « personnalité » et pouvait répondre différemment, à partir d’un mode extrêmement « standard », similaire à la façon de parler des utilisateurs classiques, jusqu’à un complet personnalisation réponsecalibré Basé sur le profil de l’utilisateur. Pour obtenir ce niveau de personnalisation, une autre IA a analysé les 100 derniers articles publiés par l’utilisateur pour déduire des informations telles que le sexe, l’âge, l’ethnicité, la position géographique et l’orientation politique, afin d’adapter le ton et le contenu de la réponse.
Les intelligences artificielles sont meilleures que les gens pour changer d’avis
Comme déjà émergé dans d’autres études sur le même sujet, le AU Ils ont prouvé beaucoup plus convaincant des êtres humains. La vraie surprise, cependant, était de comprendre à quel point ils sont. Analysant les « points » attribués par les utilisateurs aux commentaires qui leur avaient fait changer leur idée, l’équipe a vu que les robots les plus « standard » obtenus Résultats trois fois mieux par rapport aux vrais utilisateurs. Les robots « personnalisés », c’est-à-dire ceux qui ont adapté la réponse connaissant le profil de l’interlocuteur, étaient même Six fois plus efficace.
Il faut dire, cependant, que ce sont seuls Résultats préliminaires. Cette étude n’est pas arrivée (et ne viendra jamais) à la phase de révision par les pairs, c’est-à-dire ce processus rigoureux dans lequel d’autres experts du secteur évaluent la validité et la fiabilité d’une recherche avant sa publication officielle. Lorsque le groupe a fait connaître les premiers résultats et a informé les administrateurs de Reddit, le réaction C’était assez fort et négatifà tel point que la communauté a menacé les auteurs de l’étude avec la mort. Les utilisateurs impliqués n’avaient aucune idée de faire partie d’une expérience et cela va à l’encontre de certains des directives éthiques pour la structuration d’un eEsprits scientifiques. Le fait d’introduire l’AI à l’intérieur R / ChangeMyViewwueww va à l’encontre de la politique de la plate-forme elle-même. Après avoir partagé les résultats préliminaires, par conséquent, l’université bloqué Autres phases de expérimentation.
Ces résultats doivent être considérés comme une première exploration, et non comme une certitude. Ils sont cependant, cohérent avec ceux des autres études antérieures: Plus on parvient à parler comme nous, à montrer nos propres valeurs et à essayer d’être raisonnable, plus nous sommes prêts à nous faire confiance et, par conséquent, à changer d’avis.
Préoccupations éthiques concernant l’utilisation de l’intelligence artificielle dans les études
Cette étude a mis en évidence, encore une fois, à quel point leEffet de la personnalisation. Cette dynamique avait déjà été observée, par exemple, avec « Débunk»: Un chatbot conçu pour dialogue avec je théoriciens du complot et les convaincre de revoir leurs croyances. Dans ce cas également, l’un des points clés du succès a été la capacité d’adapter les réponses au profil de la personne avec qui il était le dialogue.
Si, d’une part, ces compétences de persuasion peuvent être utilisées pour obtenir résultats positifs pour sociétécomment réduire les théories du complot ou convaincre la population de laleGénérations moes des vaccinslede l’autre, ils peuvent être utilisés pour créer désinformation et convaincre la population de Fausses nouvelles dans la campagne électorale.
En plus de l’efficacité de l’IA, cependant, la façon dont l’étude a été menée. Les participants n’avaient pas été informés de pouvoir participer à une expérience scientifique E Pas Ils avaient donné leur consentement. Mais ce qui est frappant, c’est que Personne n’a remarqué pour pouvoir interagir avec une IA: La distinction entre le contenu généré par un être humain et celles produites par l’intelligence artificielle peut être beaucoup plus difficile que vous ne le pensez.