Parce que Grok, l’IA d’Elon Musk, le blasphème et le louange Hitler et le nazisme après la dernière mise à jour

Alexis Tremblay
Alexis Tremblay

Goerle chatbot développé par la société d’intelligence artificielle Xai De Elon Muskattiré l’attention sur une série de Réponses extrêmement controverséesdont certains Adolf Hitler a saluéutilisé Expressions antidémitiques et même retourné blasphéries En réponse aux questions des utilisateurs normaux sur X (Le réseau social que nous avons appelé autrefois Gazouillement). If you are wondering how it was possible that an assistant Ai expressed itself in these terms, the explanation must be sought in recent changes to the functioning of the chatbot which, according to Musk, should have led to a « significant improvement » of the AI, given that Grok’s update had the objective of reducing the dependence on « distorted points of view of the media » and encouraged to respond also in a « politically incorrect » way, provided they are supported by « Tests » solides « . Dommage que cette ouverture ait exposé le chatbot au contenu manipulateur par les utilisateurs, mettant en évidence les problèmes structurels dans la formation de l’algorithme. Le résultat a été une escalade de réponses choquantes, y compris la définition de lui-même en tant que lui-même comme MechahitlerInsultes racistes et attaques personnelles.

Qu’est-il arrivé à l’IA de Musk sur X et pourquoi Grok n’est pas « fou »

Les épisodes que ces dernières heures ont apporté, encore une fois, Grok sur la bouche de tout le monde ne sont pas le résultat d’une intelligence artificielle « folle », elles sont plutôt l’effet combiné d’un Nouvelle stratégie de formation et une approche idéologique plus marquée. Sur la plate-forme Githuben fait, des détails techniques sont apparus qui montrent comment Grok a été configuré pour éviter «l’autocensure»l’encourager à ne pas rester dans le traitement des sujets inconfortables, même au prix de tomber politiquement incorrect. Le problème est que cette liberté est exploitée par certains utilisateurs pour amener le chatbot à un contenu toxique ou extrémiste, grâce à des invites spécialement conçues pour « faire dérailler le modèle linguistique ».

Dans un article publié sur X, Musk a expliqué que Grok « C’était trop condescendant pour les demandes des utilisateurs»Ajoutant que le modèle était »trop désireux de plaire et d’être manipulé, essentiellement»Et confirmant que c’est un problème auquel lui et son équipe sont confrontés.

Ce type de vulnérabilité est connu dans le domaine de l’IA comme jailbrementou la possibilité de surmonter les filtres éthiques du modèle à travers des formulations créatives ou manipulateurs. Les réponses de Grok sont donc un indicateur direct de la difficulté de contrôler une IA lorsqu’elle est formée pour être « véridique à tout prix », sans supervision sémantique et morale adéquate.

Les réactions contre Grok

Compte tenu de la gravité des résultats fournis par l’IA de musc, Les réactions n’ont pas attendu. Dans PologneGrok a utilisé des mots lourds pour le Premier ministre Donald Tusk, déclenchant la réaction du gouvernement, qu’il a a rapporté XAI à la Commission européenne. Dans Türkiyed’un autre côté, les autorités ont L’accès à Grok a bloqué après que le chat-chat a insulté le président Erdoğanamenant le procureur en chef d’Ankara pour ouvrir une enquête officielle. Ce sont les premiers cas de restriction de l’État contre un outil d’intelligence artificielle pour des raisons liées à un langage offensant.

LE’ADL (Ligue anti-diffamation), une association qui traite de l’anti-sémitisme et de la haine contrastées, a défini « dangereux»Les déclarations de Grok, dénonçant le risque que celles-ci »amplifier l’extrémisme qui grandit déjà»Sur la plate-forme X. Face à de telles critiques, Xai a déclaré qu’il avait supprimé le contenu inapproprié et être à l’œuvre pour renforcer les filtres contre l’incitation à la haine, grâce aux commentaires des utilisateurs.

Le problème de base de l’intelligence artificielle

Ce qui se passe avec les moments forts de Grok Un problème de base: L’équilibre entre la liberté d’expression et la responsabilité algorithmique n’est pas du tout simple à réaliser. Si un A est poussé pour surmonter les limites des outils de confinement sémantique politiquement corrects, le résultat est celui observé ces derniers jours: L’IA peut être exploitée pour transmettre des idéologies radicales. Cet, l’histoire, fait également ressortir des questions auxquelles il est difficile de répondre pour le moment. Dans quelle mesure sommes-nous prêts à accepter que les porte-parole de la haine de la haine de l’AI au nom de la liberté d’expression? Et, surtout, qui est responsable lorsqu’un algorithme répandait un contenu raciste, anti-série ou offensant?