Après la nouvelle d’un accord Entre OpenAI et le Département de la Guerre américainle Désinstallations de l’application ChatGPT ils ont explosé avec un augmentation quotidienne de 295%une valeur qui brise clairement la norme : les semaines précédentes, le taux de suppression moyen était d’environ 9%. Cet écart témoigne non seulement d’un déclin de la popularité de la plateforme OpenAI, mais aussi d’une position consciente adoptée par certains utilisateurs, qui ont interprété la collaboration avec l’appareil militaire comme une ligne éthique dépassée. Parallèlement, une redistribution des intérêts vers les plateformes concurrentes a été observée, notamment vers l’écosystème développé par Anthropiqueperçu comme plus prudent dans l’utilisation de l’intelligence artificielle dans les domaines sensibles.
Le PDG d’OpenAI, Sam Altmanaprès avoir trouvé l’accord, il a écrit dans un post sur X :
Nous avons conclu un accord avec le ministère de la Guerre pour déployer nos modèles dans leur réseau classifié. Dans toutes nos interactions, le DoW a démontré un profond respect pour la sécurité et un désir de travailler ensemble pour obtenir le meilleur résultat possible.
L’exode massif de ChatGPT vers des applications concurrentes démontre à quel point les déclarations du numéro un d’OpenAI ont été jugées peu crédibles par les utilisateurs. Et, en fait, Altman est intervenu dans un deuxième message, dans lequel il a admis :
Nous n’aurions pas dû nous précipiter pour publier la nouvelle vendredi. Les problèmes sont extrêmement complexes et nécessitent une communication claire.
L’accord entre OpenAI et le Pentagone
La raison derrière la forte réaction des utilisateurs est donc imputable àaccord entre OpenAI et le Pentagone. L’accord entre les deux parties prévoit la mise en œuvre de modèles OpenAI dans réseaux militaires classifiés. Un « réseau classifié » est une infrastructure informatique accessible uniquement aux personnes autorisées, car elle traite informations sensibles sur la sécurité nationale. La crainte exprimée par de nombreux utilisateurs est que les systèmes créés pour l’assistance et la génération de contenus puissent être adaptés aux fonctions surveillance de masse Oh systèmes d’armes autonomesc’est-à-dire capable de sélectionner et d’atteindre des cibles sans contrôle humain direct. En réponse à ces craintes, le PDG d’OpenAI Sam Altmana déclaré qu’il apporterait quelques modifications à l’accord initial :
Nous avons travaillé avec le ministère de la Défense pour apporter quelques ajouts à notre accord afin de clarifier nos principes. (…) Il y a beaucoup de choses pour lesquelles la technologie n’est pas encore prête et de nombreux domaines pour lesquels nous ne comprenons pas encore les compromis nécessaires à la sécurité. Nous travaillerons sur ces aspects, lentement, avec le DoW, avec des garanties techniques et d’autres méthodes.
Problèmes de confidentialité
Un élément central de la réaction négative enregistrée envers ChatGPT concerne le confidentialité et la crainte que l’intelligence artificielle puisse être utilisée à des fins surveillance de masse ou dans contextes militaires sans garanties éthiques adéquates. La campagne « Quitter GPT »précise par exemple qu’OpenAI aurait accepté de permettre au Pentagone d’utiliser la technologie pour «tout objectif licite» inclus «surveillance de masse des Américains» et le «produire des armes basées sur l’IA qui tuent sans surveillance humaine». Ce sont des déclarations très fortes, qui ont évidemment contribué au déclin de popularité de ChatGPT. De nombreux utilisateurs se sont non seulement mobilisés supprimer l’applicationmais aussi le partage critiques négatives: selon la plateforme Tour de capteursles notes d’une étoile pour ChatGPT ont augmenté de 775 % samedi et de 100% Dimanche, alors que les notes cinq étoiles chutaient 50% dans la même période.
Les téléchargements augmentent pour Claude par Anthropic
Parallèlement à la diminution des téléchargements de ChatGPT, on constate un regain d’intérêt pour Claude, le chatbot développé par Anthropic. Cette société a déclaré publiquement qu’elle avait rejeté une demande du Département de la Guerre pour un accès illimité à ses systèmes, invoquant des préoccupations éthiques concernant d’éventuelles utilisations militaires ou de surveillance que ses dirigeants affirment que l’IA actuelle ne peut pas gérer en toute sécurité. Dario AmodeiPDG d’Anthropic, a expliqué :
Dans un nombre limité de cas, nous pensons que l’IA peut saper les valeurs démocratiques plutôt que les défendre. Certaines utilisations vont tout simplement au-delà de ce que la technologie actuelle peut faire de manière sûre et fiable.
La position d’Anthropic a eu des conséquences concrètes : deuxièmement Figurines d’applicationun service populaire qui suit les statistiques sur les applications logicielles, pour la première fois Les téléchargements quotidiens de Claude aux États-Unis, ils ont dépassé ceux de ChatGPT, avec un bond estimé jusqu’à88%. L’application est en tête du classement de l’App Store américain et a également atteint la première place dans plusieurs pays européens.