Une lettre ouverte sur le web rédigée par un groupe de 13 experts en intelligence artificielle – dont 7 anciens salariés d'OpenAI (dont 2 anonymes), 4 employés actuels d'OpenAI (qui ont tous préféré rester anonymes) e 2 scientifiques Google DeepMind (dont l'un fait toujours partie de ce dernier) – suscite des discussions (et pas mal) sur le Web. Le groupe d'experts a adressé le message aux entreprises travaillant dans le développement de l'IA, arguant que cette technologie, bien qu'utile, dans l'avenir auquel cela pourrait conduire possible extinction de l'humanité. En particulier, la lettre met l'accent sur peu d'attention à la sécurité et sur le culture du secret dont ils sont responsables grande technologie de l'IA.
Parmi les signataires de la lettre se trouvent des experts du calibre de William Saunders, Carroll Wainwright Et Daniel Ziegler (tous anciens employés d'OpenAI). Le message a également reçu l'approbation de Stuart Russellun expert de premier plan en matière de sécurité de l’intelligence artificielle, et Geoffrey Hinton Et Yoshua Bengiotous deux lauréats du Prix Turing en 2018 (une reconnaissance importante pour ceux qui travaillent dans le domaine de l'IA, considérée comme une sorte de « Prix Nobel de l'informatique »).
L’IA pourrait-elle conduire à l’extinction de l’humanité ? Ce que disent les anciens employés d'OpenAI et de Google DeepMind
Pourquoi diable l’IA pourrait-elle conduire à l’extinction de l’humanité ? Selon les experts qui ont rédigé la lettre en question, les raisons sont multiples. Le document dit notamment :
Ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d'IA autonomes qui pourrait conduire à l’extinction de l’humanité. Les entreprises d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d’autres experts en IA.
Au fur et à mesure que vous continuez à lire la lettre, les accusations deviennent de plus en plus graves. À un moment donné, en effet, nous apprenons ceci :
Les sociétés d’IA possèdent d’importantes informations non publiques sur les capacités et les limites de leurs systèmes, l’adéquation de leurs mesures de protection et les niveaux de risque de différents types de dommages. Toutefois, ils n'ont actuellement qu'une faible obligation de partager certaines de ces informations avec les gouvernements et aucune avec la société civile. Nous ne pensons pas que l’on puisse compter sur tout le monde pour les partager volontairement. Tant qu’il n’y aura pas de contrôle gouvernemental efficace sur ces entreprises, les employés actuels et anciens font partie des rares personnes qui peuvent les tenir responsables devant le public. Cependant, de nombreux accords de confidentialité nous empêchent d'exprimer nos préoccupations, sauf aux entreprises mêmes qui ne traitent pas ces questions. (…) Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de cas similaires dans le secteur.. Nous ne sommes pas les premiers à rencontrer ou à parler de ces problèmes.
Existe-t-il des solutions possibles au problème ? Les réponses du groupe d’experts en IA
Après les lourdes accusations, les experts ont également énuméré quelques solutions possibles contenus dans les quatre points que nous résumons ci-dessous.
- Les entreprises d’IA ne devraient pas encourager les accords qui interdisent toute critique à leur égard, ni exercer de représailles contre les salariés et anciens salariés (par exemple en entravant les avantages économiques qu’ils ont acquis) si elles le font.
- Les entreprises d’IA devraient établir un processus anonyme pour permettre aux employés actuels et anciens de faire part de leurs préoccupations au conseil d’administration, aux régulateurs et aux organisations indépendantes.
- Les entreprises doivent favoriser une culture d’ouverture à la critique.
- Les entreprises ne devraient pas exercer de représailles contre les employés et anciens employés qui partagent publiquement des informations confidentielles pour des raisons de sécurité, même si les rapports n'aboutissent pas aux résultats souhaités.
Il est difficile de dire si des entreprises du calibre d’OpenAI, Google DeepMind et Anthropic accueilleront favorablement les principes énoncés dans la lettre ouverte rédigée par des experts en IA, compte tenu des possibles répercussions négatives que cela pourrait avoir sur leur activité. Certes, la réglementation des technologies qui ont un tel impact sur la vie humaine est nécessaire pour éviter la prolifération de problèmes éthiques et pratiques.
La lettre des anciens employés d'OpenAI et de Google DeepMind
Si vous souhaitez en savoir plus, vous trouverez ici le texte intégral de la lettre ouverte publiée par le groupe de 13 experts en intelligence artificielle.