OpenAI a annoncé le développement de de nouveaux outils pour détecter le contenu généré avec l'intelligence artificielle. Pour atteindre cet objectif, la société dirigée par Sam Altman a rejoint le comité de direction de C2PA (Coalition pour la provenance et l'authenticité du contenu) – un groupe créé par Adobe, Microsoft Et BBC pour trouver des méthodes de certification des contenus diffusés en ligne – et a même commencé à en tester une en interne nouvelle technologie de classificateur de détection qui aide les gens à détecter le matériel créé avec leurs propres outils d'IA générative, avant tout DE-E 3, Sora Et ChatGPT.
Comment fonctionne le système OpenAI pour reconnaître le contenu de l'IA
Avec l’adoption de la norme de certification des contenus numériques – c’est-à-dire C2PA – déjà largement utilisé par plusieurs entreprises technologiques, médias en ligne et fabricants d’appareils photo, OpenAI peut contribuer au développement de ce standard et l’utiliser pour ajouter Métadonnées C2PA à tout le contenu généré avec DALL·E 3 et ChatGPT. À l'avenir, les métadonnées C2PA marqueront également le contenu créé avec Sora, avant le modèle. texte en vidéo être lancé à grande échelle.
Soyons clairs cependant : la norme C2PA ne peut pas empêcher les attaquants de générer du contenu sans métadonnées. Cependant, il est également vrai que ces informations ne sont pas faciles à falsifier ou à modifier. Concernant cet aspect, OpenAI a en effet rapporté :
À mesure que l’adoption de la norme augmente, ces informations peuvent accompagner le contenu tout au long de son cycle de vie de partage, d’édition et de réutilisation. Au fil du temps, nous pensons que ce type de métadonnées deviendra quelque chose auquel les gens s’attendront, comblant ainsi une lacune cruciale dans les pratiques d’authenticité du contenu numérique.
En plus d'adopter la norme en question, OpenAI développe également en interne de nouveaux systèmes de vérification, notamment la mise en œuvre de filigrane inviolable. Grâce à des technologies similaires, il est possible, par exemple, de marquer un contenu numérique (tel que l'audio) avec un signal invisible qui devrait être assez difficile à supprimer. Au-delà de cela, l’entreprise travaille sur des outils qui utilisent l’intelligence artificielle elle-même pour évaluer la probabilité que le contenu soit le résultat de modèles génératifs.
Les tests internes menés par OpenAI sur son système classificateur de détection propriétaire ont mis en évidence une grande précision dans la distinction des images générées avec DALL-E 3 des images « réelles », obtenant ainsi un niveau de précision d’environ 98 %.avec une incidence de « faux positifs » (c'est-à-dire des images « réelles » marquées à tort comme artificielles) moins de 0,5%. En ce qui concerne le contrôle des images générées artificiellement avec des modèles d'IA tiers, il reste encore beaucoup de travail à faire, étant donné que le système a atteint un niveau de précision assez médiocre, 5-10%.
Pourquoi il est important de disposer d'outils pour détecter le contenu de l'IA
Peut-être que quelqu'un demandera pourquoi il est nécessaire de réfléchir à des outils qui détectent les contenus générés avec l'IA. Il y a essentiellement deux raisons : la quantité toujours croissante de contenus générés par les modèles d'intelligence artificielle et la difficulté de distinguer ces derniers des images, vidéos et textes créés par l'intelligence « réelle », c'est-à-dire l'intelligence humaine.
OpenAI lui-même, dans son communiqué de presse officiel, rapporte :
Partout dans le monde, des personnes adoptent l’IA générative pour créer et éditer des images, des vidéos et des fichiers audio de manière à améliorer la créativité, la productivité et l’apprentissage. À mesure que le contenu audiovisuel généré devient plus courant, nous pensons qu’il sera de plus en plus important pour la société dans son ensemble d’adopter de nouvelles technologies et normes qui aident les gens à comprendre les outils utilisés pour créer le contenu qu’ils trouvent en ligne.