LE’intelligence artificielle C’est un outil incroyable puissant Et polyvalent. Nous l’utilisons pour reconnaître des visages, faciliter les diagnostics médicaux et générer des images, des vidéos et des textes. Les nombreuses applications de cette technologie nous font faire d’énormes progrès et peuvent améliorer notre qualité de vie, mais elles cachent un problème pertinent : L’IA peut apprendre, amplifier et soumettre à nouveau le préjugés présent dans les données avec lesquelles il est formé. Cette « automatisation des biais » est un problème désormais reconnu et découle de la manière dont l’IA apprend, en extrapolant des règles et des modèles à partir des données qui lui sont fournies. Dans cet article, nous voyons un cas notable d’« automatisation des préjugés », nous examinons quels types de préjugés – ou « biais » – il peut y en avoir dans les modèles d’IA et voyons dans quelles directions la recherche évolue pour tenter de résoudre le problème.
L’automatisation des biais passe par les données
Un cas frappant de discrimination est apparu en 2017, quand l’étudiant de l’époque MIT Joy Buolamwini rédigeait sa thèse sur les logiciels reconnaissance faciale. En analysant les résultats de trois grands fabricants (IBM, Microsoft et Face++), il a découvert que le logiciel était extrêmement précis dans reconnaître le visages de personnes avec teint clair, mais Pas ils étaient tout aussi désireux de reconnaître les personnes à la peau plus claire sombre, surtout les femmes. Cela était dû au ensemble de données sur lequel le logiciel a été formé. Cet ensemble de données (plus tard surnommé l’ensemble de données du mâle pâlec’est-à-dire « l’ensemble de données de l’homme pâle ») contenait en grande partie des images de Hommes de race blanche et seulement dans une moindre mesure, les hommes et les femmes d’autres groupes ethniques. Tirant les leçons de ces données déséquilibrées, l’intelligence artificielle est devenue extrêmement efficace pour reconnaître les hommes de race blanche, mais pas les autres catégories, créant ainsi des problèmes liés, par exemple, aux systèmes de reconnaissance des banques et des téléphones portables. En réponse, le Dr Buolamwini a lancé le projet Gender Shades, pour mettre en évidence les problèmes liés aux ensembles de données utilisés pour entraîner l’intelligence artificielle. Gender Shades a contribué à sensibiliser le public en montrant comment je biais il n’y a pas seulement des erreurs techniques dans les données, mais refléter les inégalités Et préjugés enracinées, qui risquent d’être amplifiées lorsqu’elles sont reproposées par la technologie.
Les différents types de biais qui rendent l’IA loin d’être neutre
Les biais dans les modèles d’IA peuvent profondément affecter la fiabilité et l’impartialité des résultats, et nous pouvons les diviser en trois grandes catégories.
Biais d’interaction
Certains types de modèles utilisent un apprentissage dit « pour le renforcement». Autrement dit, ils sont conçus pour continuer à apprendre et à se mettre à jour en fonction deinteraction avec le monde extérieur. Comme il est facile de l’imaginer, si ceux qui interagissent avec un modèle de ce type ont un préjugé, celui-ci sera immédiatement appris et reproposé par le modèle. Par exemple, en 2016, un chatbot de Microsoft conçu pour apprendre à parler en interagissant avec les utilisateurs de Twitter est devenu en moins de 24 heures un raciste et un théoricien du complot, allant même jusqu’à nier la Shoah.
Biais latents
Ce type de biais est lié à données utilisé pour la formation. Les données sont le miroir de la société dont elles sont issues, c’est pourquoi, s’il en est une inégalité latente dans la sociétéce sera reflété dans les données et par conséquent aussi dans les modèles formés sur ces données. Par exemple, comme Wired l’a souligné en 2023, Midjourney – un logiciel de génération d’images – avait tendance à représenter des hommes blancs dans des rôles tels que « leader », « manager » ou « scientifique ». Parce que ces postes ont historiquement été occupés par des hommes, les ensembles de données sur lesquels l’IA a appris à générer les images comportaient une surabondance d’hommes, ce qui a conduit l’IA à associer ces mots à des images principalement masculines.
Biais de sélection
Là encore, le biais vient des données sur lesquelles l’IA est entraînée. Cependant, le problème ici ne reflète pas tant les préjugés présents dans la société en général que la choix de ceux qui construisent l’ensemble de données. Si, par exemple, une Européenne devait créer un modèle qui reconnaît différents types de robes, elle choisirait probablement des robes longues et blanches, typiques de la tradition européenne, et des robes peu colorées, typiques d’autres cultures, comme les « robes de mariée ». « . Dans cet exemple plutôt anodin, le mannequin ne serait pas en mesure de reconnaître celle d’une jeune fille indienne comme robe de mariée, car il aurait associé ce type de robe uniquement à la couleur blanche.
Même avec les meilleures intentions, il est pratiquement impossible de séparer nos préjugés humains de la technologie que nous créons.
Comment pouvons-nous éliminer les biais liés à l’IA ?
Les biais dans l’IA sont un problème complexe, donc Il n’y a pas encore de solution uniquemais qui est abordé sur deux fronts principaux : faire en sorte que je des ensembles de données plus équilibrés et faire le des modèles plus explicables. D’une part, il est important de diversifier les ensembles de données, afin qu’ils soient représentatif de différents groupes sociaux et démographiqueset rendre transparent l’ensemble du processus d’organisation et de sélection des données. D’autre part, la possibilité de expliquer Il est essentiel d’identifier pourquoi un modèle prend certaines décisions. biais potentiels dans le modèle lui-même. Garantissant la transparence, le explicabilité Il permet aux développeurs de modèles d’identifier et de corriger les problèmes de biais, garantissant ainsi que le modèle est éthique et interprétable pour les utilisateurs finaux. En intégrant ces pratiques, nous pouvons contribuer à développer des systèmes d’IA plus équitables et plus fiables.