L’Europe est parvenue à un accord pour créer la première loi au monde sur l’intelligence artificielle. Après des mois de négociations, le Parlement et les gouvernements de l’UE sont parvenus à un accord suracte d’IA, comme il a été rebaptisé, un paquet réglementaire qui, d’une part, vise à protéger les citoyens et les démocraties contre les risques de cette technologie, et d’autre part, a pour objectif de promouvoir le développement de l’IA dans l’UE, comblant ainsi l’écart avec les États-Unis. États-Unis, mais aussi de Chine. L’un des sujets les plus délicats des négociations qui ont abouti au texte final, qui devra désormais être ratifié par les institutions du bloc, a concerné la sécurité, notamment la reconnaissance faciale, une des applications de l’intelligence artificielle que certains pays mettent déjà en œuvre. pratique dans la lutte contre la criminalité. Mais que plusieurs organisations non gouvernementales et experts accusent de constituer un risque pour la vie privée et les droits des citoyens.
Applications interdites
Le texte final de la loi reconnaît « la menace potentielle pour les droits des citoyens et la démocratie posée par certaines applications de l’IA », lit-on dans une note du Parlement européen. Pour cette raison, une série de ces applications sont expressément interdites : les systèmes de catégorisation biométrique qui utilisent des caractéristiques sensibles (telles que les convictions politiques, religieuses, philosophiques, l’orientation sexuelle ou la race) pour construire des listes de personnes basées sur ces caractéristiques. La collecte non ciblée (c’est-à-dire non liée, par exemple, à des fins spécifiques de sécurité nationale) d’images faciales capturées sur Internet ou d’images de vidéosurveillance pour créer des bases de données de reconnaissance faciale est également interdite. Les interdictions incluent également l’utilisation d’applications de reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement, des systèmes qui manipulent le comportement humain pour contourner leur libre arbitre ou qui exploitent les vulnérabilités des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique). Enfin, l’Europe interdit la création de scores sociaux attribués aux citoyens en fonction de leur comportement social ou de leurs caractéristiques personnelles, comme cela se produit par exemple en Chine avec le système de crédit social.
Exemptions des forces de l’ordre
La loi prévoit des dérogations à ces interdictions pour les agents des forces de l’ordre, mais seulement dans certains cas et sous réserve d’une autorisation judiciaire. La police pourra utiliser des systèmes d’identification biométrique (RBI) pour classer les personnes en fonction de catégories spécifiques telles que le sexe, l’âge, la couleur des cheveux et des yeux, les tatouages, l’origine ethnique ou l’orientation sexuelle ou politique. Il pourra le faire dans des espaces accessibles au public à des fins répressives à la fois « en temps réel », c’est-à-dire en acquérant des données et en les classant en direct, et « post-à distance », c’est-à-dire en utilisant les données déjà acquises.
Dans ce dernier cas, la reconnaissance faciale doit être « rigoureusement utilisée dans la recherche ciblée d’une personne reconnue coupable ou soupçonnée d’avoir commis un crime grave », explique le Parlement européen. Pour les systèmes d’identification biométrique en temps réel, des « conditions strictes » doivent cependant être respectées et leur utilisation doit être « limitée dans le temps et dans le lieu » pour : des recherches ciblées de victimes (enlèvement, trafic, exploitation sexuelle), la prévention d’une menace spécifique et attaque terroriste en cours, la localisation ou l’identification d’une personne soupçonnée d’avoir commis un crime tel que. terrorisme, traite des êtres humains, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle et crimes environnementaux.
Le nœud ChatGpt
Un autre point critique de la loi, qui a dressé les gouvernements de l’UE les uns contre les autres, est celui relatif aux exigences de transparence des modèles d’intelligence artificielle les plus puissants, comme ChatGpt et Bard. Certains pays, comme l’Allemagne, la France et l’Italie, ont fait craindre qu’un cadre réglementaire trop strict n’empêche le développement de ces technologies dans l’UE elle-même, déjà très en retard par rapport aux États-Unis, mais aussi par rapport à la Chine. En 2022, les investissements dans l’intelligence artificielle s’élevaient à 50 milliards aux États-Unis, 10 milliards en Chine et 5 milliards en Europe, déplorait récemment le ministre français Bruno Le Maire.
Pour les systèmes d’IA classés à haut risque (en raison de leurs dommages potentiels importants à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à la démocratie et à l’État de droit), explique le Parlement européen, « il a convenu d’obligations claires » telles que « une analyse d’impact obligatoire ». sur les droits fondamentaux, également applicable aux secteurs des assurances et des banques ». Les systèmes d’intelligence artificielle utilisés pour influencer le résultat des élections et le comportement des électeurs sont également classés comme présentant un risque élevé. Les citoyens auront le droit de déposer des plaintes concernant les systèmes d’IA et de recevoir des explications sur les décisions basées sur des systèmes d’IA à haut risque qui ont un impact sur leurs droits.
Limites et sanctions
Pour prendre en compte le large éventail de tâches que les systèmes d’intelligence artificielle peuvent effectuer et l’expansion rapide de leurs capacités, il a été convenu que les systèmes d’intelligence artificielle à usage général (GPAI) et les modèles GPAI sur lesquels ils sont basés devront adhérer aux exigences de transparence. Il s’agit notamment de la rédaction de documentation technique, du respect de la loi européenne sur le droit d’auteur et de la diffusion de résumés détaillés du contenu utilisé pour la formation.
Le retard de l’Europe en matière d’intelligence artificielle
« Nous avons mis en place des règles strictes pour la sécurité des modèles les plus puissants et nous avons imposé la transparence sur les droits d’auteur pour protéger les travailleurs de la créativité et du journalisme et la reconnaissabilité des contenus générés par l’intelligence artificielle, afin de contrer la désinformation et de défendre notre démocratie contre un prolifération incontrôlée de ce que l’on appelle les ‘deepfakes' », a déclaré le député européen PD Brando Benifei, qui a contribué à la rédaction du texte final. Les modèles GPAI à fort impact et à risque systémique, lit-on dans la note de la Chambre européenne, « devront procéder à des évaluations de modèles, évaluer et atténuer les risques systémiques, effectuer des tests contradictoires, rendre compte à la Commission des incidents graves, assurer la cybersécurité et rendre compte de leur énergie ». efficacité ».
Le non-respect des règles peut entraîner des amendes allant de 35 millions d’euros ou 7 % du chiffre d’affaires global à 7,5 millions ou 1,5 % du chiffre d’affaires, selon l’infraction et la taille de l’entreprise.
Continuer la lecture aujourd’hui