Le Parlement européen a définitivement approuvé leLoi sur l'IA, la loi sur l’intelligence artificielle : garantira la vie privée et les droits fondamentaux des citoyens de l’Union européenne et favorisera l’innovation. La règle de l'IA a été approuvée mercredi 13 mars avec 523 voix pour, 46 contre et 49 abstentions : l'UE devient ainsi la première institution à réglementer les règles d'utilisation de l'IA. Le texte avait déjà été approuvé le 14 juin. Avec cette approbation, l'Union européenne – qui s'est montrée ces derniers mois très attentive aux risques de l'IA – est la première institution à réglementer les systèmes d'intelligence artificielle; toutefois, avant d'entrer en vigueur, le texte devra être à nouveau approuvé par le Conseil de l'Union européenne.
Le député européen Brando Benifeirapporteur à la Chambre européenne pour la loi sur l'IA, a déclaré :
Nous disposons enfin de la première loi contraignante au monde sur l'intelligence artificielle, pour réduire les risques, créer des opportunités, lutter contre la discrimination et apporter de la transparence. (…) L'AI Office sera désormais créé pour aider les entreprises à commencer à se conformer aux règles avant leur entrée en vigueur. Nous avons veillé à ce que l’être humain et les valeurs européennes soient au cœur même du développement de l’IA.
La loi sur l'IA entrera en vigueur ultérieurement 20 jours dès sa publication dans Journal officiel de l'Union européenne et sera appliqué après 2 ans supplémentaires. Pour les applications classées « risque inacceptable », il semblerait que les interdictions pourraient commencer au plus vite 6 mois.
Mais comment fonctionne concrètement cette nouvelle loi ? Le texte prévoit que les applications de l'intelligence artificielle sont classées en niveaux de risque: risque spécifiquement minime, limité, élevé et inacceptable. Un est associé à chaque catégorie liste des obligations sur la base de risques possibles pour l'utilisateur ou encore pour le contexte dans lequel cette application donnée est utilisée (pensez au secteur de la santé ou à ceux relatifs à la stabilité d'un État). Chaque outil d'IA classé comme « risque inacceptable » sera interdit.
Les applications associées à un risque inacceptable, et donc interdites, sont celles qui impliquentacquisition d'image à partir de caméras de surveillance ou d'Internet afin de créer des bases de données pour le reconnaissance soin du visageainsi que les systèmes de reconnaissance automatique des émotions basé sur des expressions faciales ou des proxémies sui lieux de travail ou au sein de écoles.
Pour eux police il ne sera pas possible d'utiliser des outils identification biométrique en temps réel en l'absence d'autorisation judiciaire ou administrative, sauf cas d'extrême nécessité tels que la recherche d'une personne disparue ou la prévention d'attentats terroristes.
Il sera également obligatoire pour les pays de l'UE d'établir agences nationales de contrôle mettre à la disposition des petites et moyennes entreprises espaces d'expérimentation au sein duquel les entreprises peuvent tester le développement de systèmes basés sur l’intelligence artificielle avant de les mettre sur le marché.
Enfin, l’AI Act établit également que tout faux profond – les vidéos dans lesquelles les données biométriques d'une personne sont superposées à celles d'une autre – doivent être explicitement étiquetées comme telles. Il ne sera donc plus possible de créer du contenu modifié sans en informer ceux qui utilisent ce contenu.