le nouvel outil pour se défendre

Alexis Tremblay
Alexis Tremblay

L’intelligence artificielle poursuit sa course imparable, touchant de plus en plus de secteurs et améliorant étonnamment ses capacités. Parmi ceux-ci, il y a celui de pouvoir cloner la voix humaine presque parfaitement. Puisqu'une voix clonée pourrait être utilisée à mauvais escient pour générer de faux fichiers audio à perpétrer avec escroqueries et génèrent de la désinformation, plusieurs chercheurs réfléchissent à des solutions susceptibles d'atténuer le problème. Parmi eux, il y a un outil, appelé par hasard AntiFauxconçu pour rendre la vie plus difficile aux cybercriminels qui tentent d'acquérir des données vocales avec lesquelles cloner les voix de leurs victimes.

De quelle quantité de matériel l'IA a-t-elle besoin pour cloner la voix

Le développement d’outils qui contrecarrent le clonage de la voix humaine est devenu d’une importance fondamentale car, contrairement à il y a quelques années, les systèmes d’IA modernes sont capables de cloner la voix à partir d’échantillons audio de quelques secondes seulement. Un exemple clair en est l'outil Voice Engine d'OpenAI – la société qui développe ChatGPT – qui a récemment été critiqué en raison du prétendu clonage de la voix de l'actrice Scarlett Johansson effectué sans autorisation, qui est capable de clonez votre voix en seulement 15 secondes (compte tenu de son danger potentiel, l'outil n'a pas encore été rendu public).

Il y a encore quelques temps, l’intelligence artificielle était capable de cloner la voix à partir d’échantillons audio assez longs (au moins 30 minutes), qui devaient respecter des normes qualitatives et expressives précises afin de permettre à l’algorithme de synthétiser parfaitement la voix. Aujourd'hui, les choses sont évidemment différentes, étant donné qu'un simple message vocal WhatsApp peut suffire et être transmis à un outil d'IA pour copier la voix d'une autre personne.

Image

Quels outils existent pour empêcher l'IA de cloner votre voix

Étant donné que quiconque envoie habituellement des messages vocaux (même occasionnels) ou laisse des messages enregistrés sur le répondeur a en fait déjà fourni suffisamment de matériel pour être cloné vocalement, le conseil de ne pas envoyer de matériel de ce type à qui que ce soit n'est donc pas très valable. Et avouons-le : notre voix pourrait facilement être enregistrée à notre insu avec n’importe quel smartphone.

C'est pourquoi il est nécessaire technologie de compteur avec une autre technologie. C’est la seule façon de « lutter à armes égales ». En parlant d' »armes technologiques », celle développée par l'informaticien et ingénieur Ning Zhang de l'institut de recherche École d'ingénierie McKelvey du Université de Washington de Saint-Louis semble très prometteur. AntiFauxl'outil que Zhang a développé et présenté lors d'une conférence sur la cybersécurité àAssociation pour les machines informatiques qui s'est tenue à Copenhague, au Danemark, le 27 novembre de l'année dernière, a une approche proactive par rapport aux méthodes conventionnelles pour détecter les deepfakesqui ne prennent effet que lorsque le mal est déjà fait.

AntiFake, en effet, utilise des techniques similaires à celles utilisées par les cybercriminels pour le clonage de voix afin de protéger efficacement les voix contre le piratage et la contrefaçon. En expliquant comment fonctionne sa « créature », Zhang a rapporté :

L'outil utilise une technique d'IA contradictoire qui faisait à l'origine partie des outils des cybercriminels, mais nous l'utilisons désormais pour nous défendre contre eux. Nous brouillons légèrement le signal audio enregistré, le déformons ou le perturbons juste assez pour qu'il sonne toujours bien aux auditeurs humains.

Une fois cela fait, l'audio reste donc de bonne qualité pour les auditeurs humains, mais en même temps le restitue inutilisable pour entraîner un clone vocal.

AntiFaux
Crédits : AntiFake.

De toute évidence, AntiFake n’est pas la panacée à tous les maux. Comme il le souligne Ben Zhao de l'Université de Chicago, qui n'a pas participé au développement d'AntiFake, il est vrai que les outils de ce type peuvent « placer la barre plus haut et limiter l'attaque à un groupe plus restreint d'individus très motivés et dotés de ressources importantes » mais c'est également vrai que, comme tous les systèmes de sécurité numérique, il n'offrira jamais une protection complète et sera menacé par l'ingéniosité persistante des escrocs. La lutte contre le mal, même dans le domaine informatique, est un processus continu.