L’IA est la nouvelle arme utilisée pour effectuer des crimes informatiques: la découverte de l’anthropique

Alexis Tremblay
Alexis Tremblay

L’intelligence artificielle, un outil de plus en plus indispensable pour ceux qui travaillent, pourraient être utilisés non seulement par les employés, la comptabilité et la création, mais aussi par Les criminels: Une catégorie «travailleurs» résolument particulière. La société américaine Anthropiquequi développe le modèle linguistique Claude, a récemment publié un rapport dans lequel il prétend que sa technologie a été exploitée par les attaquants pour des activités de cybercriminalité à un niveau élevé de complexité. Les cas identifiés vont de la rédaction du code nocif à l’organisation des campagnes d’extorsion réelles, jusqu’à la fraude orchestrée par des groupes liés à la Corée du Nord. La société a rapporté comment ces épisodes représentent un saut qualitatif dans les techniques utilisées par les criminels, car l’IA vous permet d’automatiser les décisions, de réduire les temps d’attaque et de rendre les intrusions plus difficiles à détecter. Autrement dit, L’IA est la nouvelle arme utilisée pour effectuer des cybercrosicsce qui nous rend tous un peu plus vulnérables, du moins potentiellement.

Comment les cybercriminels ont utilisé l’IA pour leurs besoins

La question ne se limite pas au seul vol de données ou de ransomwares, le logiciel malveillant qui bloque les systèmes jusqu’au paiement d’un rachat: l’intelligence artificielle est également utile pour manipuler les personnes ayant des stratégies d’ingénierie sociale ciblées, comme dans le So-appelé « Vibe piratage »c’est-à-dire l’utilisation de l’IA pour comprendre comment persuader psychologiquement une victime. En ce qui concerne cette technique, des chercheurs anthropiques ont expliqué qu’ils avaient trouvé un criminel informatique qui a utilisé le code Claude pour commettre des vols à grande échelle et des données personnelles. L’auteur de l’attaque a affecté au moins 17 organisations différentes, notamment des établissements de santé, des services d’urgence, des institutions gouvernementales et des organisations religieuses, menaçant de faire des données publiques pour tenter de starter aux victimes le paiement des rançons qui, dans certains cas, dépassaient un demi-million de dollars en Bitcoin. Selon Anthropic, l’esprit derrière cette attaque a utilisé l’IA suivant une dynamique sans précédent. L’entreprise a expliqué:

Le code Claude a été utilisé pour automatiser la reconnaissance, percevoir les titres de compétences des victimes et pénétrer les réseaux. Claude a été autorisé à prendre des décisions tactiques et stratégiques, comment décider quelles données soustrayaient et comment formuler des demandes d’extorsion ciblées d’un point de vue psychologique. Claude a analysé les données financières volées pour déterminer les quantités appropriées des rançon et généré des demandes de rachat visuellement alarmantes qui ont été affichées sur les victimes des victimes.

L’IA n’a donc pas fonctionné comme un simple outil de support des criminels informatiques qui l’ont utilisé pour perpétrer des attaques similaires, mais, en fait, il avait un rôle de soutien stratégique: il a suggéré quelles données voler, comment les exfiltrer, et même comment déterminer les quantités les plus convaincantes à demander en tant que rachat.

Un autre épisode documenté concerne le Création de faux profils pour accéder aux postes de travail à distance dans de grandes sociétés technologiques américaines. Selon le rapport, les opérateurs nord-coréens ont utilisé Claude pour écrire des applications, traduire des textes et même développer du code. Cela leur a permis de surmonter les obstacles culturels et linguistiques qui, dans le passé, ont limité leur gamme d’action. Une fois prises, ces criminels informatiques pourraient accéder aux systèmes internes des entreprises, souvent sans suspicion immédiat. Anthropic considère cette méthode une nouvelle phase dans les escroqueries liées au monde de l’emploi, car l’utilisation de l’IA abaisse considérablement la barrière d’entrée pour ceux qui essaient de s’infiltrer.

L’intelligence artificielle pour les cybercrimes accélère le développement de nouveaux logiciels malveillants

À côté de ces épisodes concrets, certains scénarios que nous pourrions définir comme « expérimentaux » émergent également. Les chercheurs de l’ESET ont identifié un prototype de ransomware appelé Promptlochequi utilise l’IA pour générer constamment un nouveau code nocif. Les logiciels malveillants basés sur AI sont capables de sélectionner les fichiers les plus sensibles, de les copier et de les crypter (c’est-à-dire les rendre illisibles sans clé). Bien qu’il n’ait pas encore été répandu à grande échelle, il montre comment l’IA peut considérablement accélérer la création de nouveaux logiciels malveillants. Pas par hasard Anton Cherepanovl’un des chercheurs qui a aidé à trouver Promptlock, a expliqué:

Avec l’aide de l’intelligence artificielle, le lancement d’attaques sophistiquées est devenu considérablement plus facile. Un modèle bien configuré est désormais suffisant pour créer un logiciel malveillant complexe et auto-adaptant. S’ils sont suffisamment mis en œuvre, ces menaces pourraient compliquer sérieusement la détection et rendre le travail des défenseurs de la cybersécurité beaucoup plus exigeant.