Avec Chatgpt, il est désormais possible de créer de faux reçus de manière crédible: le nouveau danger de l’IA

Alexis Tremblay
Alexis Tremblay

L’intelligence générative artificielle a fait un autre saut important en avant, grâce au nouveau générateur d’images basé sur le modèle GPT-4O Openaidéjà disponible pour tout le monde sur Chatgpt, y compris les utilisateurs qui ont un compte gratuit. Et la nouveauté cette fois pourrait avoir un impact sur les poches des consommateurs et les systèmes anti-vol des entreprises. ChatGpt, étant maintenant capable de créer des graphismes extrêmement réalistes, y compris des textes lisibles et cohérents, suscite de nombreuses préoccupations, après l’utilisation inappropriée des images de style « Studio Ghibli » de Miyazaki, pour la possibilité qu’il donne à générer de faux reçus avec l’IA. Cela signifie que, à tous égards, il est possible de demander à un modèle d’IA de créer un reçu fictif pour un restaurant, une boutique ou toute activité commerciale. Et ce ne sont pas des exemples abstraits simples: en ligne, probablement les reçus générés sont déjà déjà circulant avec cette technologie, dans certains cas même « sales » numériquement avec des taches ou des plis alimentaires pour sembler utilisés. Le risque est clair: bien que l’outil ait été conçu à des fins créatives et didactiques, il devient extrêmement facile de l’abuser pour mettre en œuvre la fraude, par exemple en gonflant le remboursement des dépenses ou en présentant de faux tests dans des contextes juridiques ou d’assurance.

Les nouvelles compétences du modèle GPT-4O

La nouveauté principale concerne la capacité du nouveau 4e modèle à générer texte parfaitement lisible dans les imagesun obstacle technique qui représentait jusqu’à récemment une limite de génération et qui a permis de distinguer les images qui ont artificiellement généré des images réelles avec beaucoup plus de facilité qu’aujourd’hui. Ici pour produire des images de reçus où les figures, les noms et les détails graphiques semblent clairs et crédibles n’est rien de plus utopique. Certains utilisateurs sur les réseaux sociaux, y compris le compte X @Deedydas, ont partagé des exemples impressionnants: reçus de vrais restaurants, modifiés numériquement avec des noms plausibles, des prix cohérents et un aspect visuel presque totalement indiscernable d’un document authentique. Dans certains cas, pour augmenter sa crédibilité, des éléments de «trouble» tels que des taches ou des plis ont été ajoutés.

Il est important de savoir que les modèles de gros langues, le So-appelé LLM (Modèles de grande langue) comme GPT-4O Ils ne sont pas encore parfaits dans le champ numérique: souvent le Les montants ne reviennent pasOi Les symboles monétaires ne sont pas les bons. Mais ces petites erreurs peuvent être facilement corrigées avec un simple logiciel de retouche photo ou en fournissant des instructions plus détaillées au modèle. Cela rend l’outil très attrayant pour ceux qui souhaitent falsifier les tests documentaires rapidement et sur le plan économique.

Image

Réponse d’Openai

Selon ce qui a été déclaré par Openaitoutes les images générées par Chatgpt incluent les métadonnées C2PAune norme développée pour indiquer si un contenu a été créé par l’intelligence artificielle ou non. Taya Christiansonporte-parole d’Openai, demandé par Techradarà cet égard, il a expliqué:

Nous surveillons les générations d’images à l’intérieur et à l’extérieur de notre plate-forme, nous utilisons des outils internes pour vérifier qu’ils ont été créés par nos produits et agissons lorsque nous identifions les violations de nos politiques d’utilisation. « Nous apprenons toujours de l’utilisation et des commentaires du monde réel et nous continuerons à perfectionner nos politiques pour équilibrer la liberté créative avec la prévention d’une mauvaise utilisation. Toutes les images incluent les métadonnées standard C2PA dans le secteur qui indiquent qu’ils ont été générés par l’OPE par OpenI.

Dommage que les métadonnées auxquelles le porte-parole d’OpenII se réfère peut être potentiellement supprimée dans une poignée de clics pendant l’exportation de l’image, ce qui le rend difficile, en pratique, en distinguant un faux reçu d’un réel.

Le site d’information technologique TechCrunchen demandant à Openai que la génération de faux contenus similaires soit autorisée, a reçu en réponse « (l’objectif) d’Openai est d’offrir aux utilisateurs autant que plus de liberté de création possible»Et que le faux reçu généré par l’IA pourrait être utilisé pour »enseigner la littératie financière aux gens». Pour vous le jugement sur ces déclarations.