Le dernier modèle de ChatGPT révolutionne la création d’images contenant du texte, et les résultats inquiètent déjà les experts en sécurité. Lancé ce mois-ci, le générateur d’images intégré au modèle 4o d’OpenAI excelle particulièrement dans la création de texte au sein des images générées. Des utilisateurs ont rapidement découvert qu’il peut produire des factures et reçus de restaurant parfaitement crédibles, ouvrant la voie à des possibilités de fraude alarmantes.
La nouvelle fonction ajoute un outil supplémentaire à l’arsenal déjà conséquent des deepfakes utilisés par les escrocs. Alors que les exemples se multiplient sur les réseaux sociaux, une question se pose : avons-nous franchi une nouvelle étape dans la sophistication des arnaques numériques ?
Des faux reçus d’un réalisme troublant
Le phénomène a commencé à faire surface lorsque Deedy Das, investisseur en capital-risque et utilisateur prolifique des réseaux sociaux, a publié sur X une photo d’un faux reçu pour un steakhouse bien réel de San Francisco. Il a affirmé avoir créé cette image grâce au modèle ChatGPT 4o.
Cette publication a déclenché une vague d’expérimentations similaires. D’autres utilisateurs ont réussi à reproduire des résultats comparables, certains allant jusqu’à ajouter des taches de nourriture ou de boisson pour renforcer l’authenticité de leurs créations.
L’exemple le plus convaincant découvert par TechCrunch provient de France. Un utilisateur LinkedIn a partagé un reçu froissé généré par IA pour une chaîne de restaurants locale. Le niveau de détail et la mise en page réaliste auraient pu tromper même un œil averti.
Les journalistes de TechCrunch ont aussi testé 4o en générant une fausse facture pour un Applebee’s à San Francisco. Même si le résultat contenait quelques erreurs, l’apparence globale restait étonnamment crédible pour une image entièrement artificielle.
À LIRE AUSSI : Meta va bientôt introduire l’IA générative dans les jeux du métavers !
Des imperfections révélatrices mais facilement corrigeables
Malgré leur apparence convaincante, ces factures générées présentent encore quelques défauts qui trahissent leur origine artificielle. Dans l’exemple produit par TechCrunch, le total utilisait une virgule au lieu d’un point décimal. De plus, les calculs mathématiques étaient erronés.
Ces erreurs ne sont pas surprenantes. Les grands modèles de langage éprouvent toujours des difficultés avec les opérations mathématiques de base. Cependant, un fraudeur pourrait aisément corriger ces imperfections en utilisant un logiciel d’édition d’images ou en affinant ses instructions au modèle.
La capacité de ChatGPT à générer du texte dans un format visuellement cohérent avec les documents réels représente un bond qualitatif significatif. Auparavant, la création de tels faux nécessitait des compétences en design ou en photomontage, alors qu’aujourd’hui une simple description textuelle suffit.
Un potentiel de fraude considérable
La facilité avec laquelle on peut désormais générer des reçus factices ouvre la porte à de nombreuses possibilités de fraude. Il n’est pas difficile d’imaginer cette technologie utilisée par des acteurs malveillants pour se faire « rembourser » des dépenses entièrement fictives.
Les systèmes de remboursement de frais professionnels pourraient être particulièrement vulnérables à ce type d’escroquerie. Dans de nombreuses entreprises, les factures papier servent encore de justificatifs pour des remboursements, et peu de vérifications approfondies sont effectuées sur l’authenticité des documents.
Au-delà des fraudes aux remboursements, ces faux reçus pourraient aussi servir à créer de fausses preuves d’achat pour des réclamations de garantie, des demandes de remboursement d’assurance ou même des justificatifs fiscaux frauduleux. La technologie ajoute ainsi une nouvelle dimension aux arnaques numériques déjà existantes.
À LIRE AUSSI : Top 10 des plateformes d’IA No-Code les plus puissantes en 2024
La réponse d’OpenAI face aux préoccupations
Contactée par TechCrunch, Taya Christianson, porte-parole d’OpenAI, a tenu à rassurer en expliquant que toutes les images générées par ChatGPT incluent des métadonnées indiquant leur origine artificielle. Ces informations intégrées permettraient théoriquement d’identifier les images créées par l’IA.
Christianson a également affirmé qu’OpenAI « prend des mesures » lorsque les utilisateurs enfreignent ses politiques d’utilisation et que l’entreprise « apprend constamment » des usages réels et des retours d’expérience.
Quant à la question de savoir pourquoi ChatGPT autorise la génération de faux reçus en premier lieu, la représentante a expliqué que l’objectif d’OpenAI est de « donner aux utilisateurs autant de liberté créative que possible ». Elle a suggéré que ces fausses factures pourraient servir à des fins légitimes comme l’éducation financière, la création artistique ou la publicité, et pas uniquement à des fins frauduleuses.
Cette justification pose néanmoins la question de l’équilibre entre l’innovation technologique et la responsabilité éthique des entreprises d’IA face aux utilisations potentiellement néfastes de leurs outils.
SOURCE : TechCrunch