Suivez nous sur

Intelligence artificielle

IA trompeuse : exploiter des modèles génératifs dans des stratagèmes criminels

mm

Publié le

 on

Découvrez comment l'IA générative, notamment des modèles comme GPT-3 et DALL-E, est exploitée par les cybercriminels à des fins de phishing, de fraude et de deepfake.

IA générative, un sous-ensemble de Intelligence artificielle, a rapidement pris de l'importance en raison de sa capacité remarquable à générer diverses formes de contenu, notamment du texte de type humain, des images réalistes et de l'audio, à partir de vastes ensembles de données. Des modèles tels que GPT-3, DALL-E, Réseaux Génératifs d'Adversariat (GAN) ont démontré des capacités exceptionnelles à cet égard.

A Rapport de Deloitte souligne la double nature de l’IA générative et souligne la nécessité d’être vigilant face à l’IA trompeuse. Si les progrès de l’IA contribuent à la prévention du crime, ils responsabilisent également les acteurs malveillants. Malgré des applications légitimes, ces outils puissants sont de plus en plus exploités par les cybercriminels, les fraudeurs et les acteurs affiliés à l’État, entraînant une multiplication de stratagèmes complexes et trompeurs.

L’essor de l’IA générative dans les activités criminelles

L’essor de l’IA générative a entraîné une augmentation des activités trompeuses affectant à la fois le cyberespace et la vie quotidienne. Phishing, une technique permettant d'inciter les individus à divulguer des informations sensibles, utilise désormais l'IA générative pour rendre les e-mails de phishing très convaincants. À mesure que ChatGPT devient plus populaire, les e-mails de phishing ont augmenté, les criminels l'utilisant pour créer des messages personnalisés qui ressemblent à des communications légitimes.

Ces e-mails, tels que les fausses alertes bancaires ou les offres alléchantes, tirent parti de la psychologie humaine pour inciter les destinataires à divulguer des données sensibles. Bien que OpenAI interdit l’utilisation illégale de ses modèles, faire respecter cela n’est pas facile. Des invites innocentes peuvent facilement se transformer en stratagèmes malveillants, nécessitant à la fois des examinateurs humains et des systèmes automatisés pour détecter et empêcher toute utilisation abusive.

De même, la fraude financière a également augmenté avec les progrès de l’IA. L’IA générative alimente les escroqueries, créant du contenu qui trompe les investisseurs et manipule le sentiment du marché. Imaginez rencontrer un Chatbot, apparemment humain mais conçu uniquement pour la tromperie. L'IA générative alimente ces robots, engageant les utilisateurs dans des conversations apparemment authentiques tout en extrayant des informations sensibles. Les modèles génératifs améliorent également attaques d'ingénierie sociale en créant des messages personnalisés qui exploitent la confiance, l'empathie et l'urgence. Les victimes sont la proie de demandes d’argent, de données confidentielles ou d’identifiants d’accès.

Doxxing, qui consiste à révéler des informations personnelles sur des individus, est un autre domaine dans lequel l'IA générative aide les criminels. Qu’il s’agisse de démasquer des personnes anonymes en ligne ou de révéler des informations privées, l’IA amplifie l’impact, entraînant des conséquences concrètes telles que le vol d’identité et le harcèlement.

Et puis il y a deepfakes, des vidéos, des clips audio ou des images réalistes générés par l'IA. Ces sosies numériques brouillent la réalité, posant des risques allant de la manipulation politique à la diffamation.

Incidents Deepfake notables avec des impacts critiques

L’utilisation abusive de l’IA générative a conduit à une série d’incidents inhabituels, mettant en évidence les risques et les défis profonds posés par cette technologie lorsqu’elle tombe entre de mauvaises mains. La technologie Deepfake, en particulier, brouille les frontières entre réalité et fiction. Fruits de l’union des GAN et d’une malveillance créatrice, les deepfakes mélangent des éléments réels et fabriqués. Les GAN se composent de deux les réseaux de neurones: la générateur et discriminateur. Le générateur crée des contenus de plus en plus réalistes, comme des visages, tandis que le discriminateur tente de repérer les contrefaçons.

Des incidents notables impliquant des deepfakes se sont déjà produits. Par exemple, Ces a utilisé un modèle d'IA pour créer un clone vocal convaincant de Joe Rogan, démontrant la capacité de l'IA à produire de fausses voix réalistes. Les deepfakes ont également eu un impact significatif sur la politique, comme le montrent divers exemples. Par exemple, un appel automatique se faire passer pour le président américain Joe Biden a induit en erreur les électeurs du New Hampshire, tandis que Enregistrements audio générés par l'IA en Slovaquie se faisant passer pour un candidat libéral pour influencer les résultats des élections. Plusieurs incidents similaires ont été signalés et ont eu un impact sur la politique de nombreux pays.

Les escroqueries financières ont également eu recours à des deepfakes. UN Ingénierie britannique La société Arup a été victime d'une escroquerie deepfake de 20 millions de livres sterling, dans laquelle un employé du secteur financier a été trompé en lui faisant transférer des fonds lors d'un appel vidéo avec des fraudeurs utilisant des voix et des images générées par l'IA pour se faire passer pour des dirigeants de l'entreprise. Cela met en évidence le potentiel de fraude financière de l’IA.

Les cybercriminels exploitent de plus en plus les outils d’IA générative comme WormGPT et FraudGPT pour intensifier leurs attaques, créant ainsi une menace importante en matière de cybersécurité. WormGPT, basé sur le modèle GPT-J, facilite les activités malveillantes sans restrictions éthiques. Les chercheurs de SlashNext l'ont utilisé pour créer un e-mail de facture frauduleux très convaincant. FraudGPT, circulant sur les chaînes Telegram, est conçu pour des attaques complexes et peut générer du code malveillant, créer des pages de phishing convaincantes et identifier les vulnérabilités du système. La montée en puissance de ces outils met en évidence la sophistication croissante des cybermenaces et le besoin urgent de mesures de sécurité renforcées.

Implications juridiques et éthiques

Les implications juridiques et éthiques de la tromperie basée sur l’IA représentent une tâche formidable au milieu des progrès rapides des modèles génératifs. Actuellement, l’IA évolue dans une zone grise réglementaire, les décideurs politiques ayant besoin d’aide pour suivre le rythme des évolutions technologiques. Des cadres robustes sont nécessaires de toute urgence pour limiter les abus et protéger le public contre les escroqueries et les activités frauduleuses basées sur l’IA.

De plus, les créateurs d’IA portent une responsabilité éthique. La transparence, la divulgation et le respect des lignes directrices sont des aspects essentiels du développement responsable de l’IA. Les développeurs doivent anticiper les utilisations abusives potentielles et concevoir des mesures pour leurs modèles d’IA afin d’atténuer efficacement les risques.

Il est important de maintenir un équilibre entre innovation et sécurité pour relever les défis posés par la fraude basée sur l’IA. Une réglementation excessive peut freiner les progrès, tandis qu’une surveillance relâchée invite au chaos. Par conséquent, des réglementations qui favorisent l’innovation sans compromettre la sécurité sont impératives pour le développement durable.

De plus, les modèles d’IA doivent être conçus dans un souci de sécurité et d’éthique. L'intégration de fonctionnalités telles que la détection des biais, les tests de robustesse et la formation contradictoire peuvent améliorer la résilience contre l'exploitation malveillante. Ceci est particulièrement important compte tenu de la sophistication croissante des escroqueries basées sur l’IA, soulignant la nécessité d’une prospective éthique et d’une agilité réglementaire pour se prémunir contre le potentiel trompeur des modèles d’IA génératifs.

Stratégies d'atténuation

Les stratégies d’atténuation visant à lutter contre l’utilisation trompeuse des modèles génératifs basés sur l’IA nécessitent une approche à multiples facettes impliquant des mesures de sécurité améliorées et une collaboration entre les parties prenantes. Les organisations doivent employer des évaluateurs humains pour évaluer le contenu généré par l’IA, en utilisant leur expertise pour identifier les modèles d’utilisation abusive et affiner les modèles. Les systèmes automatisés équipés d'algorithmes avancés peuvent détecter les signaux d'alarme associés aux escroqueries, aux activités malveillantes ou à la désinformation, servant ainsi de systèmes d'alerte précoce contre les actions frauduleuses.

De plus, la collaboration entre les entreprises technologiques, les forces de l’ordre et les décideurs politiques est essentielle pour détecter et prévenir les tromperies basées sur l’IA. Les géants de la technologie doivent partager leurs connaissances, leurs meilleures pratiques et leurs renseignements sur les menaces, tandis que les forces de l'ordre travaillent en étroite collaboration avec des experts en IA pour garder une longueur d'avance sur les criminels. Les décideurs politiques doivent collaborer avec les entreprises technologiques, les chercheurs et la société civile pour créer des réglementations efficaces, en soulignant l’importance de la coopération internationale dans la lutte contre les tromperies induites par l’IA.

Pour l’avenir, l’avenir de l’IA générative et de la prévention du crime se caractérise à la fois par des défis et des opportunités. À mesure que l’IA générative évolue, les tactiques criminelles évolueront également, avec des progrès en matière de IA quantique, l'informatique de pointe et les modèles décentralisés qui façonnent le domaine. Par conséquent, l’éducation au développement éthique de l’IA devient de plus en plus fondamentale, les écoles et les universités étant invitées à rendre obligatoires les cours d’éthique pour les praticiens de l’IA.

Conclusion

L’IA générative présente à la fois d’immenses avantages et des risques importants, soulignant le besoin urgent de cadres réglementaires solides et d’un développement éthique de l’IA. Alors que les cybercriminels exploitent des outils avancés, des stratégies d’atténuation efficaces, telles que la surveillance humaine, les algorithmes de détection avancés et la coopération internationale, sont essentielles.

En équilibrant innovation et sécurité, en promouvant la transparence et en concevant des modèles d’IA dotés de protections intégrées, nous pouvons lutter efficacement contre la menace croissante de tromperie induite par l’IA et garantir un environnement technologique plus sûr pour l’avenir.

Le Dr Assad Abbas, un Professeur agrégé titulaire à l'Université COMSATS d'Islamabad, au Pakistan, a obtenu son doctorat. de l'Université d'État du Dakota du Nord, États-Unis. Ses recherches portent sur les technologies avancées, notamment le cloud, le brouillard et l'informatique de pointe, l'analyse du Big Data et l'IA. Le Dr Abbas a apporté des contributions substantielles avec des publications dans des revues et conférences scientifiques réputées.