WormGPT est le pendant maléfique de ChatGPT, cette IA crée des campagnes de phishing

Les Intelligences artificielles génératives sont capables de mille et une choses, des plus utiles en termes de productivité, aux plus néfastes. Les cybercriminels ont bien compris tous les bénéfices qu’ils peuvent tirer de cette nouvelle technologie. On entend parler de plus en plus fréquemment de campagnes de phishing toujours plus sophistiquées créées grâce à cette nouvelle classe d’outils.

robot-laptop
Crédit : 123rf

Aujourd’hui, par exemple, c’est WormGPT qui fait parler de lui. Ce chatbot destiné aux hackers est en libre circulation sur les sites de pirates. Ses concepteurs avancent qu’il permet de créer aisément des « attaques de compromission par courrier électronique ». En d’autres termes, il permet de créer des campagnes d’emails personnalisés très convaincants visant les employés d’organisations commerciales, gouvernementales ou à but non lucratif.

page-wormgpt

Comme son nom l’indique, WormGPT est une alternative aux IA grand public telles que Bard et ChatGPT. Comme eux, le malware met à profit un modèle de langage possédant. Son créateur va même jusqu’à définir WormGPT comme « le plus grand ennemi du célèbre ChatGPT […] qui vous laisse faire toutes sortes de choses illégales ». Comme on peut le voir, WormGPT fonctionne sans aucune limite éthique, à l’inverse de ChatGPT, par exemple.

WormGPT est un outil de phishing de masse créé grâce à l’IA

Cela dit, bien que WormGPT soit « marketé » comme un malware spécialisé, des outils à base d’IA plus grand public sont également capables de faire des dégâts tout aussi importants. C’est le cas de Bard, le chatbot de Google désormais disponible en France. Check Point Research a ainsi constaté que les hackers utilisent l’IA de Mountain View pour créer du contenu malveillant. Selon les chercheurs, les contraintes éthiques posées par les développeurs de Bard sont bien plus faciles à abuser que celles de ChatGPT.

exemple-wormgpt
Crédit : Hacker News

Par ailleurs, des chercheurs de Mithril Security ont prouvé qu’il est possible de « corrompre » un grand modèle de langage en modifiant un LLM open-source nommé GPT-J-6B. Après avoir été modifié, celui s’est spécialisé dans la désinformation. Ses concepteurs l’ont mis à disposition sur un dépôt public, afin que les internautes l’intègrent dans d’autres applications, et empoisonnent la chaîne d’approvisionnement LLM : une technique appelée PoisonGPT.

Source : Hacker News


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !