L’IA Gemini est largement utilisée pour mener des cyberattaques, Google confirme
Un rapport du GTIG, la branche de Google luttant contre les cyberattaques, révèle que de nombreux groupes pirates se servent de l'IA Gemini pour mener à bien leurs opérations.

Il y aura toujours quelqu'un pour détourner un outil de son usage premier. Malheureusement, cela aboutit très souvent à quelque chose de néfaste. Quand l'intelligence artificielle s'est démocratisée avec l'essor fulgurant de ChatGPT, il n'a pas fallu longtemps avant que des personnes malveillantes lui trouvent une autre utilité que l'organisation de voyages ou la rédaction de mails professionnels. Par exemple, élaborer des cyberattaques.
En théorie, les IA ne le permettent pas, mais l'on peut exploiter des failles pour qu'elles fassent ce qui leur est normalement interdit. Sans même aller jusque là, il existe tout un tas de manières de profiter des avantages d'un chatbot pour mener à bien des activités criminelles sur Internet.
Lire aussi – Grâce à ChatGPT, un dangereux malware qui prend le contrôle des Mac est découvert
Dans son dernier rapport, le GITG (Google Threat Intelligence Group) dévoile que Gemini, modèle de langage créé par Google, a la cote chez les hackers. Le GITG a repéré 57 groupes ayant recours à Gemini pour élaborer leurs cyberattaques à travers le monde. Précisons qu'il s'agit de groupes dit APT, pour Advanced Persistent Threat, c'est-à-dire des pirates en lien avec des agences gouvernementales, qui les soutiennent à différents niveaux.
Google dévoile que son IA Gemini est utilisé par presque 60 groupes menant des cyberattaques
Ils se situent en Chine, en Iran, en Corée du Nord et en Russie. Google précise qu'ils se servent de l'IA Gemini “pour faciliter leurs opérations” et “gagner productivité“, mais pas pour développer “de nouvelles capacités“.
Chaque pays à ses usages. L'Iran, dont les hackers sont “les plus gros consommateurs de Gemini“, profite de l'IA pour élaborer des campagnes de phishing, repérer des experts en cybersécurité et générer du contenu en lien avec ce thème.
La Chine lui confie plutôt la correction de code malveillant ou la recherche sur les techniques permettant d'infiltrer un système informatique sans se faire repérer. La Russie se limite à 2 choses : convertir le code de malwares disponibles publiquement dans un autre langage de programmation, et ajouter des couches de chiffrement sur d'autres.
Quant à la Corée du Nord, elle demande à Gemini de… rédiger des lettres de motivation pour répondre à des offres d'emploi. Le but est en réalité de faire entrer un espion au sein d'une entreprise occidentale. C'est pourquoi les hackers du pays mettent aussi à profit l'IA pour “rechercher les salaires moyens d'emplois spécifiques et poser des questions à leur sujet sur LinkedIn“, tout en demandant des “informations sur les échanges de collaborateurs à l'étranger“.
L'intelligence artificielle est devenue un outil indispensable pour les hackers
Si Google a pris l'exemple de Gemini, son propre modèle de langage (LLM), la firme remarque aussi de plus en plus de publicités pour des IA modifiées clairement frauduleuses. Qu'elles s'appellent WormGPT, FraudGPT ou encore GhostGPT, elles permettent toutes la création de mails de phishing personnalisés ou de faux sites Internet, entre autres choses.
Lire aussi – Des hackers ont créé plus de 1000 faux sites pour diffuser un malware qui vole vos données, voici comment les repérer
Le GITG réaffirme la nécessité de sécuriser au maximum les LLM afin d'empêcher leur usages à des fins frauduleuses. La firme de Moutain View travaille activement à empêcher les attaques par injection de requête, celles qui font sortir l'IA de son cadre de règles. Elle rappelle toutefois l'importance d'une coopération entre les spécialistes du secteur et les gouvernements comme autre rempart contre le phénomène.