Ces chercheurs ont découvert une faille inquiétante dans les IA comme Claude

Les systèmes d’intelligence artificielle générative pourraient être vulnérables à des attaques sophistiquées. Des chercheurs en sécurité ont démontré comment des modèles comme Claude peuvent être détournés pour exécuter des actions malveillantes. Cette menace interpelle alors que l’utilisation de ces outils explose.

Robot devant un PC
Crédits : 123RF

L’intelligence artificielle générative est en plein essor et transforme profondément nos interactions avec la technologie. Ces outils, capables de générer des contenus ou de répondre à des questions complexes, attirent aussi l’attention des cybercriminels. Des chercheurs ont récemment montré que des IA comme Claude d’Anthropic pouvaient être manipulées via des attaques d’injection de commandes. Ce type d’attaque, déjà connu, devient particulièrement préoccupant à mesure que ces systèmes sont intégrés dans des appareils ou des services sensibles.

Un exemple marquant est l’exploitation de Claude Computer Use, un outil d’Anthropic conçu pour permettre au modèle de contrôler des appareils externes. En octobre 2024, Johann Rehnberger, expert en cybersécurité, a réussi à détourner ce dernier pour pousser Claude à télécharger et exécuter un malware. Le chercheur a baptisé cette méthode “ZombAIs“. Ce cas dévoile la facilité avec laquelle une IA peut être piégée par des commandes soigneusement formulées.

Les IA peuvent être détournées pour exécuter des attaques

Les chercheurs ont montré qu’il est possible de détourner une IA comme Claude pour accomplir des actions dangereuses. Par exemple, ils ont utilisé un outil informatique, habituellement destiné à tester la sécurité des systèmes, pour installer des logiciels malveillants. Ce type de programme permet à des pirates de contrôler un ordinateur à distance et de voler des informations. Plus inquiétant encore, une intelligence artificielle peut être incitée à écrire, tester et lancer elle-même un logiciel malveillant, uniquement grâce à des instructions bien pensées. Cela montre à quel point ces outils, pourtant très performants, peuvent être manipulés s’ils ne sont pas bien protégés.

Claude n’est pas le seul concerné. D’autres systèmes, comme DeepSeek, ont aussi montré des failles similaires en permettant à des pirates d’exploiter des vulnérabilités et de compromettre des appareils. Ce problème rappelle un incident récent avec ChatGPT, où des hackers ont réussi à manipuler sa mémoire pour accéder à des données sensibles. Ces exemples montrent que, bien qu’impressionnantes, les IA d’aujourd’hui ne sont pas infaillibles. Les entreprises doivent renforcer leur sécurité pour éviter que ces outils soient utilisés à des fins malveillantes.

Source : Embrace The Red


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !