Des hackers piratent la mémoire de ChatGPT pour voler vos données, voici comment vous protéger
Les intelligences artificielles progressent rapidement et ouvrent la voie à de nouvelles applications. Parmi elles, ChatGPT se distingue par sa capacité à mémoriser des informations sur ses utilisateurs. Mais cette fonctionnalité comporte des risques, et des chercheurs ont découvert une faille exploitée par des hackers.
L'intelligence artificielle évolue à un rythme impressionnant et a transformé profondément notre rapport à la technologie depuis ces deux dernières années. ChatGPT, développé par OpenAI, est l’un des outils les plus populaires dans ce domaine. Capable de générer des conversations presque humaines, il s'améliore avec le temps grâce à sa fonctionnalité de mémoire. Cette dernière lui permet de retenir des informations comme le nom, les préférences ou les anciennes interactions. Son but est d'offrir un service personnalisé à ses utilisateurs.
Cependant, cette capacité de mémorisation n'est pas sans danger. Des chercheurs en sécurité ont récemment découvert une faille dans la version MacOS de ChatGPT. Cette vulnérabilité permettrait à des hackers de manipuler la mémoire de l'IA en y introduisant des informations malveillantes, créant ainsi un risque pour la sécurité des utilisateurs.
Des hackers exploitent la mémoire de ChatGPT pour voler des données
L'équipe d’experts en sécurité a démontré qu’un pirate peut utiliser une technique d’injection de commande pour insérer des instructions malveillantes dans une conversation avec ChatGPT. Ces dernières sont ensuite stockées dans la mémoire longue durée de l’IA, ce qui signifie qu’elles persistent même après la fin de la session. Lors des futures discussions avec l’utilisateur, le programme peut utiliser ces fausses informations. Cela permet au hacker d’intercepter ou d’exfiltrer des données sensibles en orientant les échanges vers des informations personnelles.
Sur le même sujet – OpenAI dévoile les modèles o1 et o1-mini, la “fraise” sur le gâteau pour les tâches complexes
Pour limiter ce risque, OpenAI a introduit un correctif empêchant ce type d’attaque via l’interface web de ChatGPT. Néanmoins, les chercheurs soulignent que des contenus non vérifiés, comme des documents tiers ou des images, pourraient encore exploiter cette faille. Les utilisateurs sont donc encouragés à désactiver la fonction mémoire ou à surveiller attentivement les notifications “mémoire mise à jour” afin de vérifier ce qui a été stocké.
Source : embrace the red