Cette IA d’un nouveau genre siphonne vos données personnelles depuis ChatGPT et Gemini
L'évolution récente dans le domaine de la cybersécurité a vu l'émergence de Morris II, un ver AI génératif conçu pour se propager de manière autonome entre les systèmes d'intelligence artificielle. Cette innovation malveillante, capable d'extraire des données et de diffuser du spam, met en péril la sécurité des modèles renommés comme ChatGPT et Gemini.
L'avènement de l'intelligence artificielle transforme nos téléphones en véritables compagnons numériques. La récente intégration de Galaxy AI dans la série Galaxy S24 et son extension à d'autres appareils Samsung illustrent cette tendance, offrant aux utilisateurs des interactions plus intuitives et personnalisées. De son côté, Google prévoit d'implanter Gemini dans nos smartphones, marquant un pas de plus vers une ère où l'IA enrichira significativement la façon dont nous utilisons nos mobiles.
L'écosystème Android s'enrichit également grâce à l'arrivée de nouveaux acteurs comme Microsoft Copilot, apportant par des fonctionnalités IA avancées. En parallèle, l'intégration de Bard dans Google Assistant vise à booster ses performances, soulignant l'effervescence autour des technologies d'assistance intelligente. Toutefois, cette innovation rapide vient avec des problèmes de sécurité, notamment avec l'émergence de menaces telles que Morris II, un ver IA capable de se propager entre les systèmes.
Le ver Moris II exploite les vulnérabilités de l'IA générative
Le ver Morris II, mis au point par Ben Nassi et son équipe de Cornell Tech, représente une nouvelle génération de cybermenaces. Il exploite la connectivité et l'autonomie des écosystèmes d'IA. Il se propage en utilisant des prompts d'auto-réplication adversariaux, un mécanisme astucieux qui lui permet d'infiltrer et de prendre le contrôle d'autres agents d'IA. Une fois à l'intérieur du système, il peut effectuer une série d'actions non autorisées, telles que l'extraction de données confidentielles ou le déploiement de logiciels malveillants. Par exemple, dans le cas d'un assistant email basé, le ver pourrait insérer son propre code malveillant dans les réponses générées par l'assistant, envoyant ainsi du spam ou des liens malveillants à tous les contacts de l'utilisateur, sans que celui-ci en soit conscient.
L'autonomie et la capacité de propagation silencieuse de Morris II entre les agents d'IA posent un défi majeur aux programmes de sécurité existants. Pour mitiger cette menace, les experts en sécurité, comme Adam Swanda de Robust Intelligence, recommandent des mesures préventives telles que la conception sécurisée des applications d'IA et une supervision humaine rigoureuse. Ces mesures visent à garantir que les actions entreprises par les agents d'IA soient toujours soumises à une approbation explicite, réduisant ainsi le risque d'activités non autorisées. De plus, la surveillance des motifs répétitifs ou inhabituels au sein des systèmes d'IA peut aider à détecter les menaces potentielles, permettant une intervention rapide avant que le ver ne cause des dommages significatifs.
Source : Wired