L’IA DeepSeek alarme les experts car elle génère des plans criminels et des explications sur des armes chimiques
DeepSeek, une nouvelle intelligence artificielle venue de Chine, défie OpenAI et fait trembler le secteur. Mais selon des chercheurs en sécurité, son modèle génératif pose de graves problèmes. Il serait bien plus enclin à produire des contenus dangereux, allant des plans criminels aux explications sur des armes chimiques.

L’intelligence artificielle progresse rapidement, apportant des avancées impressionnantes dans de nombreux domaines. Mais son développement est parfois préoccupant en matière de sécurité. Certains modèles sont capables de générer des contenus inappropriés ou risqués, obligeant les entreprises à mettre en place des garde-fous. L’un des nouveaux venus dans le domaine, DeepSeek, est sous le feu des projecteurs, non seulement pour ses performances, mais aussi pour les risques qu’il pose.
C’est dans ce contexte que DeepSeek R1, un modèle open source développé en Chine, attire l’attention. Présenté comme une alternative à OpenAI, il a déjà suscité des polémiques sur son manque de modération. Une étude menée par la société de cybersécurité Enkrypt AI révèle que ce dernier serait 11 fois plus susceptible que ChatGPT-4 de produire du contenu dangereux. Parmi les exemples cités, l’IA aurait généré des plans criminels détaillés, des informations sur des armes illégales et même un guide de propagande extrémiste. Cette nouvelle controverse intervient peu après la révélation d’une grave faille de sécurité dans DeepSeek, qui a exposé les conversations privées de millions d’utilisateurs.
SouDeepSeek R1 pourrait faciliter l’accès à des informations dangereuses
Les chercheurs ont également constaté que DeepSeek R1 est 3,5 fois plus enclin que ses concurrents à fournir des explications sur des substances dangereuses. Enkrypt AI cite notamment un cas où l’IA a décrit avec précision l’interaction du gaz moutarde avec l’ADN, ce qui pourrait théoriquement aider à la fabrication d’armes chimiques. Bien que ces informations existent déjà dans la littérature scientifique, le fait qu’une intelligence artificielle puisse les résumer et les rendre accessibles en quelques secondes pose un véritable problème de sécurité.
Si ces découvertes sont préoccupantes, elles doivent aussi être replacées dans leur contexte. DeepSeek R1 affiche un taux de modération faible, se classant dans les 20 % des modèles les moins sécurisés, mais seulement 6,68 % de ses réponses contiennent réellement des contenus inacceptables. Cependant, l’ampleur du risque reste importante, et la pression monte pour que des garde-fous soient mis en place. Avec l’essor rapide de ces modèles open source, la question de leur régulation devient donc plus urgente que jamais.