L’IA d’Elon Musk pète complètement les plombs, elle dévoile comment fabriquer des armes chimiques
Grok 3, la nouvelle intelligence artificielle développée par xAI, inquiète dès son lancement. Des utilisateurs ont réussi à obtenir des guides complets pour créer des armes chimiques et mener des attaques meurtrières.

L’intelligence artificielle atteint un nouveau seuil critique. Avec des modèles toujours plus avancés, la question des risques liés à leur utilisation devient centrale. Certains acteurs du secteur imposent des règles strictes pour éviter les abus, mais d’autres choisissent une approche plus ouverte, quitte à provoquer des situations inquiétantes. C’est le cas de Grok 3, la dernière IA lancée par xAI, l’entreprise d’Elon Musk. Présentée comme un modèle puissant et non censuré, elle dépasse déjà ChatGPT et Gemini sur plusieurs tests de logique et de mathématiques. Mais son absence de contrôle vient de lancer une polémique.
En quelques jours, plusieurs utilisateurs ont découvert que Grok pouvait fournir des instructions détaillées pour fabriquer des armes chimiques, allant jusqu’à lister les matériaux à acheter et les sites où les commander. Un développeur a notamment réussi à obtenir un document de plusieurs dizaines de pages expliquant comment concevoir une toxine mortelle et l’utiliser dans une ville pour maximiser son effet. L’IA a même utilisé son moteur de recherche avancé pour vérifier l’exactitude des informations et affiner les détails.
Grok 3 fournit des instructions détaillées pour fabriquer des armes chimiques
Grok 3 n’est pas le seul modèle à poser problème. Récemment, l’IA DeepSeek R1 a aussi été pointée du doigt pour sa capacité à fournir des informations sensibles. Des chercheurs ont montré qu’elle était 3,5 fois plus encline que ses concurrents à expliquer des phénomènes chimiques dangereux. L’un des cas les plus inquiétants concerne le gaz moutarde, une arme chimique interdite, dont l’IA a détaillé les interactions avec l’ADN, facilitant ainsi la compréhension de sa fabrication.
Face à la controverse, xAI a réagi en urgence en bloquant certaines requêtes et en ajoutant des restrictions à Grok 3. Mais cette affaire relance le débat sur les limites à imposer aux modèles d’IA avancés. DeepSeek R1 a également été critiqué pour son faible taux de modération, se classant parmi les 20 % des modèles les moins sécurisés. Si seulement 6,68 % de ses réponses contiennent des informations réellement dangereuses, cela reste suffisant pour alerter les experts et les autorités. Avec l’essor rapide de ces modèles, la pression monte pour renforcer la régulation et éviter que ces technologies ne tombent entre de mauvaises mains.
https://twitter.com/LinusEkenstam/status/1893832876581380280