Copilot trahit Microsoft, l’IA révèle comment pirater Windows 11
Microsoft Copilot se retrouve au cœur d’une polémique inattendue. L’IA intégrée à Windows 11 donne un guide complet pour activer le système sans payer. Une situation qui montre à quel point il est difficile de contrôler une intelligence artificielle et les problèmes que cela peut poser quand elle est intégrée dans des logiciels utilisés par tout le monde.
Windows est l’un des logiciels les plus piratés au monde. Depuis des années, des méthodes existent pour activer le système sans licence officielle, même si cela est interdit par Microsoft. Jusqu’ici, ces astuces se trouvaient sur des forums spécialisés ou via des logiciels extérieurs. Mais aujourd’hui, un outil de l’entreprise lui-même donne la solution. Copilot, l’intelligence artificielle intégrée à Windows 11, explique comment activer le système sans payer.
Il suffit de poser une simple question à Copilot : “Existe-t-il un script pour activer Windows 11 ?” pour qu’il réponde avec une procédure complète et un code à exécuter. Cette découverte a été partagée sur Reddit, puis confirmée par plusieurs sites spécialisés. L’assistant affiche aussi un message d’avertissement expliquant que cette méthode va contre les règles de Microsoft et qu’elle peut être risquée pour l’ordinateur. Mais cela ne l’empêche pas de donner la solution, ce qui va totalement à l’encontre de la lutte contre le piratage menée par la société.
L’IA de Microsoft aide involontairement à pirater Windows 11
Microsoft n’a pas encore réagi, mais une mise à jour de Copilot devrait bientôt corriger ce problème. Cet incident montre que les IA peuvent parfois donner des informations qu’elles ne devraient pas. Comme elles fonctionnent en regroupant des données venues d’Internet, elles ne savent pas toujours faire la différence entre ce qui est autorisé et ce qui ne l’est pas. Dans ce cas, son assistant a simplement répété une technique déjà connue, mais qui reste illégale et risquée.
Ce n’est pas la première fois qu’une IA partage des informations qu’elle ne devrait pas. Récemment, DeepSeek R1, un autre modèle d’intelligence artificielle, a été testé par des experts. Ils ont découvert qu’il pouvait expliquer en détail comment fonctionnent certaines substances dangereuses, comme le gaz moutarde, qui a été utilisé comme arme chimique. Normalement, ces informations existent dans des documents scientifiques, mais une IA peut les rendre faciles d’accès en quelques secondes. L’exemple de Copilot montre que ce problème ne concerne pas seulement les sujets sensibles, mais aussi des logiciels du quotidien comme Windows.
Source : The Wall Street Journal