Il sera bientôt possible de repérer les images créées par IA grâce à cette signature invisible
Microsoft met en place une nouvelle technologie qui permettra de reconnaître les images créées par intelligence artificielle. Grâce à un système invisible, les utilisateurs pourront facilement identifier si une image a été générée par IA, même après des modifications.
L'essor des technologies de génération d'images par IA a fait beaucoup de bruit, notamment autour de la désinformation et des deepfakes. Alors que le contenu généré ainsi se multiplie, il devient crucial de pouvoir distinguer le faux du vrai. Pour répondre à ces enjeux, les grandes entreprises technologiques cherchent des solutions qui garantissent une utilisation plus éthique de ces outils, tout en assurant la sécurité des utilisateurs et en limitant la propagation de fausses informations.
Dans cette optique, Microsoft a ajouté une nouvelle fonctionnalité à son service Azure OpenAI, qui permet aux développeurs d’utiliser le modèle DALL-E pour générer des images à partir de simples descriptions textuelles. Désormais, toutes les créations via cette plateforme intègrent des filigranes invisibles. Ces marquages discrets, impossibles à percevoir à l'œil nu, permettront d'identifier leur source sans en altérer la qualité. Même après des modifications, telles que le recadrage ou le redimensionnement, celui-ci restera présent et pleinement fonctionnel.
Microsoft renforce la protection des images générées par IA avec des filigranes invisibles
Les filigranes invisibles ajoutés aux images générées par DALL-E contiendront des informations essentielles permettant d'attester leur origine. Chacune d'entre elle inclura des métadonnées cryptographiquement signées, indiquant qu'elle a été générée par IA, ainsi que la date de sa création et l'outil utilisé. Ce mécanisme de protection repose sur des signatures numériques qui peuvent être vérifiées par des outils spécialisés. Grâce à cette technologie, il sera possible de retracer leur origine exacte et d’empêcher toute utilisation frauduleuse ou manipulation abusive.
Microsoft ne s'arrête pas là et continue d’étendre ses efforts en matière de sécurité pour les contenus générés par IA. En 2023, l’entreprise avait déjà introduit des filigranes pour les voix synthétisées via son service Azure AI Speech. De plus, la société travaille avec d’autres acteurs majeurs de l’industrie, comme Adobe et la BBC, pour s'assurer que ces technologies de signatures et de métadonnées cryptographiques soient compatibles sur différentes plateformes. Cela permet de créer une norme dans la protection des contenus générés ainsi et de garantir une meilleure sécurité sur l’ensemble de la toile.