Meta veut détecter les fichiers audio générés par IA, mais il y a un hic
Meta a développé un nouvel outil appelé capable de marquer les discours générés par l'intelligence artificielle. Cette innovation vise à lutter contre l'utilisation croissante des outils de clonage vocal pour des arnaques et de la désinformation. Aussi prometteuse qu’elle y paraisse, cette technologie est encore loin d'être au point.
Les technologies de génération de contenu par intelligence artificielle sont de plus en plus sophistiquées. Elles sont utilisées dans divers domaines et vont de la création artistique à l’imitation de voix humaines. Toutefois, cette avancée technologique présente aussi des risques importants, notamment en matière de désinformation et de fraude, comme récemment sous la forme de deepfakes qui imitaient Kylian Mbappé.
Meta continue d'intégrer l'IA dans ses applications mobiles telles que Facebook, Instagram, Messenger et WhatsApp et rend son utilisation presque inévitable pour les utilisateurs. Mais pour répondre aux préoccupations concernant les abus de cette technologie, la société vient de présenter AudioSeal. Ce système permet d'intégrer des signaux cachés dans les pistes audio générées par intelligence artificielle. Appelés filigranes ou watermarks, ils sont conçus pour être détectés facilement.
Cet algorithme de Meta permet de détecter facilement les deepfakes, mais il est encore inutile
AudioSeal se distingue par sa capacité à marquer des segments spécifiques d'un long fichier audio, comme un podcast d'une heure, pour signaler les parties générées par IA. Cela pourrait aider à combattre les deepfakes et les arnaques vocales, notamment celles utilisant des voix de personnalités publiques durant ces périodes d'élections. Meta affirme que son système atteint une précision de détection des filigranes comprise entre 90 % et 100 % et qu’elle surpasse toutes ses précédentes tentatives.
Malgré son potentiel, AudioSeal présente plusieurs limites. Actuellement, il n'existe pas de norme industrielle pour les filigranes audio. Cela signifie que ceux-ci peuvent être facilement modifiés ou supprimés. De plus, Meta n'a pas encore prévu d'appliquer ces watermarks aux audios générés par ses propres outils. Cette technologie nécessite également que les utilisateurs ajoutent volontairement ces watermarks à leurs propres fichiers audio, on imagine mal les pirates qui veulent voler vos codes d’identification les intégrer. Enfin, le fait que les détails sur cet algorithme soit public peut rendre le système vulnérable aux attaques.