IA : fini le plagiat, cet outil “empoisonne” les images originales

Pour protéger les artistes du plagiat de leurs œuvres par l'intelligence artificielle, un outil perturbe l'apprentissage des systèmes en empoisonnant les images d'origine.

IA ChatGPT image poison
Crédit photo : 123rf.

L'intelligence artificielle générative, celle que vous retrouvez dans ChatGPT pour le texte ou Midjourney pour les images par exemple, divise généralement les utilisateurs en deux. D'un côté, ceux qui trouvent ça extraordinaire tant cela ouvre des possibilités, de l'autre, ceux qui sont plus directement concernés par les problématiques de droits d'auteur. Forcément : pour s'entraîner, l'IA doit piocher dans tout ce qu'elle peut trouver sur Internet. Des images, des livres, des chansons… en grande majorité protégés par un copyright. Pour régler la question, Google propose que par défaut, l'IA puisse se servir sans aucune contrainte, sans rien payer bien sûr. Ce n'est pas du tout au goût des créateurs.

Une équipe de chercheurs de l'Université de Chicago veut justement redonner le pouvoir aux artistes avec une méthode que certains vont trouver vicieuse. Un programme nommé Nightshade qui “empoisonne” les images originales pour manipuler l'apprentissage de l'IA. Le poison, injecté sous forme de pixels, est plus efficace s'il est présent en masse. On le voit bien sur la démonstration ci-dessous. Quand on demande à l'IA de reproduire la photo d'un chien, elle crée celle d'un chat. Un sac à main devient un grille-pain, et une voiture se transforme en vache.

IA fabrique une mauvaise image
Crédits : University of Chicago / MIT Technology Review

Un programme manipule les IA pour qu'elles apprennent les mauvaises choses

Nightshade fonctionne également avec les idées similaires à celles de base. Empoisonner la photo d'un chien va fonctionner même si on demande à l'IA de faire un chiot, un loup ou un Husky. Idem pour les styles. Infecté par le programme, un tableau abstrait par exemple sera très mal reproduit. Les équipes précisent qu'il est possible de supprimer les pixels toxiques. Ce sera en revanche très difficile de les identifier, surtout quand l'intelligence artificielle scanne des milliards d'images et qu'une seule en 1080p contient 2 millions de pixels.

Pour le moment, il n'est pas envisagé d'étendre les capacités de Nightshade à d'autres domaines comme la littérature. Rappelons que de nombreux auteurs ont déjà porté plainte contre OpenAI (ChatGPT) pour plagiat. Les chercheurs expliquent qu'appliquer leur programme à un livre est beaucoup plus complexe que sur une image statique. En attendant, ils espèrent que leur système permettra aux artistes de faire plus facilement entendre leur voix auprès des entreprises d'IA.

Source : TechRadar


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !