IA : créer un deepfake vous enverra bientôt en prison pour longtemps

L'Assemblée nationale doit adopter le projet de loi sur la sécurisation de l'espace numérique. Il prévoit notamment des sanctions pénales pour les personnes reconnues coupables d'avoir créé un deepfake sans consentement.

Deepfake
Crédits : 123RF

L'essor de l'intelligence artificielle n'a pas que des bons côtés. Certains s'en sont emparés pour créer des vidéos plus vraies que nature, mais dans laquelle l'IA a modifié des éléments. On pense à celles qui mettent en scène quelqu'un en superposant son visage sur un autre par exemple. C'est ce qu'on appelle un deepfake. Ils peuvent servir, entre autres, à créer une fausse réunion de travail pour arnaquer une entreprise ou faire parler des victimes de violence dans des vidéos dérangeantes désormais interdites sur YouTube.

En France, le projet de loi sur la sécurisation de l'espace numérique, que l'Assemblée nationale adopte le jour de la publication de cet article, contient des mesures spécifiques pour mieux encadrer le phénomène. Elle définit notamment des sanctions pénales pour les personnes reconnues coupables d'avoir créer un deepfake, plus ou moins lourdes en fonction de la nature de la fausse vidéo.

Cette loi prévoit des peines de prison pour la création et l'utilisation d'un deepfake

Ce projet de loi prévoit d'adapter l'infraction de montage à l'intelligence artificielle, aux deepfakes. On va pouvoir réprimer ceux qui effectuent un montage grâce à l'IA“, précise Arnaud Dimeglio, avocat au barreau de Montpellier et de Paris, spécialisé en droit du numérique. Le texte prévoit jusqu'à 2 ans de prison et 45.000 euros d'amende pour la création d'un deepfake mettant en scène une personne sans son consentement. Si la vidéo est à caractère sexuel, les peines augmentent : 3 ans d'emprisonnement et 75.000 euros d'amende.

Lire aussi – L’Intelligence artificielle et les deepfakes déforment nos souvenirs, cette étude le démontre

Confrontés aux deepfakes, les internautes n'ont pas (encore) d'outil pour les discerner. Gérald Holubowicz, enseignant à Science Po et créateur de la newsletter synthmedia.fr qui traite d'IA, rappelle qu'il “n'existe pas de détecteur officiel donc il faut en venir aux bonnes vieilles méthodes : l'esprit critique et un peu de recul“. Plusieurs géants de la Tech comme Facebook intègrent déjà des systèmes pour signaler qu'une photo a été créée par l'intelligence artificielle, mais il reste encore à élargir la démarche aux contenus vidéo. L'Europe le prévoit dans sa loi sur l'IA, applicable d'ici 2026.

Source : BFMTV

Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !