iPhone : ces applications pouvaient générer des images pornographiques, Apple corrige enfin le tir

Dans le cadre de la lutte contre l'utilisation abusive de l'intelligence artificielle, Apple a retiré plusieurs applications de génération d'images par IA de son App Store après avoir appris qu'elles pouvaient être utilisées pour créer des images de nudité non consensuelles.

app store
Crédits : 123rf

404 Media a enquêté sur la manière dont certains développeurs d'applications utilisaient des publicités Instagram pour promouvoir la capacité de leurs offres à « déshabiller gratuitement n'importe quelle fille » en générant des images explicites créées par l'IA.

Selon le rapport, certaines de ces publicités Instagram renvoyaient directement à des applications répertoriées sur l'App Store d'Apple sous des titres inoffensifs tels que “générateur d'art”, masquant ainsi leur véritable objectif, qui est de permettre la production non consentie de fausse pornographie par l'intermédiaire de l'IA.

Lire égalementAndroid : Google supprime des milliers d’applications du Play Store, voici pourquoi

Apple retire enfin les applications de l’App Store

Bien qu'Apple n'ait pas répondu dans un premier temps à la demande de commentaire de 404 Media, la société a rapidement pris des mesures après que la publication a fourni des liens directs vers les applications incriminées et leurs campagnes publicitaires associées.

Au total, Apple a supprimé trois applications de son App Store à la suite de l'alerte, mais le rapport indique qu'il s'agit probablement d'un « jeu du chat et de la souris », Apple n'ayant apparemment pas été en mesure d'identifier de manière indépendante les applications enfreignant la politique en vigueur, sans aide extérieure.

Apple, au même titre que Google, a pris un certain temps à réagir. Des rapports de 2022 au sujet de ces applications alertaient déjà sur leurs capacités. Les deux géants de la technologie avaient donc été alertés il y a plusieurs années déjà, mais avaient à l’époque refusé de supprimer ces applications. Au lieu de cela, les développeurs ont été invités à cesser de diffuser les publicités sur les sites pour adultes, et les applications ont été autorisées à rester dans l'App Store.

Malgré l'injonction, l'une des applications a continué à commercialiser ses fonctionnalités jusqu'en 2024, date à laquelle elle a été retirée du Google Play Store. Il aura donc fallu attendre plusieurs mois avant qu’Apple se décide enfin à retirer ces applications de sa vitrine. Alors que les deepfakes pornos créés par l’IA font de plus en plus de victimes, on espère que les entreprises du secteur réagiront plus rapidement à l’avenir.

Source : 404Media

Voir les commentaires
Ailleurs sur le web