Apple supprime toute trace de son système controversé anti-pédopornographie
Présenté pour la première fois en août 2021, Apple cherche maintenant à effacer toute trace de son système de détection de matériel pédopornographique (des CSAM). En effet, la marque à la pomme a supprimé toute mention de cette fonctionnalité sur son site web. Pourtant, la firme de Cupertino compte toujours lancer ce système prochainement, une fois qu'elle y aura apporté quelques modifications.
En août 2021, Apple dévoile ses nouvelles mesures concernant la lutte contre la pédopornographie. En effet, la firme de Cupertino compte intégrer une fonctionnalité capable de détecter les matériels (images et vidéos) pédopornographiques, également appelés CSAM aux États-Unis.
Pour ce faire, le système va analyser, à l'aide de plusieurs algorithmes, la signature numérique unique d'une image contenu dans iCloud ou iMessages. Elle sera ensuite comparée avec les signatures numériques de millions d'images pédopornographiques enregistrées dans la base de données du Centre National des enfants disparus et exploités.
Sur le papier, les intentions d'Apple restent louables. Seulement, cette mesure a rapidement rencontré l'hostilité de nombreux défenseurs de la vie privée et de lanceurs d'alerte, à commencer par Edward Snowden. À ses yeux, il y a un risque que cette fonctionnalité soit détournée pour être transformée en une “infrastructure de surveillance et de censure”.
Apple efface les traces du système controversé anti-pédopornographie
Face à la levée de boucliers générale, Apple a décidé de suspendre le déploiement de cette fonctionnalité jusqu'à nouvel ordre. Or, nos confrères de The Verge nous apprennent que le constructeur vient de mettre à jour sa page web sur ses fonctions de sécurité pour les enfants.
En effet, la marque à la pomme a supprimé toute mention de cette fonctionnalité controversée. Les références au système de détection de CSAM ont disparues. Néanmoins, Apple tient à préciser qu'il n'enterre pas pour autant le dispositif : “Sur la base des personnes, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des informations et apporter des améliorations avant de lancer ces fonctions de sécurité pour les enfants qui sont d'une importance cruciale”, assure un porte-parole de la marque au média américain.
Notez que si la fonction de détection de CSAM est passée à la trappe, Apple a déployé deux fonctions dédiées à la protection des plus jeunes présentées en août 2021. Avec iOS 15.2, les mineurs reçoivent une notification d'Apple lorsqu'ils reçoivent ou envoient une photo intime. À ce sujet, Apple pensait aussi alerter les parents, mais le constructeur s'est finalement ravisé. La seconde fonctionnalité offre des informations supplémentaires lorsque des recherches liées à l'exploitation des enfants sont effectuées via Siri, Spotlight ou Safari Search.