Meta a les outils pour mieux protéger les enfants mais ne s’en sert pas d’après un ex-ingénieur

Selon un ingénieur ayant travaillé chez Meta sur la protection des mineurs, Facebook ou Instagram pourraient les protéger efficacement et facilement. Sauf que Meta semble ne pas vouloir utiliser les outils qu'il a déjà à disposition pour le faire.

Enfant devant les reseaux sociaux
Crédits : 123RF

Avec les milliards d'utilisateurs présents sur les réseaux sociaux, il est inévitable que certains d'entre eux postent des contenus interdits par les plateformes. Sans parler de l'illégalité de la chose, être exposé à des posts de ce genre peut avoir un véritable impact. À tel point que Facebook et Instagram ont été accusés d'être nocifs pour la santé mentale des mineurs. La maison-mère Meta est d'ailleurs poursuivie en justice par plusieurs états américains. Car les conséquences sont bien réelles et très souvent tragiques. Mais d'après Arturo Béjar, ancien ingénieur puis consultant pour Meta, c'est loin de pousser la firme à résoudre le problème.

“S’ils avaient tiré les leçons de Molly Russell, ils créeraient un produit sans danger pour les 13-15 ans où, au cours de la dernière semaine, une personne sur 12 ne voit pas quelqu’un se faire du mal ou menace de le faire. Et où la grande majorité d'entre eux se sentent soutenus lorsqu'ils tombent sur du contenu montrant de l'automutilation”.

Lire aussi – Instagram : l’algorithme affiche des vidéos choquantes aux adultes qui suivent des comptes de mineurs

L'homme fait allusion au suicide d'une adolescente de 14 ans en novembre 2017. Son comportement change lors de la dernière année de sa vie. Elle devient plus solitaire, restant plus souvent enfermée dans sa chambre. Ce temps, Molly le passe sur les réseaux sociaux, Instagram en tête. 6 mois avant sa mort, elle est exposée à au moins 2 100 posts relatifs au suicide, à l'automutilation ou à la dépression.

2 minutes avant de passer à l'acte, elle en sauvegarde un sur lequel est écrit une phrase en lien avec ce trouble psychique. En 2022, l'enquête conclut que Molly est “décédée des suites d'un acte d'automutilation alors qu'elle souffrait de dépression et des effets négatifs des contenus en ligne”.

Meta pourrait mieux protéger les enfants sur ses réseaux sociaux, mais la firme ne le fait pas selon un ancien ingénieur

Arturo Béjar devient consultant pour Meta en 2019. Jusqu'à 2021, il mène des recherches qui montrent que sur Instagram, 12,5 % des enfants âgés de 13 à 15 ans ont reçu des avances sexuelles non sollicitées, 20 % ont été victimes de cyberharcèlement et 8 % ont vu du contenu sur l'automutilation. Armés de ces constats alarmants, l'ingénieur enjoigne Meta à réduire fortement l'exposition aux contenus sensibles. Il propose d'ailleurs plusieurs pistes :

Mais pour Béjar, l'entreprise de Mark Zuckerberg n'est pas pressée de s'attaquer au phénomène, alors même qu'elle dispose déjà des outils pour le faire. “Soit ils ont besoin d'un directeur différent, soit ils ont besoin qu'il se réveille demain matin et dise : « Ce type de contenu n'est pas autorisé sur la plateforme », parce qu'ils ont déjà l'infrastructure et les outils pour qu'ils soient impossibles à trouver”.

D'après l'ex-ingénieur, Meta pourrait rapidement éradiquer les contenus sensibles de ses plateformes si la firme le voulait

Les études et les recommandations d'Arturo Béjar figurent dans une plainte déposée contre Meta par le procureur général du Nouveau-Mexique Raúl Torrez en décembre 2023. D'autres documents montrent qu'après la mort de Molly Russell, des employés ont averti que Meta “défendait le status quo” alors que “le status quo [était] clairement inacceptable pour les médias, les nombreuses familles impactées et […] le serait aussi pour le public plus large”.

Lire aussi – Facebook propose enfin la supervision parentale de Messenger et Instagram aux utilisateurs français

L'inaction supposée de la société est d'autant plus incompréhensible que selon Béjar, il ne lui faudrait que 3 mois pour agir efficacement contre les contenus sensibles. “Ils disposent de tous les outils nécessaires pour le faire. Ce qu’il faut, c’est la volonté […] de dire que, pour les adolescents, [ils vont] créer un environnement vraiment sûr” explique-t-il, en ajoutant qu'il faudrait aussi en mesurer l'efficacité et en rendre compte publiquement.

Un porte-parole de Meta a réagi : “Chaque jour, de nombreuses personnes à l'intérieur et à l'extérieur de Meta travaillent sur la manière de contribuer à assurer la sécurité des jeunes en ligne. En collaboration avec des parents et des experts, nous avons introduit plus de 30 outils et ressources pour aider les adolescents et leurs familles à vivre des expériences en ligne sûres et positives. Tout ce travail continue”. Début janvier 2024, Meta a annoncé la mise en place de plusieurs mesures pour mieux protéger les mineurs des contenus sensible sur Facebook et Instagram.

Source : The Guardian

Voir les commentaires
Ailleurs sur le web