Facebook confond des personnes noires avec des singes, le réseau social s’excuse
Facebook a rencontré un bug avec son algorithme de recommandation. L'algorithme a confondu une vidéo montrant des personnes noires avec une séquence montrant des primates. Ce n'est pas la première fois que l'algorithme de Facebook se trompe lourdement. La firme s'est rapidement confondue en excuses.
Il y a plus d'un an, le Daily Mail, un tabloïd britannique, a mis en ligne une vidéo intitulée «un homme blanc appelle les flics contre des hommes noirs à la marina». Dans la vidéo, on aperçoit à plusieurs des individus de couleur noire.
Sur Facebook, la séquence a été mal interprétée par l'algorithme de recommandation. Le réseau social a ainsi demandé aux internautes qui ont regardé la vidéo s'il souhaitaient “voir davantage de vidéos sur les primates ?”. Facebook proposait les options «Oui / Rejeter» sur l'interface de nombreux internautes.
Lire aussi : Facebook ment dans ses rapports officiels – les articles anti-vaccins sont volontairement supprimés
Facebook présente ses excuses : c'est une “erreur inacceptable”
Cette erreur de taille a été repérée par Darci Groves, une ancienne designer chez Facebook, rapporte le New York Times. Outrée, elle a demandé à ses anciens collègues de faire remonter le problème. “Et bien que la vidéo ait plus d'un an, un ami a reçu cette recommandation hier. Amis de FB, veuillez faire remonter. C'est un scandale”, regrette Darci Groves sur Twitter.
Le réseau social n'a pas tardé à réagir. “C'est clairement une erreur inacceptable. Nous présentons nos excuses à quiconque a vu ces recommandations insultantes. Dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise”, a assuré un porte-parole.
D'après Facebook, l'algorithme de recommandation, qui analyse automatiquement des milliers de vidéos grâce à l'intelligence artificielle, a fait une erreur. “Comme nous l'avons dit, même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire”, se défend le réseau social.
Comme le souligne Facebook, son intelligence artificielle est loin d'être parfaite. En 2018, Facebook a par exemple censuré une photo d'Emmanuel Macron en visite à Saint-Martin pour “nudité et actes sexuels”. L'an dernier, l'algorithme a confondu un innocent panier d'oignons avec une paire de seins.
Source : New York Times