YouTube explique pourquoi et comment 8,3 millions de vidéos ont été supprimées en trois mois
YouTube a supprimé quelques 8.3 millions de vidéos entre octobre et décembre 2017 selon un rapport, le premier du genre, autour de la transparence des pratiques de la plateforme. Des vidéos en grande partie supprimées car elles ne respectaient pas les conditions d'utilisation de YouTube. Le rapport montre également que ces vidéos sont désormais repérées quasi-exclusivement de manière automatisée.
Comment YouTube supprime-t-il des vidéos ? Et pour quelle raison ? Dans un rapport publié mardi 24 avril 2018, la filiale de Google lève le voile sur sa modération avec force de statistiques, sur les trois derniers mois de l'année 2017. On apprend ainsi que durant cet intervalle, quelques 8,3 millions de vidéos ont été supprimées (8 284 039 pour être exact). La plupart de ces suppressions sont le résultat de procédures entièrement automatisées (6,7 millions de vidéos).
YouTube : comment 8,3 millions de vidéos ont été supprimées en trois mois
La deuxième source de vidéos supprimées, c'est le Individual Trusted Flagger Program, un groupe de modérateurs humains “de confiance” : agences gouvernementales et ONG. Ces derniers peuvent utiliser des outils leur permettant de repérer un grand nombre de vidéos à la fois. Il sont responsables ainsi de 1 131 962 suppressions de vidéos sur la plateforme. Les plaintes des utilisateurs ont quant à elles débouché sur 402 335 suppressions. Et à titre individuel, hors programme, les ONG sont responsables de 63 938 vidéos supprimées, et les agences gouvernementales de seulement 73.
Grâce à cette automatisation, YouTube annonce avoir réussi à supprimer 75,9% des vidéos avant même qu'elles n'aient pu être vues par les internautes. Le principal motif de signalement c'est le caractère sexuel des vidéos (9 093 734 signalements soit 30,1% du total). Suivies de vidéos qui sont perçues comme indésirables ou trompeuses (7 973 007 signalement soit 26,4% du total), vidéos haineuses ou abusives (4 721 737 signalements soit 15,6% du total), de vidéos violentes ou dégoûtantes (4 093 655 soit 13,5%), représentant des actes dangereux (2 302 276 soit 7,6%), des abus sur les enfants (1 570 528 soit 5,3%).
Les signalements de vidéos faisant l'apologie du terrorisme ne représentent que 490 667 plaintes soit 1,6% du total. Un nouvel outil permettra désormais aux auteurs de signalements de mieux suivre les suites données par YouTube (une option jusqu'ici réservée aux “Trusted Flaggers”). Mais on peut voir immédiatement que le pourcentage de vidéos supprimées suite à des signalements humains est assez faible. Ce rapport, le premier du genre, donne suite à la promesse de Susan Wojcicki, la patronne de YouTube d'offrir “plus de transparence” sur les pratiques de la plateforme.
YouTube est régulièrement montré du doigt pour des vidéos inappropriées, et leur monétisation, ce qui suscite une forte pression des marques pour changer les pratiques de la firme. Des publicités d'annonceurs comme Netflix ou Amazon se sont ainsi retrouvées “par erreur” sur des vidéos néonazies ou pédophiles encore en ligne. Les règles de monétisation ont depuis changé et pour améliorer le repérage de ces vidéos, YouTube avait déjà annoncé le recrutement de milliers de modérateurs humain, pour porter le total à 10 000 personnes d'ici fin 2018.