Terrorisme : YouTube refuse de supprimer les vidéos extrémistes
YouTube annonce aujourd'hui ses mesures contre le terrorisme et les vidéos à caractère extrémiste. La plateforme va faire en sorte de dissimuler ce type de contenu, mais refuse toutefois de supprimer les vidéos extrémistes.
Face à la recrudescence de vidéos extrémistes sur sa plateforme, YouTube a décidé de prendre des mesures. En juin dernier, YouTube, Facebook, Twitter et Microsoft ont choisi de s'unir contre le terrorisme. Aujourd'hui, Google dévoile plusieurs changements concernant les conditions d'utilisation de son service. La principale initiative prise par YouTube sera de limiter la portée des vidéos à caractère religieux ou extrémiste qui n'enfreignent pas complètement les règles sur l'incitation à la haine.
Les utilisateurs pourront désormais signaler ce type de vidéos afin qu'elles subissent certaines restrictions. Ainsi, un message d'avertissement sera apposé à ces vidéos, et elles ne pourront plus être monétisées. De même, il ne sera plus possible de commenter ou de liker ces vidéos, et elles n'apparaîtront plus dans la liste des vidéos suggérées.
Par conséquent, ces vidéos seront plus difficiles à trouver. La mise à jour des conditions d'utilisation sera déployée sur YouTube dans les semaines à venir. La version Desktop du service en profitera tout d'abord, puis viendra le tour de la version mobile.
Terrorisme : YouTube cherche le juste milieu entre liberté d'expression et incitation à la haine
Certes, ces nouvelles mesures représentent une amélioration, mais il est difficile de comprendre pourquoi YouTube ne choisit pas tout simplement de supprimer ces vidéos. Selon Kent Walker, conseiller général de Google, il s'agit tout simplement de trouver le juste milieu entre la liberté d'expression et d'accès à l'information et la promotion d'opinions à caractère offensant.
Pourtant, le règlement de YouTube semble clair. Les vidéos promouvant la violence ou la haine à l'égard d'individus ou de groupes ne sont pas autorisées sur le site. On voit donc mal comment une vidéo pourrait être « extrémiste, mais pas trop ».
Parallèlement à ces mesures, YouTube a commencé à travailler avec 15 groupes d'experts, dont l'Anti-Defamation League, afin de repérer plus facilement le contenu extrémiste. Par ailleurs, YouTube s'appuie désormais sur le Machine Learning pour déceler ce type de contenu. Depuis le mois de juin, l'intelligence artificielle a permis de doubler le nombre de vidéos violentes supprimées, et 75% d'entre elles ont été détectées par des robots.
Rappelons que l'Union européenne force Google et Facebook à la laisser fouiller leurs données et envisage de les obliger à supprimer le contenu terroriste. Auparavant, la plateforme a déjà tenté de lutter contre l'extrémisme en redirigeant les spectateurs de vidéos extrémistes vers du contenu pacifiste.