Les voitures autonomes repèrent beaucoup moins bien ces deux types de piétons selon une étude

Une étude menée sur huit systèmes de détection des piétons utilisés dans les voitures autonomes met en lumière un biais important sur deux types de personnes en particulier. L'entraînement de l'IA est en cause.

Voiture autonome repere moins bien deux types de pietons
Crédits : 123RF

La conduite sans les mains est déjà une réalité. En France, elle est autorisée depuis un an déjà. Cela ne veut pas dire pour autant qu'il suffit de se procurer une voiture dotée d'un tel système, la démarrer et faire une sieste le temps du trajet. Les véhicules autonomes sont loins d'être sûrs de l'aveu même de certains constructeurs. Régulièrement, on apprend la survenue d'accidents plus ou moins graves dont ils sont la cause.

Et ce n'est pas cette récente étude qui va améliorer les choses. Des chercheurs du King’s College London (KCL) ont testé 8 systèmes de détection des piétions parmi les plus couramment utilisés. Après leur avoir demandé d'analyser plus de 8000 photographies de piétons, ils en tirent des conclusions plutôt alarmantes. Toutes les personnes ne sont pas reconnues avec la même efficacité. Deux catégories de piétons sont particulièrement touchées par les erreurs de détection.

Les voitures autonomes ont plus de mal à repérer les enfants et les personnes à la peau foncée

L'étude montre que les enfants sont beaucoup moins bien reconnus par les voitures autonomes que les adultes. Elles repèrent les adultes avec une efficacité 20 % supérieure aux enfants. Les autres piétons susceptibles d'être mal détectés sont ceux à la peau foncée. Les systèmes sont ainsi 7,5 % plus efficaces pour repérer une personne à la peau claire. La raison est très simple pour le Dr Jie Zhang, professeur d'informatique au KCL : l'apprentissage de l'intelligence artificielle qui gère la détection est biaisé.

Lire aussi – Des voitures autonomes créent un immense embouteillage à cause du brouillard

Selon lui, “les galeries d'images open source utilisées pour former ces systèmes […] ne sont pas représentatives de tous les piétons et sont orientées vers les adultes à la peau plus claire. Avec moins de données sur lesquelles s’entraîner, l’IA devient moins précise lors de la détection des groupes sous-représentés”. Idem pour les enfants. L'étude montre aussi que plus les conditions de lumière sont basses, plus les erreurs de détection s'accentuent chez les deux catégories.

La solution est donc plutôt facile à mettre en place sur le papier : “les constructeurs doivent s'efforcer de garantir que leurs systèmes d'IA sont justes et représentatifs”. Pour le professeur, cela passe par une impulsion au niveau politique et une réglementation plus stricte autour de l'équité dans l'intelligence artificielle.

Source : The Next Web


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !