Reconnaissance faciale : l’IA ignore certaines teintes de peau selon Sony
Une étude menée par le département AI Ethics de Sony montre comment l'intelligence artificielle ne prend pas en compte des teintes de peau quand il s'agit de reconnaissance faciale ou même de création de visages fictifs.
La reconnaissance faciale fait de plus en plus appel à l‘intelligence artificielle. Pour surveiller les fraudeurs dans le métro ou en terminer avec les files d'attente avant de prendre l'Eurostar par exemple. Pour y parvenir, les algorithmes doivent être entraînés bien sûr. Ils analysent des millions de visages et apprennent à parfaire leur identification. Le système n'est pas sans faille et peut même entraîner des erreurs judiciaires assez graves.
En 2018, une étude révélait que la reconnaissance était moins efficace pour les personnes à la peau sombre. Cela a entraîné un changement chez plusieurs entreprises comme Google ou Meta, qui ont adopté un référentiel plus inclusif, celui d'Ellis Monk. Sony estime pourtant qu'un biais subsiste. Une étude de sa division AI Ethics montre que les teintes de peau tirant vers le jaune sont quasiment ignorées par les IA, au profit des teintes allant vers le rouge.
Sony estime que l'IA favorise des teintes de peau au détriment d'autres
Les chercheurs proposent pour y remédier d'automatiser l'analyse de la couleur de peau en la plaçant sur deux échelles distinctes : de claire à sombre et de plutôt jaune à plutôt rouge. Un programme isole les pixels d'une image montrant de la peau, convertit leur valeur RGB (rouge, vert, bleu) en codes utilisés par le référentiel CIELAB jugé le plus pertinent, puis calcule une valeur moyenne. Pour Ellis Monk, créateur de l'échelle utilisée par Google, entre autres, ce serait ignorer une analyse humaine selon lui importante dans la suppression des biais.
Au-delà de retenir une solution définitive, certaines firmes ont déjà déclaré qu'elles étudieraient les conclusions de l'étude de Sony. Ses implications vont au-delà de la reconnaissance faciale à des fins de surveillance puisqu'elles englobent aussi la création de photos par l'IA, l'identification d'un sourire et même les outils de recadrage de photos. Alice Xiang, à la tête du département AI Ethics chez Sony, ne doute pas qu'améliorer les systèmes d'entraînement des algorithmes est nécessairement une tâche sans fin. “On doit continuer d'essayer pour faire des progrès”, conclue-t-elle.
Source : Wired