Les logiciels de prédiction de crimes sont totalement inefficaces et renforcent les préjugés, selon cette étude

La police de Plainfield, dans le New Jersey, a fait l’acquisition en 2018 d’un logiciel de prédiction de crimes. Une ONG a analysé les rapports et les données générées par ce logiciel et fait un constat définitif : ils ne fonctionnent pas.

voiture police france
Crédit : 123rf

La compagnie californienne Geolitica propose un service de prédiction de crimes et délits afin que les forces de l’ordre puissent accomplir leur mission de sécurité publique de manière plus efficace, informée et responsable. En pratique, les autorités ont fait appel à ce service pour « être plus efficaces dans la lutte contre la criminalité. Et en pensant que le fait de pouvoir prédire où nous devrions patrouiller nous aiderait à y parvenir. Je ne sais pas si cela a été le cas », selon le capitaine de la police de Plainfield.

L’expérience est un bide retentissant, M. Guarino ajoute ainsi : « nous ne l’avons pas utilisé très souvent, voire jamais. C’est pourquoi nous avons fini par nous en débarrasser ». Et en effet, sur les « 23 631 prédictions générées par Geolitica en 10 mois pour la police de Plainfield, « moins de 100 des prédictions correspondaient à un délit dans la catégorie prédite ». Avec un taux de réussite de 0,5 % en moyenne, on est loin du taux de réussite des enquêteurs dans « Minority Report ».

Les logiciels de prédiction de crimes sont un échec et renforcent les préjugés

Cela dit, cet échec retentissant n’est pas seulement imputable à Geolitica. Le policier l’admet, ni lui ni ses collègues ne s’étaient attachés à comprendre le fonctionnement de l’outil. Les 20 500 $ versés à Geolitica auraient été mieux dépensés ailleurs. Mais ce gâchis d’argent public n’est pas le seul problème soulevé par ce type de logiciels.

À lire — Reconnaissance faciale : l’IA ignore certaines teintes de peau selon Sony

Après analyse des données générées par Geolitica pour les services de police de 38 villes américaines, il apparaît que les algorithmes utilisés par la compagnie visent principalement les populations les plus pauvres, résidant dans les quartiers afro-américains ou latinos. En d’autres termes, l’intelligence artificielle et les technologies de prédiction sont biaisées et renforcent les préjugés envers certains individus, ce qui peut entraîner des erreurs judiciaires voire des dérapages graves.

Source : The MarkUp


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !