Cette faille dans l’IA permet de tromper les voitures autonomes et de fausser les diagnostics médicaux

La reconnaissance d’images repose de plus en plus sur l’intelligence artificielle, révolutionnant des domaines comme la médecine, la sécurité et les véhicules autonomes. Pourtant, une nouvelle vulnérabilité pourrait compromettre ces systèmes. Les chercheurs alertent sur les risques liés à cette faille et appellent à des solutions urgentes.

Les technologies de reconnaissance d’images basées sur l’intelligence artificielle transforment notre quotidien. Qu’il s’agisse de scanner des radiographies pour détecter des anomalies, d’analyser des visages pour identifier des individus ou de lire des panneaux de signalisation pour guider les voitures autonomes, ces systèmes s’appuient sur des algorithmes capables de traiter des milliers de données visuelles en un temps record. Cependant, leur efficacité repose sur une lecture précise des images, une tâche qui peut être compromise par des défauts ou des lacunes dans leur conception.

Des chercheurs ont récemment identifié une faille dans la manière dont ces systèmes traitent certaines caractéristiques des images. Cette vulnérabilité permettrait de manipuler la manière dont l’IA interprète les données visuelles. Les conséquences de ce problème pourraient être graves, notamment pour les secteurs critiques comme la santé, les transports ou la sécurité.

Cette faille liée à la lecture des images par les IA menace la médecine, la sécurité et les voitures autonomes

Dans le domaine des véhicules autonomes, cette faille pourrait être exploitée pour perturber l’interprétation des panneaux de signalisation par les IA. En modifiant certains éléments des images, comme les zones en niveaux de gris, les chercheurs ont démontré qu’il était possible de tromper les algorithmes et de provoquer des erreurs potentiellement dangereuses sur la route. En médecine, les scanners d’imagerie médicale comme les IRM ou les radiographies sont également vulnérables. Une manipulation des images pourrait entraîner des diagnostics erronés, compromettant la santé des patients ou favorisant des fraudes, par exemple en simulant des blessures inexistantes.

Cette faille affecte aussi les systèmes de reconnaissance faciale, essentiels dans les domaines de la sécurité et de l’identification. Des images manipulées pourraient contourner ces dispositifs, entraînant des erreurs ou exposant des données sensibles. Pour contrer ces risques, les chercheurs collaborent avec des entreprises comme Google, Amazon et Microsoft pour développer des solutions capables d’intégrer les données actuellement ignorées par les IA. Cette initiative vise à renforcer la robustesse de ces systèmes face aux attaques potentielles et à garantir leur fiabilité dans les environnements critiques.

Source : techxplore

Voir les commentaires
Ailleurs sur le web