Le règlement européen sur l’intelligence artificielle entre en vigueur et classe les IA selon leur niveau de risque

L'AI Act, règlement européen sur l'IA, est entré officiellement en vigueur. Pour réguler l'usage de l'intelligence artificielle, il classe les systèmes selon les risques qu'ils représentent.

Le drapeau de l'Europe
Crédits : 123RF

Après un vote historique fin 2023 et une adoption mouvementée par le Parlement européen quelques mois plus tard, l'AI Act est en vigueur depuis le 1er août 2024. Pour rappel, ce règlement régule l'utilisation de l'intelligence artificielle dans l'Union européenne. D'ici le 2 août 2025, chaque État membre de l'UE devra désigner les autorités chargées de surveiller ce secteur et superviser l'application du texte.

Lire aussi – Meta veut lancer une “IA sans aucune limite”, cette organisation porte plainte dans 11 pays d’Europe pour l’en empêcher

La Commission européenne mettra également en place un organisme global, le bureau de l'IA. Il sera épaulé par 3 autres entités, dont un groupe indépendant composé de scientifiques experts et un forum consultatif regroupant diverses parties prenantes. En cas de manquement, les entreprises fautives pourront être condamnées à une amende allant jusqu'à 7 % de leur chiffre d'affaires annuel mondial.

En Europe, les IA sont classées en fonction du niveau de risque qu'elles représentent pour les citoyens

Afin de mieux définir les obligations des entreprises, le texte européen catégorise tous les systèmes d'intelligence artificielle selon 4 niveaux de risque :

  • Risque minimal : non soumises aux impératifs mises en place par l'AI Act, il s'agit par exemple des IA fournissant des recommandations ou utilisées dans des filtres anti-spams. La majorité des systèmes tombent dans cette catégorie.
  • Risque spécifique en matière de transparence : les chatbots en font partie, ainsi que certains contenus générés par IA, que l'on parle d'image, de vidéo ou de son. Les robots conversationnels “doivent indiquer clairement aux utilisateurs qu'ils interagissent avec une machine“, tandis que les contenus issus d'IA génératives “doivent être étiquetés en tant que tels“. Ils devront aussi être détectables facilement.
  • Risque élevée : on parle ici des IA servant au recrutement, à l'évaluation du droit d'obtenir un prêt bancaire ou à l'exploitation de robots autonomes, entre autres. Ces systèmes sont soumis à de nombreuses exigences très strictes (enregistrement des activités, documentation détaillée, contrôle humain, protection contre les cyberattaques…).
  • Risque inacceptable : totalement interdits, cette catégorie comprend les systèmes d'IA “considérés comme une menace manifeste pour les droits fondamentaux des personnes“. Le texte prend l'exemple d'un jouet dont l'assistant vocal encouragerait un mineur à adopter un comportement dangereux, un système de notation sociale des individus ou “certaines applications de police prédictive“. Sont également prohibés “les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d'identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public (à quelques exceptions près)“.

La majorité de l'AI Act s'appliquera à partir du 2 août 2026. L'interdiction des IA de la catégorie “risque inacceptable” sera toutefois effective début 2025.


Abonnez-vous gratuitement à la newsletter
Chaque jour, le meilleur de Phonandroid dans votre boite mail !
Réagissez à cet article !
Demandez nos derniers  !