top of page

Blog actus et actuces PC

  • Photo du rédacteurAntibug & Formation

Législation européenne sur l’Intelligence Artificielle

Dernière mise à jour : 27 déc. 2023

Le 8 décembre 2023, l’UE est parvenue à un accord historique pour poser un cadre juridique autour des systèmes d’Intelligence Artificielle.

L’objectif est de se doter d’un bouclier législatif pour protéger les droits fondamentaux, l’Etat de droit, la démocratie et l’environnement face aux IA classifiées comme « à haut risque » mais sans pour autant freiner l’innovation.

Concrètement tout système d’IA utilisé dans l’UE devra être sûr, transparent, traçable, non discriminatoire et respectueux de l’environnement.

Chaque IA sera évaluée en fonction des risques potentiels qu’elle représente, l’UE définit ainsi quatre niveaux de risque en matière d’IA :

  1. Risque inacceptable

  2. Risque élevé

  3. Risque limité

  4. Risque minimal ou nul

Voyons en détails ce que cela signifie. 1. Risque inacceptable

Les systèmes d’Intelligence Artificielle classifiées dans cette catégorie seront simplement interdits car considérés comme une menace inacceptable pour les personnes.

Voici les limites que l’IA ne doit pas franchir :

  • Les systèmes de catégorisation biométriques qui exploitent des caractéristiques sensibles (par exemple, les croyances politiques, religieuses, philosophiques, l'orientation sexuelle, la race).

  • Le scraping* non ciblé d'images faciales provenant d'Internet ou de vidéosurveillance pour créer des bases de données de reconnaissance faciale.

  • La reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement.

  • La notation sociale fondée sur le comportement social ou les caractéristiques personnelles.

  • Tout système d'IA qui manipule le comportement humain pour contourner leur libre arbitre.

  • Tout système d'IA utilisé pour exploiter la vulnérabilité des personnes (en raison de leur âge, de leur handicap, de leur situation sociale ou économique).


Cependant, Il y a été convenu de faire une exception pour les systèmes d’identification biométrique dans les lieux accessibles au public et dont la finalité est dictée par l’application de la loi ou cautionnée par une autorisation judiciaire.

Un système d’identification biométrique « à distance » serait utilisé strictement pour une recherche ciblée d'une personne condamnée ou soupçonnée d'avoir commis une infraction grave.

Un système d’identification biométrique « en temps réel » respecterait des conditions strictes. Son utilisation serait limitée en temps et en lieu, pour les motifs suivants :

  • Les recherches ciblées de victimes (enlèvement, traite, exploitation sexuelle).

  • La prévention d'une menace terroriste spécifique et actuelle.

  • La localisation ou l'identification d'une personne soupçonnée d'avoir commis l'un des crimes spécifiques mentionnés dans le règlement (terrorisme, trafic, exploitation sexuelle, meurtre, enlèvement, viol, vol à main armée, participation à une organisation criminelle, criminalité environnementale).

2. Risque élevé

Les systèmes d’Intelligence Artificielle classifiées dans cette catégorie seront à surveiller comme le « lait sur le feu » car ils représentent une menace évidente sur la sécurité ou les droits fondamentaux. Ils devront se soumettre à une série d’obligations comprenant par exemple une évaluation avant leur mise sur le marché et tout au long de leur exploitation.

3. Risque limité

Les systèmes d’Intelligence Artificielle classifiées dans cette catégorie sont ceux qui permettront aux utilisateurs de garder la maîtrise des interactions et de permettre à un utilisateur, d’être un utilisateur éclairé qui aura pleinement conscience qu’il est face à une machine. Ces systèmes d’IA seront néanmoins soumis à des obligations, mais de manière limitée (exemple, l’obligation de transparence). 4. Risque minimal ou nul

Les systèmes d’Intelligence Artificielle classifiées dans cette catégorie pourront être utilisés dans l'UE sans obligations juridiques supplémentaires.


En résumé, pour qu’une IA soit autorisée à être utilisée dans l'UE, celle-ci devra être évaluée puis classifiée en fonction de 4 niveaux de risques. Chaque niveau de risques imposera une règlementation adaptée.

C’est le premier acte fondateur pour l’UE concernant l’IA mais certainement pas le dernier car ce qui définit avant tout une Intelligence, qu’elle soit artificielle ou humaine, c’est sa capacité à s’adapter à son environnement…


bottom of page