Le règlement européen sur l’intelligence artificielle est entré en vigueur depuis le 1er aout 2024. L’entrée en application des obligations est échelonnée jusqu’en 2027. Depuis le 2 février 2025, les systèmes d’IA classés comme « à risque inacceptable » sont interdits sur le territoire de l’UE.
L’AI Act est la première réglementation visant à établir un cadre juridique uniforme pour l’utilisation de l’intelligence artificielle dans l’Union européenne. Présenté comme un moyen de favoriser l’innovation tout en garantissant la confiance des utilisateurs, il impose des normes de conformité basées sur une approche par les risques.
Le règlement a pour but de créer un environnement propice à l’IA, sécurisé, éthique et respectueux des droits fondamentaux, soutenant ainsi la compétitivité des entreprises sur le marché européen et mondial.
LES PILIERS | CLARIFICATION |
---|---|
Les systèmes d’IA | Les systèmes à risque inacceptable sont interdits car dangereux pour les droits fondamentaux. Les systèmes à haut risque nécessitent une évaluation stricte de conformité. Les systèmes à risque spécifique sont soumis à des obligations de transparence. Les systèmes à risque minime suivent des codes de bonnes pratiques volontaires. |
Les modèles d’IA à usage général (GPAI) | L’AI Act encadre les modèles d’IA à usage général, qui nécessitent une forte capacité de calcul pour leur développement. Ces modèles sont soumis à des obligations de diligence incluant la transparence, le respect des droits d’auteur et la publication d’un résumé de la base d’apprentissage. Les modèles dits “à risque systémique” font l’objet d’obligations particulières d’évaluation et de limitation des risques. |
Gouvernance | Les autorités nationales indépendantes supervisent les systèmes d’IA en mettant à disposition des “bacs à sable” réglementaires, assurant la conformité des entreprises. Au niveau européen, le Bureau de l’IA, créé en février 2024, régule les modèles d’IA et élabore les codes de bonnes pratiques, notamment pour les modèles à usage général et systémiques. |
« S’adapter aux nouvelles technologies est toujours un défi, surtout face à une révolution d’une telle ampleur. L’IA Act marque une avancée essentielle en encadrant l’IA avec des mesures de bon sens, responsabilisant fournisseurs, déployeurs et distributeurs. Cependant, la nature opaque des systèmes d’IA rend leur maîtrise totale illusoire, malgré la bonne volonté législative.»
L’AI Act prévoit des sanctions graduelles en cas de non-conformité, avec un plafond de 7% du chiffre d’affaires annuel mondial ou 35 millions d’euros. Les amendes varient selon la gravité : jusqu’à 3% ou 15 millions d’euros pour non-respect des exigences sur les systèmes à haut risque, et 1,5% ou 7,5 millions d’euros pour informations incorrectes aux autorités. Pour le reste, les Etats-membres sont chargés de prévoir des sanctions.