Toutes nos fiches > L’AI Act, en clair
Publié le 06/03/2025
Télécharger la version PDF
L’AI Act, en clair
Les faits

Le règlement européen sur l’intelligence artificielle est entré en vigueur depuis le 1er aout 2024. L’entrée en application des obligations est échelonnée jusqu’en 2027. Depuis le 2 février 2025, les systèmes d’IA classés comme « à risque inacceptable » sont interdits sur le territoire de l’UE.

Le contexte

L’AI Act est la première réglementation visant à établir un cadre juridique uniforme pour l’utilisation de l’intelligence artificielle dans l’Union européenne. Présenté comme un moyen de favoriser l’innovation tout en garantissant la confiance des utilisateurs, il impose des normes de conformité basées sur une approche par les risques.

Le règlement a pour but de créer un environnement propice à l’IA, sécurisé, éthique et respectueux des droits fondamentaux, soutenant ainsi la compétitivité des entreprises sur le marché européen et mondial.

LES PILIERSCLARIFICATION
Les systèmes d’IALes systèmes à risque inacceptable sont interdits car dangereux pour les droits fondamentaux.
Les systèmes à haut risque nécessitent une évaluation stricte de conformité.
Les systèmes à risque spécifique sont soumis à des obligations de transparence.
Les systèmes à risque minime suivent des codes de bonnes pratiques volontaires.
Les modèles d’IA à usage
général (GPAI)
L’AI Act encadre les modèles d’IA à usage général, qui nécessitent une forte capacité de calcul pour leur développement. Ces modèles sont soumis à des obligations de diligence incluant la transparence, le respect des droits d’auteur et la publication d’un résumé de la base d’apprentissage. Les modèles dits “à risque systémique” font l’objet d’obligations particulières d’évaluation et de limitation des risques.
GouvernanceLes autorités nationales indépendantes supervisent les systèmes d’IA en mettant à disposition des “bacs à sable” réglementaires, assurant la conformité des entreprises.
Au niveau européen, le Bureau de l’IA, créé en février 2024, régule les modèles d’IA et élabore les codes de bonnes pratiques, notamment pour les modèles à usage général et systémiques.
L’analyse
Giuliano Ippoliti, directeur de la Conformité de Cloud Temple

« S’adapter aux nouvelles technologies est toujours un défi, surtout face à une révolution d’une telle ampleur. L’IA Act marque une avancée essentielle en encadrant l’IA avec des mesures de bon sens, responsabilisant fournisseurs, déployeurs et distributeurs. Cependant, la nature opaque des systèmes d’IA rend leur maîtrise totale illusoire, malgré la bonne volonté législative.»

Quelles sanctions en cas de non respect des obligations ?

L’AI Act prévoit des sanctions graduelles en cas de non-conformité, avec un plafond de 7% du chiffre d’affaires annuel mondial ou 35 millions d’euros. Les amendes varient selon la gravité : jusqu’à 3% ou 15 millions d’euros pour non-respect des exigences sur les systèmes à haut risque, et 1,5% ou 7,5 millions d’euros pour informations incorrectes aux autorités. Pour le reste, les Etats-membres sont chargés de prévoir des sanctions.


Restez informés
de l’actualité du cloud
Politique en matière de cookies

Nous utilisons des cookies pour vous offrir la meilleure expérience possible sur notre site mais nous ne prélevons aucune donnée à caractère personnel.

Les services de mesure d’audience, nécessaires au fonctionnement et à l’amélioration de notre site, ne permettent pas de vous identifier personnellement. Vous avez cependant la possibilité de vous opposer à leur usage.

Pour plus d’informations, consultez notre politique de confidentialité.