L’intelligence artificielle (IA) transforme profondément nos sociétés et nos économies. Pour canaliser ce potentiel et encadrer ses risques, l’Union européenne déploie, à partir du 1er août 2024, la première législation exhaustive sur l’IA : l’IA Act.
Quelques chiffres clés sur le marché de l’IA
L’IA est devenue un vecteur essentiel de transformation :
- Marché mondial : Estimé à 500 milliards de dollars d’ici 2028 (Source : Statista).
- Croissance : Le marché devrait croître de 37 % chaque année de 2024 à 2030 (Source : Hostinger).
- Perception publique : 51 % des Français considèrent l’IA comme à la fois un danger et un progrès (Source : Cluster 17 et Le Point).
Ces chiffres démontrent l’importance stratégique de l’IA et la nécessité d’une réglementation adaptée.
Pourquoi réguler l’intelligence artificielle ?
- Biais et discriminations : : risques de reproduction et d’amplification des préjugés existants dans les données d’entraînement, conduisant à des décisions discriminatoires.
- Protection de la vie privée : risques liés au profilage, à l’accès non autorisé aux données personnelles et à l’incident Cambridge Analytica.
- Manipulation de l’information : problématique des deepfakes et de la propagation de fake news par des bots.
- Impact sur l’emploi : transformation du marché du travail avec la création de nouvelles opportunités, mais aussi de possibles inégalités.
- Manque de transparence : fonctionnement opaque des systèmes d’IA, souvent assimilés à des “boîtes noires”.
- Sécurité et sûreté : risques de détournement ou de dysfonctionnement pouvant entraîner des accidents ou mettre en danger des infrastructures critiques.
IA Act : comment la loi encadre les systèmes d’IA
L’IA Act est la première législation générale au monde visant à encadrer le développement, la mise sur le marché et l’utilisation des systèmes d’intelligence artificielle. Ses points essentiels incluent :
Classification des systèmes d’IA par risque
- Risques inacceptables : Systèmes interdits depuis le 2 février (ex. : systèmes de notation sociale, détection des émotions en temps réel sur le lieu de travail, reconnaissance faciale en temps réel dans l’espace public à des fins de profilage).
- Risque élevé : Systèmes nécessitant une régulation stricte (ex. : identification biométrique à distance, systèmes de surveillance des infrastructures critiques).
- Risque spécifique en matière de transparence : Systèmes nécessitant des garanties en matière de transparence. (ex.: systèmes de reconnaissance faciale, systèmes de recommandation).
- Risque minimal : Systèmes tels que les chatbots ou les filtres anti-spam, pour lesquels l’adoption de codes de bonnes pratiques est encouragée.
Acteurs de la chaîne de valeur de l’IA
L’IA Act s’applique à tous les acteurs impliqués dans le cycle de vie des systèmes d’IA, y compris :
- Fournisseurs : ceux qui développent et commercialisent les systèmes d’IA.
- Déployeurs : ceux qui utilisent les systèmes d’IA dans un cadre professionnel.
- Mandataires: ceux qui sont situés dans l’Union Européenne et qui ont reçu un mandat écrit d’un fournisseur de services d’IA. Ce mandat permet au mandataire d’agir au nom du fournisseur pour gérer ses obligations et procédures.
- Importateurs: ceux qui sont situés dans l’UE et qui mettent sur le marché un système d’IA qui porte le nom ou la marque d’une entreprise établie dans un pays tiers.
- Distributeurs : ceux qui mettent les systèmes d’IA à disposition sur le marché de l’UE.
Obligations des acteurs de l’IA
Les obligations des acteurs de l’IA dépendent du niveau de risque associés à leurs systèmes d’IA. Les IA à risque élevé entrainent des obligations pour tous les acteurs :
Pour les fournisseurs
Les fournisseurs doivent s’identifier sur le système d’IA, élaborer une déclaration de conformité, apposer un marquage CE, assurer la gestion de la qualité, évaluer la conformité avant mise sur le marché et prendre des mesures correctives en cas de non-conformité
Pour les déployeurs
Les déployeurs, quant à eux, ont des responsabilités spécifiques. Sur le plan organisationnel et technique, ils doivent mettre en œuvre des mesures garantissant la sécurité du système, assurer un contrôle humain effectif sur son utilisation, et vérifier rigoureusement la qualité des données d’entrée. En termes de communication, ils sont responsables d’informer les salariés et les personnes concernées, et doivent réaliser des analyses d’impact sur les droits fondamentaux.
Pour les mandataires
Quant aux mandataires, ceux-ci doivent vérifier la conformité des systèmes d’IA à risque élevé, tenir des documents à disposition des autorités pendant dix ans, coopérer pour atténuer les risques et respecter les obligations d’enregistrement.
Pour les importateurs :
Les importateurs, quant à eux, sont chargés d’assurer la conformité des systèmes d’IA avant leur mise sur le marché, ainsi que d’indiquer l’identité sur le système d’IA et sa documentation, Ils sont chargés de conserver une copie du certificat délivré par l’organisme notifié pendant dix ans.
Pour les distributeurs
Les distributeurs ont également leurs propres obligations. Ils doivent vérifier méticuleusement la conformité des documents, appliquer un principe de précaution avant toute distribution, et garantir des conditions de stockage et de transport appropriées.
Sanctions en cas de non-respect
L’IA Act prévoit des sanctions strictes pour non-respect des obligations, notamment :
- Pratiques interdites : amendes pouvant atteindre 35 millions € ou 7 % du chiffre d’affaires annuel.
- Autres manquements : sanctions pouvant aller jusqu’à 15 millions € ou 3 % du chiffre d’affaires annuel mondial.
- Fourniture d’informations inexactes : amendes allant jusqu’à 7 500 000 € ou 1 % du chiffre d’affaires annuel mondial.
La mise en conformité peut s’avérer difficile. Il faut cartographier les usages de l’IA, identifier les risques et préparer les outils pour l’évaluation et la conformité.
Si vous souhaitez vous faire accompagner par des experts du domaine sur ces sujets-là, contactez Cloud Temple