L'intelligenza artificiale (IA) sta trasformando profondamente le nostre società ed economie. Per sfruttare questo potenziale e gestirne i rischi, l'Unione europea sta introducendo la prima legislazione completa sull'IA, l'AI Act, a partire dal 1° agosto 2024.
Alcune cifre chiave del mercato dell'IA
L'intelligenza artificiale è diventata un vettore essenziale di trasformazione:
- Mercato globaleStimato a 500 miliardi di dollari entro il 2028 (fonte: Statista).
- CrescitaSi prevede che il mercato crescerà di 37 % ogni anno dal 2024 al 2030 (fonte: Hostinger).
- La percezione del pubblico51 % dei francesi considera l'IA sia un pericolo che un passo avanti (fonte: Cluster 17 e Le Point).
Queste cifre dimostrano l'importanza strategica dell'IA e la necessità di una regolamentazione adeguata.
Perché regolamentare l'intelligenza artificiale?
- Bias e discriminazione : rischi di riprodurre e amplificare i pregiudizi esistenti nei dati di formazione, portando a decisioni discriminatorie.
- Protezione della privacy : rischi associati alla profilazione, all'accesso non autorizzato ai dati personali e all'incidente di Cambridge Analytica.
- Informazioni sulla gestioneLa questione dei deepfakes e della propagazione delle fake news da parte dei bot.
- Impatto sull'occupazionetrasformazione del mercato del lavoro, creando nuove opportunità ma anche potenziali disuguaglianze.
- Mancanza di trasparenzaIl funzionamento opaco dei sistemi di IA, spesso paragonati a "scatole nere".
- Sicurezza e protezionerischi di deviazione o malfunzionamento che potrebbero causare incidenti o mettere in pericolo le infrastrutture critiche.
Legge sull'IA: come la legge regola i sistemi di IA
L'AI Act è la prima legislazione generale al mondo che regolamenta lo sviluppo, la commercializzazione e l'uso dei sistemi di intelligenza artificiale. I suoi punti chiave includono:
Classificazione dei sistemi di IA in base al rischio
- Rischi inaccettabili :Sistemi vietati dal 2 febbraio (ad esempio, sistemi di valutazione sociale, rilevamento in tempo reale delle emozioni sul posto di lavoro, riconoscimento facciale in tempo reale negli spazi pubblici a scopo di profilazione).
- Alto rischio :Sistemi che richiedono una regolamentazione rigorosa (ad esempio, identificazione biometrica a distanza, sistemi di sorveglianza delle infrastrutture critiche).
- Rinel campo della trasparenza : Sistemi che richiedono garanzie di trasparenza. (ad esempio, sistemi di riconoscimento facciale, sistemi di raccomandazione).
- Rischio minimo :Sistemi come i chatbot o i filtri antispam, per i quali è incoraggiata l'adozione di codici di buone pratiche.
Gli attori della catena del valore dell'IA
L'AI Act si applica a tutti gli attori coinvolti nel ciclo di vita dei sistemi di IA, tra cui:
- Fornitori :coloro che sviluppano e commercializzano sistemi di intelligenza artificiale.
- Distributori :coloro che utilizzano i sistemi di IA in un contesto professionale.
- Mandataires: coloro che si trovano nell'Unione Europea e hanno ricevuto un mandato scritto da un fornitore di servizi di IA. Tale mandato consente all'agente di agire per conto del fornitore per gestire i suoi obblighi e le sue procedure.
- Importatores: i soggetti situati nell'UE che immettono sul mercato un sistema di IA recante il nome o il marchio di un'azienda stabilita in un Paese terzo.
- Distributori :coloro che rendono disponibili i sistemi di IA sul mercato dell'UE.
Obblighi dei giocatori IA
Gli obblighi dei giocatori di IA dipendono dal livello di rischio associato ai loro sistemi di IA. I sistemi di IA ad alto rischio comportano obblighi per tutti gli attori:
Per i fornitori
I fornitori devono identificarsi nel sistema AI, redigere una dichiarazione di conformità, apporre il marchio CE, garantire la gestione della qualità, valutare la conformità prima dell'immissione sul mercato e adottare misure correttive in caso di non conformità.
Per i distributori
I responsabili dell'implementazione hanno responsabilità specifiche. In termini organizzativi e tecnici, devono implementare misure per garantire la sicurezza del sistema, assicurare un efficace controllo umano sul suo utilizzo e verificare rigorosamente la qualità dei dati inseriti. In termini di comunicazione, sono responsabili dell'informazione dei dipendenti e degli interessati e devono effettuare valutazioni d'impatto sui diritti fondamentali.
Per gli agenti
Per quanto riguarda gli agenti, essi devono verificare la conformità dei sistemi di IA ad alto rischio, tenere i documenti a disposizione delle autorità per dieci anni, collaborare per mitigare i rischi e rispettare gli obblighi di registrazione.
Per il importatori :
Gli importatori, da parte loro, hanno la responsabilità di garantire la conformità dei sistemi di IA prima della loro immissione sul mercato e di indicare l'identità del sistema di IA e della sua documentazione, nonché di conservare per dieci anni una copia del certificato rilasciato dall'organismo notificato.
Per i distributori
Anche i distributori hanno i loro obblighi. Devono controllare meticolosamente la conformità dei documenti, applicare un principio di precauzione prima di qualsiasi distribuzione e garantire condizioni di stoccaggio e trasporto adeguate.
Sanzioni in caso di non conformità
La legge sulle AI prevede sanzioni severe in caso di mancato rispetto degli obblighi, tra cui :
- Pratiche vietate :ammende fino a 35 milioni di euro o 7 % di fatturato annuo.
- Altre violazioni :sanzioni fino a 15 milioni di euro o 3 % delle vendite annuali a livello mondiale.
- Fornire informazioni imprecise :ammende fino a 7.500.000 euro o 1 % del fatturato annuo mondiale.
La conformità può essere difficile. Dobbiamo mappare gli usi dell'IA, identificare i rischi e preparare gli strumenti per la valutazione e la conformità.
Se desiderate essere accompagnati da esperti del settore su questi argomenti, contatto Tempio delle nuvole