Il regolamento europeo sull'intelligenza artificiale è entrato in vigore il 1° agosto 2024. Gli obblighi vengono introdotti gradualmente fino al 2027. Dal 2 febbraio 2025, i sistemi di intelligenza artificiale classificati come "inaccettabilmente rischiosi" sono vietati nell'UE.
L'AI Act è il primo regolamento che stabilisce un quadro giuridico uniforme per l'uso dell'intelligenza artificiale nell'Unione Europea. Presentato come un mezzo per promuovere l'innovazione e garantire la fiducia degli utenti, impone standard di conformità basati su un approccio basato sul rischio.
L'obiettivo del regolamento è quello di creare un ambiente favorevole all'IA, sicuro, etico e rispettoso dei diritti fondamentali, sostenendo così la competitività delle imprese sui mercati europei e globali.
I PILLARI | CHIARIMENTO |
---|---|
Sistemi di intelligenza artificiale | Sistemi di rischio inaccettabili sono vietati perché minacciano i diritti fondamentali. Sistemi ad alto rischio richiedono una rigorosa valutazione di conformità. Sistemi di rischio specifici sono soggetti a obblighi di trasparenza. Sistemi a rischio minimo seguire codici volontari di buone pratiche. |
Modelli di intelligenza artificiale da utilizzare Generale (GPAI) | La legge sull'IA fornisce un quadro di riferimento per i modelli di IA di uso generale, che richiedono un'elevata capacità di calcolo per il loro sviluppo. Questi modelli sono soggetti a obblighi di diligenza, tra cui la trasparenza, il rispetto del copyright e la pubblicazione di una sintesi della base di apprendimento. I modelli cosiddetti "a rischio sistemico" sono soggetti a specifici obblighi di valutazione e limitazione del rischio. |
La governance | Autorità nazionali indipendenti sorvegliare i sistemi di intelligenza artificiale fornendo sandbox normative, garantendo la conformità delle aziende. A livello europeoL'Ufficio AI, creato nel febbraio 2024, regolamenta i modelli di AI ed elabora codici di buone pratiche, in particolare per i modelli generali e sistemici. |
"L'adattamento alle nuove tecnologie è sempre una sfida, soprattutto quando ci si trova di fronte a una rivoluzione di questa portata. La legge sull'IA segna un passo avanti fondamentale, inquadrando l'IA con misure di buon senso e responsabilizzando i fornitori, gli implementatori e i distributori. Tuttavia, la natura opaca dei sistemi di IA rende illusorio il loro controllo totale, nonostante la buona volontà legislativa".
La legge sull'AI prevede sanzioni graduali in caso di non conformità, con un tetto massimo di 7% del fatturato mondiale annuo o 35 milioni di euro. Le ammende variano a seconda della gravità: fino a 3% o 15 milioni di euro per il mancato rispetto dei requisiti sui sistemi ad alto rischio, e 1,5% o 7,5 milioni di euro per informazioni errate alle autorità. Per il resto, gli Stati membri sono responsabili della definizione delle sanzioni.