Le nuove regole, che saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, seguono un approccio basato su 4 tipi di rischio.
- Rischio minimo: nel quale rientra la grande maggioranza dei sistemi di IA godranno di un "lasciapassare" e dunque saranno esenti da obblighi, in quanto presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini. Ma le imprese possono comunque impegnarsi, a titolo volontario, a adottare codici di condotta aggiuntivi per tali sistemi di IA.
- Rischio alto: i sistemi che rientrano in questa fascia dovranno rispettare requisiti rigorosi e prevedere tra l'altro sistemi di attenuazione dei rischi, set di dati di elevata qualità, la registrazione delle attività, una documentazione dettagliata, informazioni chiare per gli utenti, sorveglianza umana e un elevato livello di robustezza, accuratezza e cibersicurezza.
- Rischio inaccettabile: sono quelli considerati una chiara minaccia per i diritti fondamentali delle persone e che saranno quindi vietati. In questa categoria rientrano i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti, come i giocattoli che utilizzano l'assistenza vocale per incoraggiare comportamenti pericolosi dei minori o i sistemi che consentono ai governi o alle aziende di attribuire un "punteggio sociale", oltre che determinate applicazioni di polizia predittiva
- Rischio specifico per la trasparenza: rientrano in questa fascia di rischio sistemi come la chatbot. In questo caso gli utenti dovranno essere consapevoli del fatto che stanno interagendo con una macchina e che i contenuti generati da questa sono prodotti dall'IA. Gli utenti, inoltre, dovranno essere informati su quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni.
Le imprese che non rispettano le norme saranno sanzionate con ammende che possono variare dai 35 milioni di €, o il 7% del fatturato annuo globale (se superiore alla cifra indicata), per le violazioni concernenti applicazioni di IA vietate, 15 milioni di € o il 3% per le violazioni di altri obblighi e 7,5 milioni di € o l'1,5% per la comunicazione di informazioni inesatte. Sono previsti massimali più proporzionati per le sanzioni amministrative per le PMI e le start-up in caso di violazione della legge sull'IA.
La legge sull'IA introduce norme specifiche per i modelli di IA per finalità generali che garantiranno la trasparenza lungo la catena del valore. Per i modelli molto potenti che potrebbero comportare rischi sistemici vi saranno ulteriori obblighi vincolanti relativi alla gestione dei rischi e al monitoraggio degli incidenti gravi, con valutazione dei modelli e verifiche con il metodo dell'adversarial testing. Questi nuovi obblighi saranno resi operativi attraverso codici di pratiche elaborati dall'industria, dalla comunità scientifica, dalla società civile e da altri portatori di interessi insieme alla Commissione.
Per quanto concerne la governance, le autorità nazionali competenti per la vigilanza del mercato sorveglieranno l'attuazione delle nuove norme a livello nazionale, mentre la creazione di un nuovo Ufficio europeo per l'IA nell'ambito della Commissione europea garantirà il coordinamento a livello europeo. Il nuovo Ufficio per l'IA supervisionerà inoltre l'attuazione e l'applicazione delle nuove norme sui modelli di IA per finalità generali.
L'accordo politico dovrà ricevere ora l'approvazione formale del Parlamento europeo e del Consiglio, per entrare quindi in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale. La legge sull'IA diventerà applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi, mentre le norme sull'IA per finalità generali si applicheranno dopo 12 mesi.
Per il periodo transitorio che precederà l'applicazione generale del regolamento, la Commissione lancerà il Patto sull'IA, rivolto a sviluppatori di IA europei e del resto del mondo, che si impegneranno a titolo volontario ad attuare gli obblighi fondamentali della legge sull'IA prima dei termini di legge.
Per promuovere a livello internazionale norme per un'intelligenza artificiale affidabile, l'Unione europea continuerà a operare in consessi quali il G7, l'OCSE, il Consiglio d'Europa, il G20 e le Nazioni Unite. Recentemente abbiamo sostenuto l'accordo dei leader del G7 nell'ambito del processo di Hiroshima sull'IA sui principi guida internazionali e il codice di condotta volontario per i sistemi di IA avanzati.
Per ulteriori informazioni consultare:
- il comunicato stampa della Commissione europea
- la legge sull'intelligenza artificiale (legge sull'IA) proposta dalla Commissione nell'aprile 2021
- Dichiarazione della presidente von der Leyen sull'accordo politico sulla legge dell'UE sull'IA
- Nuove regole per l'intelligenza artificiale – Domande e risposte
- Nuove regole per l'intelligenza artificiale – Scheda informativa
- Processo di Hiroshima sull'IA: principi guida e codice di condotta sull'intelligenza artificiale
- Piano coordinato sull'intelligenza artificiale
- Norme in materia di responsabilità per l'intelligenza artificiale