AEPL

Una prima mondiale: la legge europea sull'intelligenza artificiale

Pubblicato il 18/01/2024

Presto entrerà in vigore la "Legge sull'Intelligenza Artificiale" o "Regolamento sull'Intelligenza Artificiale", che proteggerà i cittadini dell'UE dai potenziali eccessi dell'IA, conferendo al contempo all'UE un ruolo di primo piano nell'industria globale dell'IA.

Dopo diversi mesi di trattative, un accordo politicol 9 dicembre 2023 i colegislatori europei (Parlamento e Consiglio) hanno raggiunto un accordo che apre la strada al voto finale.

Ecco cosa ne pensa la Presidente della Commissione europea, Ursula von der Leyen:

"L'intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l'inizio. L'IA usata in modo saggio ed esteso promette notevoli benefici per la nostra economia e la nostra società. Per questo motivo accolgo con grande favore l'accordo politico raggiunto oggi dal Parlamento europeo e dal Consiglio sul regolamento sull'intelligenza artificiale. Questo regolamento europeo è il primo quadro giuridico completo per l'intelligenza artificiale al mondo. Si tratta quindi di un momento storico. Il regolamento sull'intelligenza artificiale porta i valori europei in una nuova era. Concentrando la regolamentazione sui rischi identificabili, l'accordo raggiunto oggi promuoverà un'innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali dei cittadini e delle imprese, il regolamento sull'IA sosterrà lo sviluppo, la diffusione e l'adozione di un'IA affidabile nell'UE. Il nostro regolamento sull'IA darà un contributo sostanziale allo sviluppo di regole e principi globali per l'IA incentrata sull'uomo".

Negli ultimi quattro anni, il Forum Europeo dei Massoni ha avuto un gruppo di lavoro accreditato presso la Commissione e il Parlamento per contribuire allo sviluppo del futuro AI-ACT.

Ecco le fasi principali del processo legislativo:

A seguito della pubblicazione della Strategia europea sull'intelligenza artificiale nel 2018 e dopo un'ampia consultazione delle parti interessate, il gruppo di esperti di alto livello sull'intelligenza artificiale ha sviluppato linee guida per un'IA affidabile nel 2019, nonché una lista di valutazione per un'IA affidabile nel 2020. Parallelamente, nel dicembre 2018 è stato pubblicato il primo piano coordinato sull'IA nell'ambito di un impegno congiunto con gli Stati membri.

Il Libro bianco sull'IA della Commissione, pubblicato nel 2020, ha delineato una chiara visione dell'IA in Europa: un ecosistema di eccellenza e fiducia, che pone le basi per l'accordo politico raggiunto oggi. La consultazione pubblica sul Libro bianco sull'IA ha raccolto numerosi contributi da tutto il mondo. Il Libro bianco è stato accompagnato da una "Relazione sulle implicazioni per la sicurezza e la responsabilità dell'intelligenza artificiale, dell'internet degli oggetti e della robotica", che ha concluso che l'attuale legislazione sulla sicurezza dei prodotti presenta una serie di lacune che devono essere colmate, in particolare nella direttiva sulle macchine.

I principi guida di AI-ACT sono i seguenti:

Le nuove regole, basate su una definizione di IA a prova di futuro, saranno direttamente e identicamente applicabili in tutti gli Stati membri. Esse seguono un approccio basato sul rischio:

Rischio minimo La grande maggioranza dei sistemi di IA rientra in questa categoria. Le applicazioni a rischio minimo, come i sistemi di raccomandazione o i filtri antispam basati sull'IA, saranno esenti da qualsiasi obbligo perché presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini. Tuttavia, le aziende potranno impegnarsi volontariamente ad adottare codici di condotta aggiuntivi per questi sistemi di IA.

Alto rischio Requisiti rigorosi: i sistemi di IA considerati ad alto rischio dovranno soddisfare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, qualità dei set di dati utilizzati, registrazione delle attività, documentazione dettagliata, fornitura di informazioni chiare all'utente, controllo umano e un livello elevato di prestazioni in termini di robustezza, accuratezza e sicurezza informatica. Le sandbox regolamentari faciliteranno l'innovazione responsabile e lo sviluppo di sistemi di IA che soddisfino questi requisiti.

I sistemi di intelligenza artificiale ad alto rischio includono, ad esempio, alcune infrastrutture critiche nei settori dell'acqua, del gas e dell'elettricità; i dispositivi medici; i sistemi che determinano l'accesso alle istituzioni educative o che vengono utilizzati a scopo di reclutamento, o alcuni sistemi utilizzati nelle attività di polizia, nel controllo delle frontiere, nell'amministrazione della giustizia e nei processi democratici. Inoltre, anche i sistemi biometrici per l'identificazione, la categorizzazione e il riconoscimento delle emozioni sono considerati ad alto rischio.

Rischio inaccettabile I sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Si tratta di sistemi o applicazioni di IA che manipolano il comportamento umano per privare gli utenti del loro libero arbitrio, come i giocattoli che utilizzano l'assistenza vocale per incoraggiare i minori a comportarsi in modo pericoloso, o i sistemi che consentono la classificazione sociale da parte di Stati o aziende, e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, come i sistemi di riconoscimento emotivo utilizzati sul posto di lavoro e alcuni sistemi di categorizzazione delle persone o di identificazione biometrica remota in tempo reale per scopi di applicazione della legge in aree accessibili al pubblico.

Obblighi specifici di trasparenza : quando si utilizzano sistemi di IA come i chatbot, gli utenti devono essere consapevoli che stanno interagendo con una macchina. I video ultra-realistici e altri contenuti generati dall'IA dovranno essere segnalati come tali e gli utenti dovranno essere informati dell'uso di sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo che le immagini, i testi, gli audio e i video generati sinteticamente siano contrassegnati in un formato leggibile dalla macchina e che la loro natura generata o manipolata artificialmente sia rilevabile.

Il regolamento sull'IA introduce regole specifiche applicabili ai modelli di IA per uso generaleQuesti garantiranno la trasparenza lungo tutta la catena del valore. Per i modelli molto potenti che possono presentare rischi sistemici, saranno imposti ulteriori obblighi vincolanti per quanto riguarda la gestione del rischio e il follow-up degli incidenti gravi, le valutazioni dei modelli e le prove in contraddittorio. Questi nuovi obblighi saranno attuati mediante codici di buone pratiche elaborati dall'industria, dalla comunità scientifica, dalla società civile e da altre parti interessate, in collaborazione con la Commissione.

Per quanto riguarda la governanceA livello europeo, le autorità nazionali competenti per la sorveglianza del mercato supervisioneranno l'attuazione delle nuove norme a livello nazionale, mentre il coordinamento a livello europeo sarà garantito da un Ufficio europeo per l'IA di recente creazione all'interno della Commissione europea. Questo nuovo ufficio per l'IA supervisionerà anche l'attuazione e l'applicazione delle nuove norme sui modelli di IA per uso generale. Insieme alle autorità nazionali di sorveglianza del mercato, l'Ufficio AI sarà il primo organismo al mondo ad applicare regole vincolanti in materia di IA e dovrebbe diventare un punto di riferimento internazionale. Per i modelli generici, un gruppo scientifico di esperti indipendenti svolgerà un ruolo centrale, lanciando avvertimenti sui rischi sistemici e contribuendo alla classificazione e alla verifica dei modelli.

Sono previste pesanti sanzioni pecuniarie.

Le aziende che non rispetteranno le regole saranno multate. Le ammende varieranno a seconda delle violazioni commesse: 35 milioni di euro o 7 % del fatturato annuo mondiale (a seconda di quale sia il valore più alto) per le violazioni relative alle applicazioni di IA vietate; 15 milioni di euro o 3 % del fatturato annuo mondiale per il mancato rispetto di altri obblighi; e 7,5 milioni di euro o 1,5 % del fatturato annuo mondiale per la fornitura di informazioni inesatte. Sono stati fissati massimali più proporzionati per le ammende amministrative che saranno inflitte alle PMI e alle start-up in caso di mancata conformità al regolamento sull'IA.

Le prossime tappe.

L'accordo politico, che il Parlamento europeo e il Consiglio devono ora approvare formalmente, entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta Ufficiale. Il regolamento sull'IA entrerà quindi in vigore due anni dopo la sua entrata in vigore, ad eccezione di alcune disposizioni specifiche: i divieti si applicheranno dopo sei mesi, mentre le norme sull'IA per scopi generali si applicheranno dopo 12 mesi.

Per coprire il periodo di transizione prima che il regolamento diventi di applicazione generale, la Commissione lancerà un Patto AI. Questo riunirà sviluppatori di IA europei e di tutto il mondo che si impegnano ad attuare, su base volontaria, gli obblighi principali del regolamento IA prima delle scadenze stabilite dal regolamento.

Per promuovere regole affidabili in materia di IA a livello internazionale, l'Unione europea continuerà a lavorare in forum come il G7, l'OCSE, il Consiglio d'Europa, il G20 e le Nazioni Unite. Di recente, abbiamo approvato l'accordo raggiunto dai leader del G7 nell'ambito del Processo di Hiroshima per l'intelligenza artificiale sui principi guida internazionali e su un codice di condotta volontario per i sistemi avanzati di IA.

Joël De Decker

Riferimenti

Vari comunicati stampa pubblicati dalla Commissione europea

 

Prossima notizia:
Le Parlement Européen donne la parole à l'AEPL

Pubblicato il 16/02/2024

it_ITItaliano