simbolo della commissione europea

Il 2 febbraio è stato ufficialmente approvato dal comitato (COREPER) che riunisce gli ambasciatori dei 27 paesi dell’UE all’interno del Consiglio dell’Unione Europea l’AI Act, il regolamento europeo sull’intelligenza artificiale. Questo regolamento, il primo del suo genere nell’UE, rappresenta un passo significativo verso la regolamentazione dell’Intelligenza Artificiale.

Saranno necessari ancora alcuni passi formali: in primis, le commissioni per il mercato interno e le libertà civili del Parlamento europeo, il prossimo 13 febbraio, adotteranno il Regolamento sull’AI. Successivamente si terrà un’ulteriore votazione in seduta plenaria, a cui seguirà l’adozione formale, fissata per il 24 aprile 2024, con l’approvazione ultima.

Il percorso verso l’approvazione dell’AI Act è stato lungo e complesso. Dopo mesi di negoziati e consultazioni tra gli Stati membri dell’UE e il Parlamento Europeo, si era raggiunto un accordo politico già a dicembre, ma alcuni paesi influenti come la Francia, la Germania e l’Italia, avevano sollevato delle preoccupazioni, che hanno rallentato il processo di approvazione, incentrate sulle disposizioni che riguardavano i modelli avanzati di IA, temendo che le regole proposte avrebbero potuto frenare lo sviluppo di soluzioni innovative europee.

La reazione italiana

In Italia, la prospettiva di una regolamentazione chiara e uniforme sull’IA nell’UE è vista come un passo avanti per garantire la sicurezza e la tutela dei diritti dei cittadini, come sottolineato anche dal sottosegretario all’Innovazione, Alessio Butti: “L’approvazione all’unanimità dell’AI Act segna un momento storico per l’Unione Europea con il contributo determinante dell’Italia e del governo Meloni”.

Cosa prevede il regolamento

I punti principali delle norme approvate riguardano le finalità dei sistemi, la governance, i divieti, la protezione dei diritti e più in dettaglio:

  • regole da applicare ai sistemi di AI per finalità generali ad alto impatto comportanti rischi sistemici in futuro, nonché sui sistemi di AI ad alto rischio;
  • sistemi di governance rivisti anche alla luce di alcuni poteri di esecuzione europei;
  • un elenco più ampliato dei divieti, pur potendo utilizzare l’identificazione biometrica remota da parte delle Autorità, fatte salve le tutele;
  • una rafforzata protezione dei diritti imponendo agli operatori dei sistemi di AI ad alto rischio di dover effettuare una valutazione d’impatto prima di poter utilizzare un sistema di AI.

Uno degli aspetti centrali dell’AI Act è la sua classificazione dei sistemi di IA in base al rischio associato. Il quadro giuridico per l’Intelligenza Artificiale presenta due regimi distinti di sistemi, differenziandoli tra sistemi a basso rischio e sistemi ad alto rischio. La definizione di rischio comprende la probabilità e la gravità di un possibile danno.

Vengono riconosciuti:

  1. Sistemi di AI Vietati: Questi includono tecniche che manipolano la cognizione e il comportamento individuali, la raccolta non autorizzata di dati di riconoscimento facciale, l’uso di sistemi di riconoscimento delle emozioni in ambienti lavorativi o educativi, l’impiego di punteggi di credito sociali e l’elaborazione biometrica per estrarre dati sensibili come orientamento sessuale o credenze religiose. Questi sistemi sono proibiti.
  2. Sistemi di AI ad Alto Rischio: Questa categoria include sistemi destinati a scopi di sicurezza, quelli elencati nella legislazione specifica, e alcuni utilizzati in istruzione, reclutamento o valutazione del credito, a meno che non servano a rilevare frodi o valutare rischi assicurativi. Tuttavia, un fornitore può dimostrare che un particolare sistema non è ad alto rischio. Per i sistemi ad alto rischio, è necessario implementare un sistema di gestione del rischio, condurre test e documentare il funzionamento del sistema.
  3. Sistemi di Intelligenza Artificiale per Scopi Generali (GPAI): Questi sistemi, basati su modelli di IA generici, possono comportare un rischio sistemico. Devono essere notificati alla Commissione UE. I fornitori devono redigere documentazione tecnica, rispettare il diritto d’autore, condurre valutazione del rischio e garantire la sicurezza informatica.
  4. Sistemi AI di Base: Tutti i sistemi di IA, indipendentemente dal livello di rischio, devono rispettare obblighi minimi di trasparenza per garantire una comprensione adeguata da parte degli utenti.

Per sostenere l’innovazione e garantire una regolamentazione equilibrata, l’UE prevede eccezioni e regimi speciali per le piccole e medie imprese, promuovendo così un approccio che coniuga la regolamentazione dell’IA con l’incoraggiamento allo sviluppo tecnologico nell’Unione Europea.

Una volta approvato, l’AI Act non entrerà immediatamente in vigore, ma sarà implementato gradualmente attraverso una serie di fasi di attuazione. Questo processo mira a garantire una transizione fluida e a consentire alle parti interessate di adeguarsi alle nuove regole e requisiti.

Solo a quel punto, la legge sull’AI sarà approvata ed entrerà in vigore 20 giorni dopo la pubblicazione in Gazzetta ufficiale europea con l’attuazione differita entro i due anni successivi.