IMMAGINE REALIZZATA CON IA MIDJOURNEY

Giovedì 1° agosto è ufficialmente entrato in vigore l’AI Act, il Regolamento dell’Unione Europea che mira a disciplinare il modo in cui le grandi aziende tecnologiche e le startup che operano nel territorio europeo, sviluppano e applicano l’Intelligenza Artificiale, determinando le norme e le sanzioni applicabili.

L’AI Act adotta un approccio basato sul rischio, ovvero, sulla possibilità che queste tecnologie possano causare danni agli interessi pubblici e ai diritti fondamentali dell’uomo.

I sistemi IA sono classificati in quattro livelli di rischio:

  • Rischio inaccettabile: Sistemi vietati a priori per la loro evidente minaccia ai valori fondamentali dell’UE. Tra questi rientrano i sistemi di punteggio sociale (social scoring), le tecnologie manipolatorie che sfruttano le vulnerabilità individuali e la categorizzazione biometrica discriminatoria.
  • Rischio elevato: Sistemi sottoposti a rigorosi obblighi di conformità, tra cui la valutazione e la mitigazione dei rischi, la governance dei dati, la documentazione tecnica e la supervisione umana. In questo caso rientrano i sistemi utilizzati in settori delicati come la giustizia, l’istruzione e l’occupazione.
  • Rischio Limitato: Sistemi soggetti a obblighi di trasparenza, come l’obbligo di informare gli utenti che stanno interagendo con un’IA (ad esempio, chatbot e deepfake).
  • Rischio Minimo: Sistemi non regolamentati, come videogiochi basati su IA e filtri antispam.

L’AI Act introduce disposizioni specifiche per l’IA “general purpose” (GPAI), cioè modelli di IA addestrati su enormi quantità di dati e in grado di svolgere una vasta gamma di compiti. Un esempio sono le chatbot, come ChatGPT o le applicazioni per creare immagini dal testo.

Le aziende produttrici di questi modelli devono fornire documentazione tecnica dettagliata, rispettare le norme sul copyright e rendere pubbliche le informazioni sui dati usati per l’addestramento.

In caso di violazione del Regolamento, le aziende dovranno pagare una percentuale del fatturato globale annuo o un importo predeterminato a seconda di quale sia il più alto tra i due: 35 milioni di euro o il 7% per violazioni di applicazioni vietate, 15 milioni di euro o il 3% per violazioni degli obblighi di legge, 7,5 milioni di euro, pari all’1,5 per cento, per aver fornito informazioni errate. Sanzioni più proporzionate si applicheranno alle piccole e medie imprese e alle start-up.

La supervisione spetterà all’Ufficio AI della Commissione Europea che controllerà il rispetto delle regole e sarà composto da 140 membri. Un comitato per l’AI, formato da delegati di tutti i27 stati membri dell’UE, lavorerà per garantire l’applicazione della legge. Per l’Italia, i rappresentanti sono l’Agenzia per l’Italia Digitale (AgID) e l’Agenzia Nazionale di Cybersecurity (ACN).

I tempi di attuazione previsti dal Regolamento variano dai 6 ai 36 mesi, con priorità data ai sistemi a rischio elevato. Questo intervallo temporale è stato studiato per permettere un’implementazione graduale ed efficace delle nuove norme.

Al centro del mirino dell’AI Act, ci sono le grandi aziende tecnologiche americane, come Microsoft, Google, Amazon, Apple e Meta che hanno già investito miliardi di dollari nell’IA, per diventare leader indiscussi nel settore e ad oggi,  si trovano ad affrontare difficoltà ed opportunità che potrebbero ridefinire il panorama tecnologico globale.

L’AI Act ha implicazioni che vanno ben oltre i confini geografici europei, si applica a qualsiasi organizzazione che produce e diffonde i sistemi  di IA in Europa, ha affermato Charlie Thompson, vicepresidente senior di EMEA e LATAM per la società di software aziendale Appian. Questo implica un controllo più stringente sulle loro operazioni nel mercato europeo, specialmente riguardo all’uso dei dati dei cittadini europei.

Di conseguenza, aziende come Open AI, stanno lavorando per preparare tutta la documentazione tecnica e altre linee guida per i fornitori e gli utilizzatori dei loro modelli GPAI migliorando al contempo la protezione e sicurezza dei modelli che sono immessi nel mercato europeo.

Non a caso, Meta Platforms ha giocato d’anticipo e ha limitato la disponibilità di Llama, il suo modello di IA, in Europa, a causa delle incertezze sulle regole sulla protezione dei dati, ha riferito il gigante dei social media, mostrando come l’AI Act possa influenzare le decisioni strategiche delle aziende.

Con l’entrata in vigore dell’AI Act, sta emergendo anche una crescente preoccupazione riguardo al divario tecnologico tra Europa e America, già presente e potenzialmente consolidato dall’applicazione del nuovo Regolamento.

Inoltre, le startup europee sono allarmate dalla complessità dell’AI Act, che potrebbe gravare le piccole aziende con costi di conformità elevati, limitando la loro capacità di innovazione e crescita.