Dal MIT uno studio su rischi dell’IA

Il MIT ha pubblicato “The AI Risk Repository”, un’analisi sui rischi dell’intelligenza artificiale, utile per esperti e legislatori. Raccoglie 777 rischi in un database pubblico, classificandoli per cause e domini. Questo strumento mira a migliorare la comprensione dei rischi e a favorire politiche più efficaci.


Il documento “The AI Risk Repository“, pubblicato dal Massachusetts Institute of Technology tra le più importanti università di ricerca del mondo con sede a Cambridgesi, presenta  un’analisi completa e dettagliata dei rischi connessi all’intelligenza artificiale.

Questo lavoro si rivolge a un vasto pubblico di esperti, ricercatori, legislatori, aziende del settore tecnologico e persino al pubblico in generale, con l’obiettivo di fornire un quadro di riferimento chiaro, accessibile e condiviso per comprendere e affrontare i pericoli derivanti dall’uso e dall’implementazione dell’IA.

La mancanza di una comprensione comune e unificata dei rischi legati all’IA può infatti ostacolare lo sviluppo di politiche efficaci, la ricerca accademica e la capacità di rispondere in modo tempestivo a potenziali crisi.

Negli ultimi anni, lo sviluppo dell’IA ha registrato un’accelerazione esponenziale, tanto che oggi è praticamente impossibile ignorare il suo impatto su molteplici settori della società. Tuttavia, con questo rapido sviluppo, emergono anche una serie di rischi potenziali, dai problemi di privacy fino a preoccupazioni più gravi come la disinformazione su larga scala o l’uso improprio di IA per scopi bellici o criminali. Questi rischi non sono solo teorici: l’AI Incident Database, un archivio che monitora i casi in cui sistemi di IA hanno causato o quasi causato danni nel mondo reale, conta già oltre 3.000 incidenti documentati. È chiaro, quindi, che la gestione di tali rischi non può essere lasciata al caso, e occorre uno sforzo coordinato per capirli e affrontarli efficacemente.

L’obiettivo principale di questo progetto è stato quello di raccogliere e organizzare le molteplici tassonomie di rischio già esistenti, per creare un unico database che fornisse una visione d’insieme comprensibile e accessibile. I ricercatori hanno scoperto che, mentre esistono numerosi tentativi di classificare e descrivere i rischi dell’IA, questi approcci sono spesso non coordinati tra loro, portando a una mancanza di coerenza nella comprensione globale del fenomeno. Ciò ha reso difficile l’identificazione dei modelli comuni e delle lacune, ostacolando lo sviluppo di strategie efficaci di prevenzione e mitigazione dei rischi.

Per risolvere questo problema, i ricercatori hanno raccolto e sintetizzato le diverse prospettive sul rischio legato all’IA, creando quello che hanno chiamato AI Risk Repository. Questo archivio include non solo una revisione della letteratura esistente, ma anche una serie di strumenti, come una tassonomia delle cause, una tassonomia dei domini e un database in continuo aggiornamento, accessibile al pubblico. Il Repository si configura come uno strumento in grado di offrire una chiara comprensione dei rischi associati all’IA, permettendo di consultarli, modificarli e aggiornarli facilmente.

La raccolta dei rischi ha coinvolto un processo complesso di ricerca sistematica, in totale, sono stati individuati e analizzati 777 diversi rischi, estratti da 43 documenti. Questa imponente raccolta di informazioni è stata poi codificata e classificata in due principali tassonomie.

La tassonomia delle cause classifica i rischi in base a tre criteri fondamentali:

  1. Entità: questo criterio indica chi o cosa è responsabile del rischio. Può essere un umano, un sistema di IA o, in alcuni casi, una causa indefinita o ambigua.
  2. Intenzionalità: qui i rischi vengono distinti a seconda che siano il risultato di azioni intenzionali, come nel caso di un attacco informatico progettato per sfruttare vulnerabilità dell’IA, o non intenzionali, come quando un sistema di IA agisce in modo imprevedibile a causa di dati di addestramento errati o incompleti.
  3. Tempistica: i rischi vengono suddivisi in base al momento in cui si verificano, ovvero prima che l’IA venga implementata (pre-deployment) o dopo che è stata distribuita e utilizzata (post-deployment). Alcuni rischi, infine, non hanno una tempistica chiara e rientrano nella categoria “Altro”.

Questa classificazione offre un modo efficace per comprendere le dinamiche alla base dei vari rischi, evidenziando se derivano da errori umani, da malfunzionamenti tecnologici o da altre circostanze. Un esempio di rischio identificato riguarda la possibilità che un sistema di IA, dopo essere stato implementato, generi contenuti dannosi o pericolosi, innescando una serie di conseguenze indesiderate.

La seconda classificazione la tassonomia dei domini, che si concentra sui tipi di rischi che possono manifestarsi nelle applicazioni dell’IA. Questi rischi sono raggruppati in sette grandi categorie, ognuna delle quali include più sottocategorie che coprono una vasta gamma di problemi. I principali domini identificati sono:

  1. Discriminazione e tossicità: questa categoria comprende i rischi legati all’uso dell’IA che perpetuano disuguaglianze sociali o razziali, ad esempio attraverso pregiudizi nei dati di addestramento, e i rischi associati alla diffusione di contenuti tossici come incitamenti all’odio, violenza o estremismo.
  2. Privacy e sicurezza: in questo dominio rientrano i rischi legati alla compromissione della privacy, come la fuga di informazioni sensibili, e quelli connessi alla vulnerabilità dei sistemi di IA, che possono essere attaccati e manipolati da attori malintenzionati.
  3. Disinformazione: qui si analizzano i pericoli legati alla generazione o alla diffusione di informazioni false o fuorvianti attraverso i sistemi di IA, che possono minare la fiducia del pubblico e destabilizzare l’ecosistema informativo globale.
  4. Attori malintenzionati e uso improprio: questo dominio riguarda i rischi derivanti dall’uso deliberato dell’IA per scopi dannosi, come la sorveglianza di massa, la manipolazione politica o lo sviluppo di armi autonome.
  5. Interazione uomo-macchina: questa categoria esplora i rischi legati all’uso improprio o eccessivo dell’IA, che potrebbe portare a una dipendenza emotiva e materiale dagli assistenti virtuali, o alla perdita di controllo umano su decisioni critiche.
  6. Danni socioeconomici e ambientali: in questo dominio vengono analizzati i rischi che l’IA può generare a livello sociale ed economico, come l’aumento delle disuguaglianze, la perdita di posti di lavoro dovuta all’automazione e l’impatto ambientale delle operazioni legate allo sviluppo di sistemi di IA.
  7. Sicurezza dei sistemi di IA: qui si trattano i problemi legati ai malfunzionamenti tecnici, alla mancanza di robustezza e trasparenza nei sistemi di IA, e alle questioni etiche legate alla creazione di intelligenze artificiali autonome e potenzialmente pericolose.

Uno dei risultati più interessanti del progetto è che non tutti i rischi sono trattati con la stessa attenzione nella letteratura esistente. Alcuni rischi, come quelli legati alla discriminazione e ai fallimenti dei sistemi di IA, sono stati ampiamente studiati e analizzati, essendo presenti in oltre il 70% dei documenti. Altri, come il benessere e i diritti delle IA, sono stati quasi completamente trascurati, essendo menzionati solo nell’1% della documentazione esaminata.

Questa disparità evidenzia come certi aspetti dei rischi dell’IA, specialmente quelli legati a questioni di equità e diritti, richiedano una maggiore attenzione da parte della comunità scientifica e dei decisori politici. Allo stesso tempo, si sottolinea la necessità di una maggiore trasparenza e robustezza nei sistemi di IA, affinché essi possano funzionare in modo sicuro e affidabile in situazioni non previste o critiche.

Il Repository non è solo uno strumento di consultazione, ma un vero e proprio punto di partenza per una vasta gamma di attività di gestione del rischio. Per i legislatori, offre una base di conoscenze su cui sviluppare regolamenti più efficaci e con divisi a livello globale. Per gli auditor e gli esperti di valutazione.