copertina report

Lo scorso15 aprile è stato presentato il settimo report AI Index 2024 sull’indice di intelligenza artificiale  sviluppato dallo Stanford Institute for Human-Centered Artificial Intelligence (Università di Stanford); quest’anno, il rapporto si presenta arricchito con una panoramica più completa delle principali tendenze dell’IA, includendo i progressi tecnici nell’IA, la percezione pubblica della tecnologia e le dinamiche geopolitiche associate.

Nel report risulta evidente che nel 2023, si è registrato un significativo progresso nell’intelligenza artificiale, con una notevole accelerazione rispetto agli anni precedenti.

Sono stati esposti i risultati di nove settori d’interesse di cui ne abbiamo approfonditi solo alcuni.

Ricerca e sviluppo

Nel panorama della ricerca sull’Intelligenza Artificiale, l’industria mantiene il suo ruolo di leader nel 2023: infatti sono stati sviluppati ben 51 modelli di apprendimento automatico mentre in ambito esclusivamente accademico solo 15, ma vi è un aumento delle collaborazioni tra industria e accademia, che ha portato alla creazione di ben 21 modelli.

Un’altra tendenza rilevante è la crescente disponibilità di modelli di base, molti dei quali resi open-source. Nel 2023, sono stati rilasciati ben 149 di questi modelli, più del doppio rispetto all’anno precedente. Tra questi, il 65,7% era open-source, evidenziando un chiaro trend verso la condivisione e la trasparenza.

I costi associati alla formazione dei modelli di IA più avanzati hanno raggiunto livelli senza precedenti. Secondo le stime dell’AI Index, il GPT-4 di OpenAI ha richiesto un investimento di circa 78 milioni di dollari, mentre il Gemini Ultra di Google addirittura 191 milioni di dollari.

Gli Stati Uniti mantengono il loro ruolo di leader nella produzione di modelli di IA di rilievo, con ben 61 modelli provenienti da istituzioni statunitensi nel solo 2023, nettamente più dei 21 dell’Unione Europea e dei 15 della Cina.

Il numero di brevetti nel campo dell’IA continua a crescere costantemente, con un aumento del 62,7% dal 2021 al 2022. La Cina si conferma come dominatrice assoluta, con il 61,1% dei brevetti globali sull’IA, mentre gli Stati Uniti subiscono una riduzione della propria quota, scesa al 20,9%.

La ricerca sull’IA open-source sta vivendo un vero e proprio boom, con un notevole aumento dei progetti su GitHub, che nel 2023 hanno raggiunto quota 1,8 milioni, con un incremento del 59,3% rispetto all’anno precedente. Anche il numero di “stelle” per i progetti correlati all’IA su GitHub è triplicato, passando da 4,0 milioni nel 2022 a 12,2 milioni nel 2023.

Infine, il numero di pubblicazioni sull’IA continua a crescere in modo costante, quasi triplicando tra il 2010 e il 2022, confermando un trend positivo anche nell’ultimo anno, con un modesto incremento del 1,1%.

Prestazioni tecniche

Nel mondo dell’Intelligenza Artificiale, le performance tecniche sono un terreno in continuo sviluppo e cambiamento. L’IA ha dimostrato di superare le capacità umane in diversi ambiti, come la classificazione delle immagini, il ragionamento visivo e la comprensione del linguaggio. Tuttavia, esistono ancora sfide significative in settori più complessi come la matematica di alto livello e il ragionamento basato sul senso comune.

Recenti progressi nell’IA hanno portato alla creazione di modelli multimodali, in grado di gestire sia dati testuali che visivi, aprendo nuove opportunità per applicazioni più avanzate e interdisciplinari. Questi modelli, come il Gemini di Google e il GPT-4 di OpenAI, dimostrano una notevole flessibilità e capacità di adattamento.

Allo stesso tempo, l’avanzamento dell’IA ha stimolato la creazione di benchmark più impegnativi, sfidando continuamente i limiti delle capacità dei modelli esistenti. Nuovi benchmark come SWE-bench per la codifica, HEIM per la generazione di immagini e MMMU per il ragionamento generale rappresentano solo alcune delle nuove sfide emerse nel 2023.

Un aspetto cruciale per il miglioramento dell’IA è la disponibilità di dati di alta qualità. Modelli come SegmentAnything e Skoltech stanno contribuendo alla generazione di dati specializzati, fondamentali per il perfezionamento degli algoritmi e l’affronto di compiti più complessi.

Inoltre, l’IA sta pian piano riconoscendo l’importanza del giudizio umano nella valutazione delle prestazioni dei modelli. Questo cambio di prospettiva riflette una maggiore consapevolezza dell’importanza del coinvolgimento umano nell’evoluzione dell’IA.

Infine, la fusione tra modellazione del linguaggio e robotica sta portando a sistemi robotici più flessibili e interattivi. Modelli come PaLM-E e RT-2 non solo migliorano le capacità robotiche, ma introducono anche la capacità di fare domande, aprendo la strada a una più profonda interazione tra robot e ambiente circostante.

La responsabilità dell’IA

La responsabilità nell’utilizzo dell’Intelligenza Artificiale è un tema di crescente importanza e dibattito. Tuttavia, emerge una serie di criticità che richiedono attenzione e azione.

La critica prevalente riguarda la mancanza di valutazioni robuste e standardizzate per la responsabilità dei modelli linguistici di largo raggio (LLM). Nel report emerge una significativa mancanza di standardizzazione nella segnalazione della responsabilità nell’IA. I principali sviluppatori, tra cui OpenAI, Google e Anthropic, testano principalmente i loro modelli su diversi benchmark di responsabilità nell’IA. Questa pratica complica gli sforzi per confrontare sistematicamente i rischi e le limitazioni dei modelli di IA più avanzati.

Un’altra preoccupazione riguarda la facilità con cui possono essere generati e la difficoltà nel rilevare i deepfake politici. Questi deepfake politici stanno già influenzando le elezioni in tutto il mondo, con recenti ricerche che suggeriscono che i metodi esistenti di deepfake nell’IA hanno livelli di accuratezza variabili. Inoltre, nuovi progetti come CounterCloud dimostrano quanto sia facile per l’IA creare e diffondere contenuti falsi.

Le preoccupazioni riguardo ai rischi dell’IA stanno diventando una priorità per le aziende in tutto il mondo. Un’indagine globale sulla responsabilità dell’IA evidenzia che le principali preoccupazioni delle aziende riguardano la privacy, la sicurezza dei dati e l’affidabilità. Tuttavia, la maggior parte delle aziende ha finora mitigato solo una piccola parte di questi rischi.

Un altro aspetto cruciale riguarda la potenziale violazione del copyright da parte dei modelli. Diversi ricercatori hanno dimostrato che le uscite generative dei LLM possono contenere materiale protetto da copyright, come estratti del New York Times o scene da film. Se tali uscite costituiscano violazioni del copyright sta diventando una domanda legale centrale.

Inoltre, il nuovo Foundation Model Transparency Index mostra che gli sviluppatori di IA mancano di trasparenza, soprattutto per quanto riguarda la divulgazione dei dati di formazione e delle metodologie. Questa mancanza di apertura ostacola gli sforzi per comprendere meglio la sicurezza dei sistemi di IA.

Economia

L’investimento nell’IA generativa sta crescendo ad un ritmo sostenuto, raggiungendo $25,2 miliardi nel 2023, nonostante un calo degli investimenti totali nell’IA. Gli Stati Uniti mantengono la leadership negli investimenti, con $67,2 miliardi, quasi 8,7 volte in più della Cina. Tuttavia, ci sono meno posti di lavoro nell’IA, scesi dal 2,0% al 1,6% di tutte le offerte di lavoro negli Stati Uniti. Nonostante ciò, l’IA sta riducendo i costi e aumentando i ricavi per le aziende. Gli investimenti complessivi nell’IA sono diminuiti, ma il numero di nuove aziende finanziate è aumentato del 40,6%. L’adozione dell’IA nelle aziende è in crescita, con il 55% delle organizzazioni che la utilizzano in almeno una unità aziendale o funzione. In Cina, la dominanza nella robotica industriale continua a crescere. Infine, l’IA rende i lavoratori più produttivi e migliora la qualità del lavoro, anche se il suo impatto varia senza una supervisione adeguata.

Politica e governance
La politica e la governance dell’IA stanno vivendo un periodo di significativo sviluppo normativo e azione politica. Negli Stati Uniti, il numero di regolamentazioni legate all’IA è aumentato notevolmente, passando da una sola nel 2016 a 25 nel 2023, con una crescita del 56,3% solo nell’ultimo anno. Parallelamente, sia negli Stati Uniti che nell’Unione Europea, sono state avanzate proposte di rilievo per promuovere la regolamentazione dell’IA, con la firma di un ordine esecutivo sul tema da parte del presidente Biden e l’approvazione dell’AI Act nell’UE nel 2024. A livello globale, l’attenzione dei legislatori sull’IA è cresciuta in modo significativo, con un raddoppio delle menzioni nei procedimenti legislativi da parte di 49 paesi nel 2023. Anche il numero di agenzie regolatorie statunitensi che si occupano di normative sull’IA è aumentato, passando da 17 a 21 nel 2023, evidenziando una preoccupazione crescente su questo fronte.

Opinione pubblicaInizio modulo

L’opinione pubblica globale sta diventando sempre più consapevole dell’impatto potenziale dell’IA e, allo stesso tempo, mostra segni crescenti di preoccupazione. Secondo un sondaggio Ipsos, la percentuale di coloro che ritengono che l’IA avrà un impatto significativo sulle loro vite nei prossimi tre-cinque anni è aumentata dal 60% al 66% nell’ultimo anno. Inoltre, il 52% esprime nervosismo verso i prodotti e servizi legati all’IA, con un aumento del 13% rispetto al 2022. Negli Stati Uniti, i dati di Pew suggeriscono che il 52% degli americani è più preoccupato che entusiasta riguardo all’IA, rispetto al 38% del 2022.

Sebbene il sentimento sull’IA nei paesi occidentali sia generalmente basso, ci sono segnali di miglioramento. Paesi come Germania, Paesi Bassi, Australia, Belgio, Canada e Stati Uniti, in passato tra i meno positivi riguardo ai prodotti e servizi legati all’IA, stanno registrando un aumento nella percentuale di coloro che riconoscono i benefici dell’IA, con i Paesi Bassi che mostrano il cambiamento più significativo.

L’opinione pubblica è piuttosto pessimistica riguardo all’impatto economico dell’IA, con una minoranza che crede che migliorerà il lavoro (37%), l’economia (34%) e il mercato del lavoro (32%).

Emergono differenze demografiche riguardo all’ottimismo sull’IA, con le generazioni più giovani generalmente più ottimiste. Ad esempio, il 59% dei millennials crede che l’IA migliorerà le opzioni di intrattenimento, rispetto al 40% dei baby boomers. Inoltre, persone con redditi e livelli di istruzione più elevati sono più ottimiste riguardo agli impatti positivi dell’IA sull’intrattenimento, la salute e l’economia rispetto ai loro omologhi con redditi e istruzione inferiori.