Uno po' di quello che vuoi sapere su IA e informazione!
Interskills srl
SØØn
Newsletter 16 del 22 aprile 2024
Uno po' di quello che vuoi sapere su IA e informazione!

SØØn vuol essere un riepilogo settimanale di alcune delle numerose novità che evolvono continuamente il mondo dell'Intelligenza Artificiale. Non è possibile darne un resoconto completo o esaustivo, ci vorrebbero decine di pagine. Scegliamo quelle che possono riguardare, direttamente o indirettamente, il mondo dell'informazione e del giornalismo

Scusate il ritardo

Questa Newsletter esce con qualche giorno di ritardo in quanto siamo stati (e non potevamo mancare) al Festival Internazionale del giornalismo di Perugia, manifestazione che raccoglie centinaia di giornalisti, esperti e competenti da tutte le parti del mondo con una serie di panel e speech sulle tematiche più rilevanti del giornalismo.

Ovviamente abbiamo seguito tutto ciò che potevamo, ovvero una infinitesima parte del possibile, altri eventi li vedremo in seguito: ricordiamo a chi legge che la gran parte degli eventi è registrata e ritrovabile sul sito del festival e sul suo canale youtube.

La nostra attenzione si è chiaramente focalizzata sugli aspetti dell'Intelligenza Artificiale nel giornalismo. Rispetto alle informazioni che settimanalmente riversiamo in questa newsletter non abbiamo ritrovato grosse novità, ormai l'informazione è globale e riusciamo ad essere abbastanza aggiornati. Ma la discussione,  l'interazione con il pubblico sono fondamentali per animare il dibattito pubblico su tematiche che riguardano l'informazione, la libertà di espressione, i valori etici del giornalismo e quindi la democrazia.

Abbiamo riscontrato una generale propensione all'uso delle tecnologie sintetiche purché il loro ruolo fosse guidato dall'esperienza umana e finalizzato a ridurne i compiti ripetitivi.
Anche sull'utilizzo creativo e generativo di tali strumenti si aprono varchi ed accessi ma sempre sotto la guida e la supervisione umana.
Che è un po' quello che, tra le righe di questa newsletter, abbiamo sempre sostenuto.

 

Per un pugno di dollari un sito IA che genera decine di articoli al giorno

Jack Brewster, redattore aziendale per NewsGuard, una società che tiene traccia della disinformazione online, ha condotto un esperimento poi riportato sul Wall Street Journal, che pone interrogativi sull’impiego dell’intelligenza artificiale nell’informazione.
Brewster ha rivelato la semplicità e l’economicità nella creazione di siti di notizie automatizzati, gestiti dall’IA, capaci di produrre e pubblicare articoli giornalieri, spesso con un chiaro orientamento politico e senza citare le fonti originali.
Questo processo è agevolato dalle piattaforme online come Fiverr.com, dove sviluppatori freelance offrono servizi per la creazione di siti web gestiti dall’IA a costi accessibili.
In soli due giorni e con un investimento di 105 dollari, Brewster è riuscito a lanciare un sito di notizie locale automatizzato, denominato “Buckeye State Press”, progettato per sostenere un candidato politico in una campagna senatoriale statunitense rielaborando notizie senza citare le fonti originali.
Il processo di creazione del sito è stato rapido e privo di complessità tecnica ha affermato Brewster grazie alla disponibilità di sviluppatori come Huzafa Nawaz (lo sviluppare con cui ha collaborato Brewster per la creazione del suo sito) su Fiverr.com.
Una volta fornite le istruzioni, in circa 48 ore il sito funziona in modo autonomo, pubblicando automaticamente decine di articoli al giorno in base alle direttive date. Nawaz inoltre ha offerto anche di configurare il sito per condividere automaticamente i suoi contenuti su pagine e gruppi, amplificando ulteriormente il loro impatto.
Nella conversazione avvenuta tra Brewster e Nawaz, lo sviluppatore ha confessato di aver creato più di 500 siti di notizie gestiti dall’IA, ognuno dei quali richiedeva solo pochi giorni per essere completato.
Sorge la questione dell’originalità dei contenuti, poiché l’IA riscrive articoli senza citare le fonti originali, sollevando dubbi sulla violazione del copyright.
Il caso della “Buckeye State Press” dimostra come tali siti possano essere sfruttati per manipolare l’opinione pubblica durante le elezioni, diffondendo notizie distorte o false per fini politici.
Tra i vari servizi offerti dai programmatori c’è anche la possibilità di istallare strumenti di pubblicità programmatica su questi siti da parte di aziende come Google e quindi tali siti non solo producono disinformazione, ma si trasformano in fonti di reddito immediato.
L’apparenza di legittimità dei contenuti pubblicati nonostante non ci siano fonti di riferimento è preoccupante, ricordiamo che NewsGuard fino a marzo scorso aveva già individuato circa 725 siti di notizie e informazioni inaffidabili che generano falsità che diventano virali.

India: le strategie artificiali nel voto

In India sono in corso le elezioni, coinvolgendo centinaia di milioni di elettori in un evento di grande portata. La sfida principale? Decidere se il primo ministro Narendra Modi otterrà un terzo mandato.

Queste elezioni vanno oltre la semplice scelta di leadership: rappresentano un vero e proprio referendum sulla gestione economica di Modi e sulla sua visione politica sempre più centralizzata.

Vista la mole di cittadini chiamati alle urne circa un miliardo, le votazioni dureranno sei settimane, protraendosi cioè, fino al 1° giugno; i risultati sono attesi per il 4 giugno ed avranno un impatto significativo sul futuro politico dell'India per gli anni a venire.

Nelle elezioni per la Lok Sabha, la camera bassa del Parlamento indiano, i cittadini eleggono 543 deputati attraverso un sistema maggioritario multipartitico. Il presidente indiano assegna altri due seggi.

Per formare un governo maggioritario, un singolo partito o una coalizione deve ottenere almeno 272 seggi e poi nominare uno dei suoi candidati vincenti come primo ministro. I deputati della Lok Sabha, eletti per cinque anni, rappresentano singole circoscrizioni elettorali, con il candidato che riceve il maggior numero di voti che vince il seggio. Tra di loro, ci sono 131 seggi riservati ai rappresentanti delle "caste classificate" e delle "tribù classificate", gruppi ufficialmente riconosciuti come svantaggiati, che costituiscono circa un quarto della popolazione indiana.

Tuttavia, dietro a questo evento si nascondono strategie elettorali complesse, che mirano ad influenzare gli elettori in modi innovativi e preoccupanti.

L'introduzione dell'intelligenza artificiale ha rivoluzionato le campagne elettorali, specialmente in India, dove i politici hanno addestrato algoritmi per replicare le loro espressioni facciali e vocali, creando avatar virtuali in grado di interagire con gli elettori su piattaforme come WhatsApp.

È la prima volta che si assiste a una campagna così iperpersonalizzata, in cui ogni messaggio politico è adattato alle peculiarità culturali e linguistiche di ogni regione dell'India.

Un esempio è l'avatar generato dall'intelligenza artificiale del Primo Ministro Modi, che si rivolge direttamente agli elettori per nome in video condivisi su WhatsApp. I membri del partito hanno utilizzato questa tecnologia per inviare messaggi personalizzati agli elettori, sottolineando i benefici ottenuti dal governo e chiedendo il loro sostegno.

Tale tecnologia consente anche la generazione automatica di videomessaggi in qualsiasi delle decine di lingue indiane parlate dagli elettori, così come l'invio di messaggi telefonici da parte di chatbot basati sull'intelligenza artificiale che chiamano gli elettori con la voce dei leader politici, cercando il loro sostegno.

Ma l'uso dell'intelligenza artificiale nelle elezioni indiane non si limita a questo: persino i defunti leader politici sono "ritornati in vita" virtualmente grazie a questa tecnologia. Ad esempio, EK Nayanar del CPI(M) continua a influenzare le elezioni tramite brevi storie su piattaforme come Instagram, sostenendo i candidati del suo partito.

Sorgono ovviamente preoccupazioni riguardo l'abuso di questa tecnologia e al potenziale per diffondere disinformazione: Prateek Waghre, direttore esecutivo della Internet Freedom Foundation, avverte del rischio che l'intelligenza artificiale possa amplificare la disinformazione già presente nei media. In un panorama politico sempre più dominato dalla tecnologia, è essenziale stabilire regole chiare per garantire elezioni libere ed eque.

Infatti, in tutto il mondo, le elezioni sono diventate un terreno fertile per sperimentare le potenzialità dell'intelligenza artificiale.

Mentre la tecnologia apre nuove frontiere nella comunicazione politica, i partiti si impegnano in una guerra informatica per influenzare l'opinione pubblica, con falsi post sui social media e manipolazioni dell'opinione tramite i deepfake che sono diventati strumenti comuni nella lotta per il potere politico.

Meta annuncia Llama 3

Meta ha annunciato ufficialmente il lancio di due nuovi modelli di intelligenza artificiale, denominati Meta Llama 3, che rappresentano una significativa evoluzione rispetto alla precedente generazione.

L’azienda di Menlo Park ha integrato questi modelli nella sua piattaforma Meta AI disponibile in più paesi attraverso le app di Facebook, Instagram, WhatsApp, Messenger e sul Web (non in Italia al momento).

Gli utenti possono utilizzare Meta AI per svolgere varie attività, come imparare e creare.

Questi modelli linguistici sono stati progettati per offrire prestazioni all’avanguardia e una vasta gamma di nuove funzionalità, con un particolare focus sul miglioramento del ragionamento.

L’approccio di Meta è quello di promuovere l’innovazione nell’intelligenza artificiale, mettendo a disposizione della comunità gli strumenti necessari. L’obiettivo è quello di rendere disponibili i modelli Llama 3 mentre sono ancora in fase di sviluppo, abbracciando l’etica open source e coinvolgendo attivamente gli sviluppatori nella loro evoluzione.
La versione più grande di Llama 3 è attualmente in fase di addestramento con 400 miliardi di parametri e sta già ottenendo un punteggio di 85 MMLU o Massive Multitask Language Understanding, che sono le metriche utilizzate per trasmettere la forza e la qualità delle prestazioni dei modelli di intelligenza artificiale. Le due versioni più piccole in fase di lancio hanno ora 8 miliardi di parametri e 70 miliardi di parametri, e quest’ultima ha ottenuto un punteggio di circa 82 MMLU.

Una delle principali caratteristiche dei modelli Llama 3 è il loro pre-addestramento su un vasto set di dati, comprendente oltre 15 trilioni di token provenienti da fonti pubbliche, come dichiarato dall’azienda:  Meta non ha fornito dettagli sui set di dati utilizzati.

Questo approccio mira a garantire una copertura linguistica ampia e diversificata, con un’enfasi particolare sulla qualità dei dati.

Proprio per garantire la qualità dei dati di addestramento, Meta ha implementato sistemi di filtraggio avanzati, utilizzando filtri euristici, classificatori di testo e altri approcci per ridurre i tassi di falsi positivi e migliorare l’allineamento dei modelli.

Gli sviluppatori, infatti, in passato si sono lamentati del fatto che la versione precedente del modello Llama 2 non riusciva a comprendere il contesto di base, confondendo le domande su come “uccidere” un programma per computer con richieste di istruzioni su come commettere un omicidio. Meta ha affermato di aver ridotto questi problemi in Llama 3 utilizzando “dati di alta qualità” per far sì che il modello riconosca le sfumature.

Un notevole impegno è stato posto nel garantire la sicurezza dei modelli dell’azienda. I modelli ottimizzati per le istruzioni sono soggetti a test per la sicurezza attraverso l’impegno di risorse interne ed esterne. Il loro approccio di red teaming (gruppi di controllo e testing) coinvolge esperti umani e metodi automatizzati per generare suggerimenti contraddittori, mirati a individuare risposte problematiche. Vengono eseguiti test completi per valutare i rischi di uso improprio in varie aree, tra cui chimica, biologia, sicurezza informatica e altri settori a rischio.

USA: proposta di legge per risolvere le questioni del copyright nei modelli di IA

È ormai una corsa ad inseguire ciò che è impossibile da inseguire, ovvero l'evoluzione di queste tecnologie. Le norme dovrebbero avere valore indicativo e propedeutico, in considerazione di quanto veloce è la loro obsolescenza rispetto al cambiamento continuo indotto dall'innovazione.

Il dibattito sull’utilizzo di contenuti protetti da copyright nell’ambito della formazione sull’intelligenza artificiale è sempre molto acceso, inoltre è accompagnato dall’incertezza sui fonti di dati utilizzate dall’intelligenza artificiale.
La settimana scorsa un deputato degli Stati Uniti, Adam Schiff ha presentato il “Generative AI Copyright Disclosure Act“, una proposta di legge che richiederebbe alle aziende di intelligenza artificiale di identificare chiaramente ogni opera protetta da copyright nei loro set di dati.
Schiff ha sottolineato l’importanza di bilanciare il potenziale rivoluzionario dell’intelligenza artificiale con la necessità di linee guida etiche. “Dobbiamo salvaguardare i diritti dei creatori mentre promuoviamo l’innovazione nel campo dell’intelligenza artificiale”, ha affermato. “Questo progetto di legge mira a garantire che i creatori siano pienamente consapevoli del ruolo che il loro lavoro svolge nei set di dati di addestramento dell’intelligenza artificiale, rispettando così la creatività in questa nuova era tecnologica”.
Se il Generative AI Copyright Disclosure Act dovesse essere approvato, le società di IA sarebbero tenute a registrare tutte le opere protette da copyright nei loro dati almeno 30 giorni prima di mettere in commercio un nuovo strumento di intelligenza artificiale basato su tali dati. Inoltre, dovrebbero retroattivamente fornire le stesse informazioni per tutti gli strumenti già esistenti e aggiornare tali informazioni in caso di modifiche significative nei set di dati. In caso di mancato rispetto di tali disposizioni, sarebbero previste sanzioni pecuniarie, commisurate alle dimensioni dell’azienda e alle violazioni passate.
L’ambiguità nell’utilizzo dei dati da parte delle grandi aziende del settore dell’IA è stata messa in luce da un’intervista rilasciata a marzo da, Mira Murati, CTO di OpenAI la quale ha ammesso incertezza sulle fonti da cui lo strumento Sora attinga i dati.
Oltre a garantire maggiore trasparenza nell’uso dei materiali protetti da copyright, Il disegno di legge potrebbe anche fornire alle aziende e agli artisti un quadro più chiaro quando si esprimono contro o fanno causa per violazione del copyright, un evento abbastanza comune. Prendiamo il The New York Times, che ha citato in giudizio OpenAI e Microsoft per aver utilizzato i suoi articoli per addestrare chatbot senza accordo o compenso, o Sarah Silverman, che insieme ad altri autori hanno citato in giudizio OpenAI e Meta per aver utilizzato i loro libri e altri lavori per addestrare i loro modelli di intelligenza artificiale.
Il disegno di legge di Schiff ha ricevuto il sostegno di numerose organizzazioni e sindacati dell’industria dell’intrattenimento, tra cui la Recording Industry Association of America, i Professional Photographers of America, la Director’s Guild of America e la Screen Actors Guild-American Federation of Television and Artisti radiofonici.
Tale proposta inoltre arriva in un momento dove gli stessi artisti delle opere che sembrerebbero essere presenti nei dati di addestramento si stavano mobilitando: più di 200 artisti musicali di spicco hanno sottoscritto una lettera aperta chiedendo maggiori protezioni contro l’intelligenza artificiale e auspicando che le aziende evitino lo sviluppo di strumenti che possano compromettere o sostituire il lavoro degli artisti musicali e dei cantautori.

 

Università di Stanford: Artificial intelligence Index Report 2024

Lo scorso 15 aprile è stato presentato il settimo report AI Index 2024 sull’indice di intelligenza artificiale  sviluppato dallo Stanford Institute for Human-Centered Artificial Intelligence (Università di Stanford);
quest’anno, il rapporto si presenta arricchito con una panoramica più completa delle principali tendenze dell’IA, includendo i progressi tecnici nell’IA, la percezione pubblica della tecnologia e le dinamiche geopolitiche associate.
Sono stati esposti i risultati di nove settori d’interesse di cui ne abbiamo approfonditi di seguito alcuni.

Ricerca e sviluppo

Nel panorama della ricerca sull’Intelligenza Artificiale, l’industria mantiene il suo ruolo di leader nel 2023: infatti sono stati sviluppati ben 51 modelli di apprendimento automatico mentre in ambito esclusivamente accademico solo 15, ma vi è un aumento delle collaborazioni tra industria e accademia, che ha portato alla creazione di ben 21 modelli.
Un’altra tendenza rilevante è la crescente disponibilità di modelli di base, molti dei quali resi open-source. Nel 2023, sono stati rilasciati ben 149 di questi modelli, più del doppio rispetto all’anno precedente. Tra questi, il 65,7% era open-source, evidenziando un chiaro trend verso la condivisione e la trasparenza.
I costi associati alla formazione dei modelli di IA più avanzati hanno raggiunto livelli senza precedenti. Secondo le stime dell’AI Index, il GPT-4 di OpenAI ha richiesto un investimento di circa 78 milioni di dollari, mentre il Gemini Ultra di Google addirittura 191 milioni di dollari.
Gli Stati Uniti mantengono il loro ruolo di leader nella produzione di modelli di IA di rilievo, con ben 61 modelli provenienti da istituzioni statunitensi nel solo 2023, nettamente più dei 21 dell’Unione Europea e dei 15 della Cina.
Il numero di brevetti nel campo dell’IA continua a crescere costantemente, con un aumento del 62,7% dal 2021 al 2022. La Cina si conferma come dominatrice assoluta, con il 61,1% dei brevetti globali sull’IA, mentre gli Stati Uniti subiscono una riduzione della propria quota, scesa al 20,9%.
La ricerca sull’IA open-source sta vivendo un vero e proprio boom, con un notevole aumento dei progetti su GitHub, che nel 2023 hanno raggiunto quota 1,8 milioni, con un incremento del 59,3% rispetto all’anno precedente. Anche il numero di “stelle” per i progetti correlati all’IA su GitHub è triplicato, passando da 4,0 milioni nel 2022 a 12,2 milioni nel 2023.
Infine, il numero di pubblicazioni sull’IA continua a crescere in modo costante, quasi triplicando tra il 2010 e il 2022, confermando un trend positivo anche nell’ultimo anno, con un modesto incremento del 1,1%.

Prestazioni tecniche

Nel mondo dell’Intelligenza Artificiale, le performance tecniche sono un terreno in continuo sviluppo e cambiamento. L’IA ha dimostrato di superare le capacità umane in diversi ambiti, come la classificazione delle immagini, il ragionamento visivo e la comprensione del linguaggio. Tuttavia, esistono ancora sfide significative in settori più complessi come la matematica di alto livello e il ragionamento basato sul senso comune.
Recenti progressi nell’IA hanno portato alla creazione di modelli multimodali, in grado di gestire sia dati testuali che visivi, aprendo nuove opportunità per applicazioni più avanzate e interdisciplinari. Questi modelli, come il Gemini di Google e il GPT-4 di OpenAI, dimostrano una notevole flessibilità e capacità di adattamento.
Allo stesso tempo, l’avanzamento dell’IA ha stimolato la creazione di benchmark più impegnativi, sfidando continuamente i limiti delle capacità dei modelli esistenti. Nuovi benchmark come SWE-bench per la codifica, HEIM per la generazione di immagini e MMMU per il ragionamento generale rappresentano solo alcune delle nuove sfide emerse nel 2023.
Un aspetto cruciale per il miglioramento dell’IA è la disponibilità di dati di alta qualità. Modelli come SegmentAnything e Skoltech stanno contribuendo alla generazione di dati specializzati, fondamentali per il perfezionamento degli algoritmi e l’affronto di compiti più complessi.
Inoltre, l’IA sta pian piano riconoscendo l’importanza del giudizio umano nella valutazione delle prestazioni dei modelli. Questo cambio di prospettiva riflette una maggiore consapevolezza dell’importanza del coinvolgimento umano nell’evoluzione dell’IA.
Infine, la fusione tra modellazione del linguaggio e robotica sta portando a sistemi robotici più flessibili e interattivi. Modelli come PaLM-E e RT-2 non solo migliorano le capacità robotiche, ma introducono anche la capacità di fare domande, aprendo la strada a una più profonda interazione tra robot e ambiente circostante.

La responsabilità dell’IA

La responsabilità nell’utilizzo dell’Intelligenza Artificiale è un tema di crescente importanza e dibattito. Tuttavia, emerge una serie di criticità che richiedono attenzione e azione.
La critica prevalente riguarda la mancanza di valutazioni robuste e standardizzate per la responsabilità dei modelli linguistici di largo raggio (LLM). Nel report emerge una significativa mancanza di standardizzazione nella segnalazione della responsabilità nell’IA. I principali sviluppatori, tra cui OpenAI, Google e Anthropic, testano principalmente i loro modelli su diversi benchmark di responsabilità nell’IA. Questa pratica complica gli sforzi per confrontare sistematicamente i rischi e le limitazioni dei modelli di IA più avanzati.
Un’altra preoccupazione riguarda la facilità con cui possono essere generati e la difficoltà nel rilevare i deepfake politici. Questi deepfake politici stanno già influenzando le elezioni in tutto il mondo, con recenti ricerche che suggeriscono che i metodi esistenti di deepfake nell’IA hanno livelli di accuratezza variabili. Inoltre, nuovi progetti come CounterCloud dimostrano quanto sia facile per l’IA creare e diffondere contenuti falsi.
Le preoccupazioni riguardo ai rischi dell’IA stanno diventando una priorità per le aziende in tutto il mondo. Un’indagine globale sulla responsabilità dell’IA evidenzia che le principali preoccupazioni delle aziende riguardano la privacy, la sicurezza dei dati e l’affidabilità. Tuttavia, la maggior parte delle aziende ha finora mitigato solo una piccola parte di questi rischi.
Un altro aspetto cruciale riguarda la potenziale violazione del copyright da parte dei modelli. Diversi ricercatori hanno dimostrato che le uscite generative dei LLM possono contenere materiale protetto da copyright, come estratti del New York Times o scene da film. Se tali uscite costituiscano violazioni del copyright sta diventando una domanda legale centrale.
Inoltre, il nuovo Foundation Model Transparency Index mostra che gli sviluppatori di IA mancano di trasparenza, soprattutto per quanto riguarda la divulgazione dei dati di formazione e delle metodologie. Questa mancanza di apertura ostacola gli sforzi per comprendere meglio la sicurezza dei sistemi di IA.

Economia

L’investimento nell’IA generativa sta crescendo ad un ritmo sostenuto, raggiungendo $25,2 miliardi nel 2023, nonostante un calo degli investimenti totali nell’IA. Gli Stati Uniti mantengono la leadership negli investimenti, con $67,2 miliardi, quasi 8,7 volte in più della Cina. Tuttavia, ci sono meno posti di lavoro nell’IA, scesi dal 2,0% al 1,6% di tutte le offerte di lavoro negli Stati Uniti. Nonostante ciò, l’IA sta riducendo i costi e aumentando i ricavi per le aziende. Gli investimenti complessivi nell’IA sono diminuiti, ma il numero di nuove aziende finanziate è aumentato del 40,6%. L’adozione dell’IA nelle aziende è in crescita, con il 55% delle organizzazioni che la utilizzano in almeno una unità aziendale o funzione. In Cina, la dominanza nella robotica industriale continua a crescere. Infine, l’IA rende i lavoratori più produttivi e migliora la qualità del lavoro, anche se il suo impatto varia senza una supervisione adeguata.

Politica e governance

La politica e la governance dell’IA stanno vivendo un periodo di significativo sviluppo normativo e azione politica. Negli Stati Uniti, il numero di regolamentazioni legate all’IA è aumentato notevolmente, passando da una sola nel 2016 a 25 nel 2023, con una crescita del 56,3% solo nell’ultimo anno. Parallelamente, sia negli Stati Uniti che nell’Unione Europea, sono state avanzate proposte di rilievo per promuovere la regolamentazione dell’IA, con la firma di un ordine esecutivo sul tema da parte del presidente Biden e l’approvazione dell’AI Act nell’UE nel 2024. A livello globale, l’attenzione dei legislatori sull’IA è cresciuta in modo significativo, con un raddoppio delle menzioni nei procedimenti legislativi da parte di 49 paesi nel 2023. Anche il numero di agenzie regolatorie statunitensi che si occupano di normative sull’IA è aumentato, passando da 17 a 21 nel 2023, evidenziando una preoccupazione crescente su questo fronte.

Opinione pubblica

L’opinione pubblica globale sta diventando sempre più consapevole dell’impatto potenziale dell’IA e, allo stesso tempo, mostra segni crescenti di preoccupazione. Secondo un sondaggio Ipsos, la percentuale di coloro che ritengono che l’IA avrà un impatto significativo sulle loro vite nei prossimi tre-cinque anni è aumentata dal 60% al 66% nell’ultimo anno. Inoltre, il 52% esprime nervosismo verso i prodotti e servizi legati all’IA, con un aumento del 13% rispetto al 2022. Negli Stati Uniti, i dati di Pew suggeriscono che il 52% degli americani è più preoccupato che entusiasta riguardo all’IA, rispetto al 38% del 2022.
Sebbene il sentimento sull’IA nei paesi occidentali sia generalmente basso, ci sono segnali di miglioramento. Paesi come Germania, Paesi Bassi, Australia, Belgio, Canada e Stati Uniti, in passato tra i meno positivi riguardo ai prodotti e servizi legati all’IA, stanno registrando un aumento nella percentuale di coloro che riconoscono i benefici dell’IA, con i Paesi Bassi che mostrano il cambiamento più significativo.
L’opinione pubblica è piuttosto pessimistica riguardo all’impatto economico dell’IA, con una minoranza che crede che migliorerà il lavoro (37%), l’economia (34%) e il mercato del lavoro (32%).
Emergono differenze demografiche riguardo all’ottimismo sull’IA, con le generazioni più giovani generalmente più ottimiste. Ad esempio, il 59% dei millennials crede che l’IA migliorerà le opzioni di intrattenimento, rispetto al 40% dei baby boomers. Inoltre, persone con redditi e livelli di istruzione più elevati sono più ottimiste riguardo agli impatti positivi dell’IA sull’intrattenimento, la salute e l’economia rispetto ai loro omologhi con redditi e istruzione inferiori.

Corso wordpress per giornalisti accreditato OdG: 10 cfp

 Quì la videopresentazione del corso 

in collaborazione con:

Sempre gratuita e disponibile
Lavoriamo tanto per realizzare la nostra newsletter SØØn e ne siamo orgogliosi.
Sarà sempre gratuita e disponibile in archivio sul nostro sito.
Aiutaci, condividila con i tuoi contatti.
Registrati alla Newsletter
facebook  linkedin  instagram