Uno po' di quello che vuoi sapere su IA e informazione!
Interskills srl
SØØn
Newsletter 9 del 1 marzo 2024
Uno po' di quello che vuoi sapere su IA e informazione!

SØØn vuol essere un riepilogo settimanale di alcune delle numerose novità che evolvono continuamente il mondo dell'Intelligenza Artificiale. Non è possibile darne un resoconto completo o esaustivo, ci vorrebbero decine di pagine. Scegliamo quelle che possono riguardare, direttamente o indirettamente, il mondo dell'informazione e del giornalismo

«In breve...(o quasi)»

Cattive interpretazioni o cattive intenzioni?

Secondo quanto riferito da Adweek, Google avrebbe stipulato accordi finanziari con alcuni editori affinché questi utilizzino una sua nuova piattaforma di intelligenza artificiale, ancora in versione beta, per la produzione di articoli giornalistici. 

L'iniziativa è stata avviata dopo un invito di Google rivolto alle testate giornalistiche, ad ottobre scorso, nell'edizione di quel mese della newsletter Local Independent Online News, affinché si candidassero per testare le tecnologie emergenti.

Il programma fa parte della Google News Initiative (GNI), lanciata nel 2018 per fornire agli editori, sostegno, tecnologia e formazione, con l'obiettivo di promuovere il giornalismo di qualità nell'era digitale.

Google in questi anni, ha utilizzato la GNI per supportare l’industria editoriale in questi difficili tempi di difficoltà economiche e, perché no, reputazionali.

Sebbene il programma abbia coinvolto gli editori a partire da gennaio, il lancio ufficiale è avvenuto a febbraio.

In base agli accordi stipulati, gli editori sono tenuti a utilizzare la piattaforma per creare e pubblicare tre articoli al giorno, oltre a una newsletter settimanale e una campagna di marketing mensile.

Google, oltre ad offrire sostegno economico, richiede una serie di dati fondamentali, come analisi e feedback, dalle singole testate, che contribuiranno ad ampliare ulteriormente il set di dati disponibili per i suoi modelli di intelligenza artificiale.

Il pericolo che emergerebbe dalla lettura dell'articolo di Adweek, su cui non siamo per niente d'accordo conoscendo l'impegno e l'attenzione di Google nel sostenere le aziende editoriali, sarebbe costituito dall’accelerazione della perdita di posti di lavoro e la sostituzione dei giornalisti con l'intelligenza artificiale.

In risposta a questa narrazione molto fantasiosa che evidenzierebbe un comportamento poco trasparente e leale di Google nei confronti degli editori e dei lettori, un suo portavoce ha affermato “Lo strumento sperimentale è stato progettato in modo responsabile per aiutare i piccoli editori locali a produrre giornalismo di alta qualità utilizzando contenuti reali. Questi strumenti non sono destinati e non possono sostituire il ruolo essenziale che i giornalisti hanno nel riportare, creare e verificare i loro articoli”. 
In un momento in cui il settore dei media è già colpito da licenziamenti diffusi con una crisi epocale dell’editoria locale negli USA, il sostegno di Google (orientato proprio al settore delle local news) sembra invece essere un utile strumento per contribuire all'ammodernamento delle redazioni ed a fornire loro "attrezzi" tecnologici in grado di consentire di competere anche con le "big" del settore.

 

725 siti pubblicano fake news artificiali

Lo scriviamo ormai quasi in ognuna di queste newsletter: il reale pericolo dell'IA è la disinformazione prima ancora di qualsiasi minaccia per il lavoro o della cinematografica supremazia delle macchine sull'uomo.

In un report pubblicato sul suo sito, NewsGuard,  società che si occupa di analisi dei media, sicurezza e intelligenza artificiale e si impegna nella battaglia contro la disinformazione e nella promozione della trasparenza e dell'accuratezza nel panorama delle notizie online, ha dichiarato che, fino ad oggi, il suo team ha individuato 725 siti di notizie e informazioni inaffidabili, generati dall'intelligenza artificiale e noti come "UAIN" (Unreliable AI-generated News), in 15 lingue diverse. 

Il criterio per etichettare questi siti come UAIN si basa su quattro principi: l'utilizzo evidente di intelligenza artificiale nella produzione dei contenuti, la mancanza di supervisione umana significativa, la presentazione ingannevole che induce i lettori a credere che i contenuti siano stati prodotti da esseri umani e la mancanza di chiarezza riguardo all'origine degli articoli.

Questi siti, spesso contraddistinti da nomi generici come iBusiness Day, Ireland Top News e Daily Time Update, possono facilmente trarre in inganno i lettori, inducendoli a credere di accedere a fonti di informazione affidabili. Tuttavia, anziché fornire contenuti giornalistici tradizionalmente prodotti e verificati, tali fonti operano senza una supervisione umana, pubblicando articoli scritti principalmente o interamente da algoritmi: decine, e talvolta centinaia, di articoli su una vasta gamma di argomenti, tra cui politica, tecnologia, intrattenimento e viaggi. Spesso, tali articoli veicolano notizie false o datate, presentate come fresche e autentiche. 

 

Parola d’ordine: open source

C'è una competizione in corso nel mondo dell'IA che forse rappresenta una svolta plausibile verso l'utilizzo e la diffusione di strumenti affidabili: la costruzione di modelli "open source".

L'utilizzo dei modelli open source consente lo sviluppo di applicazioni e chatbot da parte di aziende indipendenti, rappresentando una spinta notevole per questo mercato. 

L'aspetto finanziario gioca un ruolo fondamentale e l'utilizzo di questi modelli può significare una riduzione dei costi rispetto allo sviluppo di soluzioni personalizzate o all'acquisto di licenze per modelli proprietari.

Ma non è solo una questione di risparmio finanziario. I modelli open source offrono anche una maggiore flessibilità e adattabilità, gli sviluppatori possono modificarli e personalizzarli per soddisfare le esigenze specifiche dell'azienda, consentendo una maggiore flessibilità nel design delle soluzioni di intelligenza artificiale.

I modelli open source inoltre offrono anche una maggiore trasparenza e controllo il che è essenziale in settori regolamentati o sensibili alla sicurezza, ciò permette loro di identificare e affrontare eventuali problemi o bias e di garantire un uso responsabile ed etico dell'IA.

 

Trasparenza ed accessibilità, in quest’epoca di corse alla regolamentazione delle tecnologie da parte degli stati, rappresentano caratteristiche utili se non necessarie.
In questa corsa sono coinvolti gli attori principali dell'industria dell'IA: già l'anno scorso, Meta aveva annunciato il lancio di Llama 2, un modello di linguaggio open source rivolto ad un utilizzo professionale e accademico, m
odello progettato per comprendere e generare linguaggio umano in modo coerente e naturale, aprendo le porte a una vasta gamma di applicazioni, dall'assistenza alla scrittura alla costruzione di chatbot avanzati. Google, d'altra parte, ha recentemente introdotto due nuovi modelli di intelligenza artificiale open source: i due nuovi modelli sono Gemma 2B e Gemma 7B, che ricadono sotto l’unico nome “Gemma” e  variano per dimensioni (numero di parametri, rispettivamente 2 e 7 miliardi) e sono disponibili gratuitamente. 

Microsoft che ha una intensa partnership con OpenAI ma il suo sistema è chiuso, ha quindi  stretto una partnership strategica con la start-up francese Mistral, che a settembre aveva lanciato il suo modello linguistico open source con licenza Apache 2.0 rende infatti il modello accessibile a chiunque, senza restrizioni, ed è quindi possibile integrarlo sin da subito nelle proprie applicazioni. 

 

IA e persuasione

Il Rapporto sui Rischi Globali del World Economic Forum aveva già messo in evidenza un allarmante fenomeno: il 53% dei leader globali ha individuato la disinformazione e la manipolazione tramite intelligenza artificiale come una delle principali minacce per la libertà e la democrazia. 

Una ricerca condotta da un gruppo di studiosi della Georgetown University e dell’Università di Stanford, pubblicata sulla rivista scientifica PNAS Nexus, ha posto interrogativi fondamentali su come le campagne di propaganda online “occulte” possano essere amplificate dall'uso di strumenti di intelligenza artificiale.

L'esperimento, condotto su un ampio campione di 8.221 intervistati statunitensi, ha avuto l'obiettivo di confrontare la persuasività di articoli di propaganda originali con quelli generati dal modello di intelligenza artificiale GPT-3.

I risultati hanno svelato che l'intelligenza artificiale era capace di creare testi estremamente persuasivi, sollevando preoccupazioni sul suo potenziale impatto nell'arena della manipolazione dell'opinione pubblica.

L'analisi ha dimostrato che sia la propaganda di origine umana che quella generata da GPT-3 risultavano altamente persuasive, con una percentuale significativamente più alta di individui che concordavano con le affermazioni della propaganda rispetto al gruppo di controllo, sottolineando la potenza dell'intelligenza artificiale nel modellare le opinioni e influenzare i comportamenti.


NYT con e contro l'IA

Al NYT  cresce l'implementazione di strumenti artificiali, mentre continua la querelle con OpenAI per l'uso che questa avrebbe fatto, in violazione del copyright, di milioni di articoli del giornale.

Secondo quanto riferito dai dirigenti del giornale statunitense Axios, Il The New York Times testerà l'impiego dell'IA generativa per assistere gli inserzionisti nella selezione dei migliori spazi editoriali per i loro messaggi promozionali.

L'obiettivo è ottimizzare l'efficacia delle campagne pubblicitarie e raggiungere con maggiore precisione i potenziali consumatori.

Il progetto, in fase di sviluppo dalla seconda metà del 2024, coinvolgerà un gruppo selezionato di investitori pubblicitari, con i primi casi studio che saranno monitorati internamente dal giornale.

 

Joy Robins, responsabile globale della pubblicità del Times, ha commentato: "Questo dimostra chiaramente che crediamo che l'IA generativa sia un fattore abilitante e possa essere un elemento efficace per la nostra attività se utilizzato in modo responsabile".

Il giornale ha già sviluppato diverse soluzioni di targeting pubblicitario contestuale basate sui dati proprietari raccolti dagli utenti, inclusa una tecnologia in grado di indirizzare gli annunci in base al sentiment. Tuttavia, queste offerte richiedono agli inserzionisti di specificare esplicitamente i criteri di targeting prima della pubblicazione delle loro campagne, rendendo più complessa l'ottimizzazione istantanea.

 

Questa iniziativa arriva in un momento di calo delle entrate pubblicitarie per il NYT, con un calo dell'8,4% nel trimestre più recente del 2023. L'intelligenza artificiale rappresenta quindi una possibile soluzione per stabilizzare i ricavi e rafforzare il modello di business del quotidiano.
Nel frattempo continua la querelle giudiziaria del The New York Times che lo scorso dicembre aveva avviato azioni legali contro OpenAI e il suo principale finanziatore, Microsoft, accusandoli di sfruttare milioni dei suoi articoli senza autorizzazione per addestrare chatbot destinati a fornire informazioni agli utenti.

In una dichiarazione presentata lunedì presso il tribunale federale di Manhattan, OpenAI ha chiesto ad un giudice federale di archiviare alcune parti della causa sul copyright del giornale contro di essa, sostenendo che il NYT ha hackerato il suo chatbot ChatGPT e altri sistemi di intelligenza artificiale per generare delle prove valide da utilizzare per il caso.

Nel documento legale ha dichiarato: “Le accuse contenute nella denuncia del Times non soddisfano i suoi famosi e rigorosi standard giornalistici. La verità, che verrà fuori nel corso di questo caso, è che il Times ha pagato qualcuno per hackerare i prodotti OpenAI. Ci sono voluti decine di migliaia di tentativi per generare i risultati altamente anomali. Sono stati in grado di farlo solo prendendo di mira e sfruttando un bug (che OpenAI si è impegnata a risolvere) utilizzando istruzioni ingannevoli che violano palesemente i termini di utilizzo di OpenAI. E anche allora, hanno dovuto alimentare lo strumento con porzioni degli stessi articoli di cui cercavano di ricavare passaggi letterali, praticamente tutti già presenti su più siti web pubblici” 
Seguiremo con attenzione queste vicende che riguardano il diritto d'autore e che, vista la rilevanza degli attori, potrebbero costituire, almeno oltreoceano, riferimenti rilevanti per la materia.

Gemini è razzista? 

Attraverso un post sul social X, Google ha annunciato il temporaneo blocco del suo nuovo modello di intelligenza artificiale, Gemini, nella produzione di immagini di persone, dichiarando: 'Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo una versione migliorata'."

La decisione è stata presa in seguito alla diffusione su social media di esempi di immagini generate dallo strumento, le quali raffiguravano figure storiche, come i papi e i padri fondatori degli Stati Uniti, in una varietà di etnie e generi.

Ad esempio, una richiesta di immagini di vichinghi ha prodotto solo persone di colore vestite con abiti tradizionali dei guerrieri norreni. Analogamente, la richiesta di raffigurare i 'padri fondatori' degli Stati Uniti ha restituito immagini di nativi americani in abiti coloniali o persino un George Washington di colore. Quando si è chiesto di rappresentare un papa, Gemini ha mostrato solo persone di etnie diverse da quella bianca.

La questione dei bias e dei pregiudizi nell'addestramento dei modelli rappresenta ancora uno dei problemi più grandi da risolvere.

 

Ma questa era solo una sintesi "commentata". In dettaglio  le nostre notizie parlano di:

Corso wordpress per giornalisti accreditato OdG: 10 cfp

Quì la videopresentazione del corso

 

 

 

 

 

gemelle

in collaborazione con:

Sempre gratuita e disponibile
Lavoriamo tanto per realizzare la nostra newsletter SØØn e ne siamo orgogliosi.
Sarà sempre gratuita e disponibile in archivio sul nostro sito.
Aiutaci, condividila con i tuoi contatti.
Registrati alla Newsletter
facebook  linkedin  instagram