IMMAGINE REALIZZATA CON IA MIDJOURNEY

La ricerca di Benjamin Toff (Università del Minnesota) e Felix M. Simon (Università di Oxford), “The Paradox of AI Disclosure for Audience Trust in News,” esamina, negli Stati Uniti, l’impatto dell’uso dell’intelligenza artificiale per la generazione di notizie sulla fiducia del pubblico.

Partendo dall’ineluttabile dato di fatto che un numero crescente di editori, molti dei quali avevano già adottato l’IA in passato, sta sperimentando i Large Language Models per una varietà di compiti, come la generazione di riassunti, la creazione di illustrazioni, la riformattazione dei contenuti, la correzione di bozze, l’aumento dell’efficienza del flusso di lavoro, compiti legati all’ottimizzazione per i motori di ricerca (SEO) e una serie di altri compiti editoriali, di prodotto e di distribuzione, la  ricerca rivela una complessa relazione tra la trasparenza nell’uso dell’IA e la percezione della fiducia da parte dei lettori.

Mentre un’ampia maggioranza di persone ritiene che le aziende editoriali dovrebbero informare il pubblico sull’uso dell’IA, la ricerca di Toff e Simon mostra che la divulgazione dell’uso dell’intelligenza artificiale in realtà può diminuire la fiducia nei confronti delle notizie generate in questo modo.

Questo fenomeno è stato osservato nonostante i lettori non percepiscano il contenuto degli articoli come meno accurato o imparziale.

Un altro aspetto interessante emerso dalla ricerca è l’efficacia dell’inclusione di un elenco di fonti utilizzate dall’IA nella generazione dell’articolo. Quando queste informazioni vengono fornite, l’effetto negativo sulla percezione della fiducia sembra essere mitigato.

I ricercatori hanno anche esaminato la possibilità di sviluppare standard e divulgazioni che potrebbero aiutare a costruire la fiducia nell’era dell’IA, suggerendo che vi sia spazio per strategie di comunicazione più efficaci e trasparenti.

Nel contesto più ampio dell’uso dell’IA nel giornalismo, ci sono questioni etiche e pratiche che le redazioni devono affrontare. La necessità di standard accessibili sull’uso dell’IA è cruciale per mantenere la fiducia dei consumatori di notizie e garantire la responsabilità della stampa. Questo include la chiarezza sui modi in cui i giornalisti utilizzeranno (e non utilizzeranno) l’IA per la redazione, la scrittura e la diffusione delle notizie.

L’obiettivo è garantire che il contenuto sia verificato, credibile e il più equo possibile.

La sfida dell’affidabilità delle notizie generate dall’IA è un’altra preoccupazione fondamentale che emerge dalla ricerca: i programmi IA possono mancare della sfumatura e della comprensione dei giornalisti umani, il che può portare a incomprensioni e resoconti inaccurati. La soluzione individuata da alcuni media è stata quella di implementare una supervisione umana per rivedere e modificare i contenuti generati dall’IA.

Inoltre, alcuni esperti suggeriscono che gli LLM potrebbero essere progettati per riconoscere e correggere i pregiudizi nei dati su cui sono addestrati, migliorando così l’accuratezza e l’equità degli articoli risultanti.

Infine, l’aspetto dell’impatto dell’IA sul settore delle notizie tradizionali e sul mercato del lavoro appare significativo. Mentre l’IA offre molti vantaggi, come la produzione rapida ed efficiente di notizie, solleva preoccupazioni sulle probabili perdite di lavoro e sul futuro del giornalismo.

Sebbene restino aree del giornalismo, come il giornalismo investigativo e gli articoli di opinione, dove l’attività dei giornalisti in carne ed ossa è ritenuta ancora insostituibile.