Associated Press (AP) ha realizzato un report per valutare l’impatto dell’intelligenza artificiale generativa nel settore dell’informazione dal significativo titolo: “L’intelligenza artificiale generativa nel giornalismo: L’evoluzione del lavoro giornalistico e dell’etica in un ecosistema informativo generativo”.
Il report presenta i risultati di un sondaggio condotto su 292 professionisti dell’informazione tra il 4 e il 22 dicembre 2023 distribuiti in gran parte in Nord America ed Europa ma con rappresentanze anche di altri continenti, focalizzandosi sull’utilizzo attuale e futuro dell’IA, nonché sulle questioni etiche e pratiche correlate. L’81,4% degli intervistati ha dichiarato di essere a conoscenza dell’IA generativa e il 73,8% ha indicato che loro o la propria organizzazione avevano già utilizzato l’intelligenza artificiale generativa in qualche modo. Ma forse l’elemento più interessante riguarda la qualità del campione: il numero medio di anni di lavoro nel settore dell’informazione da parte degli intervistati è stato di 18 anni, ovvero come alcuni dei membri più esperti della professione stanno reagendo alla tecnologia.
Nello studio si osserva come, dopo l’introduzione di ChatGPT da parte di OpenAI alla fine del 2022, altre grandi aziende tecnologiche hanno sviluppato rapidamente i propri modelli di intelligenza artificiale generativa, come Bard e poi Gemini di Google, Claude di Anthropic, Copilot di Microsoft e offerte open source come LLaMA di Meta e la disponibilità di questi strumenti ha portato a un’integrazione accelerata dell’IA generativa in vari prodotti e servizi dell’ecosistema informativo, offrendo nuove opportunità di produttività e innovazione, ma anche sollevando preoccupazioni riguardanti l’accuratezza e la veridicità delle informazioni.
Nel corso del 2023, l’industria dell’informazione ha cercato di comprendere le implicazioni di questa tecnologia per la raccolta, la produzione e la distribuzione delle notizie, nonché per i modelli di business e la proprietà intellettuale.
L’uso dell’intelligenza artificiale generativa ha inevitabilmente modificato la struttura e l’organizzazione del lavoro nell’industria dell’informazione, generando nuovi ruoli e richiedendo linee guida etiche e formazione per un utilizzo responsabile della tecnologia.
Il report dell’AP ha rilevato le modalità di implementazione dell’IA generativa nel lavoro giornalistico, con gl’intervistati che hanno indicato l’uso della tecnologia per compiti specifici.
La produzione di contenuti è risultata essere l’uso predominante, comprendente la generazione, modifica e trasformazione di testi e formati multimediali. L’IA è stata impiegata per generare titoli di notizie, post sui social media, newsletter, nonché per modificare e riassumere articoli, e creare contenuti multimediali come illustrazioni, video e audio. Altri utilizzi includono traduzione, trascrizione assistita, creazione di chatbot e metadati.
Oltre alla produzione di contenuti, l’IA generativa è stata utilizzata per la raccolta di informazioni e la creazione di senso, includendo scoperta di notizie, ricerca e ideazione, oltre a compiti tecnici come codifica e lavoro con i dati e per scopi operativi aziendali interni come la creazione di presentazioni e la stesura di e-mail di marketing.
Dalle risposte emerge però un crescente interesse nell’adozione dell’IA generativa per migliorare altri aspetti del lavoro giornalistico: agli intervistati è stato chiesto quali altre attività vorrebbero idealmente svolgere utilizzando l’intelligenza artificiale generativa nel loro lavoro giornalistico, oltre quelle già menzionate, sono emersi altri ambiti come la pianificazione, l’analisi della distribuzione, la personalizzazione, il layout e il rilevamento di notizie false.
Nel contesto della pianificazione, gli intervistati ambiscono a utilizzare l’IA per ottimizzare i flussi di lavoro giornalieri e i piani relativi al ciclo delle notizie. La personalizzazione si concentra sulla creazione di contenuti su misura per i vari settori mentre il rilevamento delle notizie false mira a identificare e contrastare la disinformazione. L’analisi della distribuzione implica l’esame dei dati sull’engagement degli utenti.
Gli intervistati hanno anche espresso un interesse nell’utilizzo dell’IA per supportare l’analisi e la ricerca dei dati, ridurre le attività ripetitive, migliorare l’editing e stimolare la creatività attraverso il brainstorming.
Dai sondaggi raccolti sono stati inoltre rilevati gli aspetti positivi e negativi dell’utilizzo degli strumenti di IA. Da un lato, evidenziano il risparmio di tempo: molti intervistati ritengono che il tempo risparmiato sia un’opportunità per reinvestirlo in altre attività e sottolineano il valore aggiunto che l’IA può portare al processo creativo.
Dall’altro, vengono sottolineati problemi di qualità come mancata accuratezza e affidabilità dei contenuti generati, come la poca pertinenza dei titoli o del testo prodotto dai modelli linguistici di grandi dimensioni.
Gli intervistati individuano anche la creazione di nuovi ruoli all’interno delle redazioni orientati alla ricerca di innovazioni e al monitoraggio dei rapidi cambiamenti nel campo dell’IA.
Nel report inoltre vengono esplorate anche le sfide e le preoccupazioni etiche legate allo sviluppo di pratiche responsabili nel settore dell’IA.
Le preoccupazioni più diffuse riguardano la possibilità di informazioni imprecise e false prodotte dall’IA, insieme alla trasparenza nell’utilizzo di tali tecnologie; inoltre, la riduzione della qualità delle notizie “sintetiche” viene percepita dai lettori, causando una minore rilevanza dell’impatto del giornalismo sulle persone. Altre preoccupazioni riguardano il rischio di perdita di posti di lavoro e la possibilità di plagio delle opere visto che queste vengono utilizzate per l’addestramento dei modelli.
Proprio per questo viene sottolineata la necessità di scoraggiare specifici utilizzi dell’IA generativa nel giornalismo, come la generazione completa di contenuti tramite IA dovrebbe essere vietata, poiché i modelli attuali non sono ancora affidabili per questo compito e potrebbero generare contenuti fuorvianti o ingannevoli, oppure il divieto di utilizzare l’IA generativa per la creazione di domande per interviste e stili artistici.
Questi divieti proposti riflettono la crescente convinzione che ci siano utilizzi dell’IA generativa nel giornalismo che sono moralmente inaccettabili.
Possiamo dire che in generale emerge uno sforzo collettivo all’interno delle redazioni per sostenere gli standard giornalistici, contrastare la disinformazione e mantenere il ruolo del giudizio umano in primo piano nella produzione di notizie.
Gli intervistati sottolineano l’importanza di definire linee guida etiche, regolamenti e controlli di qualità per affrontare tali questioni; molti intervistati mostrano familiarità con linee guida esistenti fornite da organi di stampa come The Guardian, NPR, BBC e AP, ma dai risultati del sondaggio, emerge la necessità di linee guida più concrete e adattabili ai rapidi sviluppi nell’intelligenza artificiale generativa con delineazioni chiare dei casi d’uso consentiti o vietati e l’inclusione di informazioni specifiche sulle applicazioni di intelligenza artificiale generativa che dovrebbero essere divulgati al pubblico.