Hoodline, testata giornalistica digitale di Dallas, è stata negli ultimi tempi al centro dell’attenzione di osservatori e del pubblico, per un uso non proprio trasparente dell’intelligenza artificiale.
A partire dallo scorso anno ha iniziato a pubblicare articoli, realizzati con l’IA, firmandoli con nomi di giornalisti, completi di bio e foto, che in realtà erano inesistenti, personaggi creati con l’IA, come gli stessi articoli.
Hoodline non è l’unica testata ad aver sperimentato l’uso dell’AI, con risultati discutibili. Ricordiamo come Sports Illustrated e CNET hanno affrontato simili problemi, con Sports Illustrated che ha dovuto cancellare diversi articoli dopo aver scoperto che erano stati pubblicati con nomi di autori falsi. Anche CNET ha commesso imbarazzanti errori nei suoi articoli generati dall’AI.
Hoodline, è stata fondata nel 2014 a San Francisco come testata giornalistica iperlocale, con il tempo, il sito è cresciuto notevolmente, espandendosi in una rete nazionale di siti web locali che coprono notizie ed eventi nelle principali città degli Stati Uniti, attirando milioni di lettori ogni mese.
Zachary Chen, amministratore delegato di Impress3, la società madre che ha acquisito Hoodline nel 2020, ha difeso l’uso dell’AI, affermando che la tecnologia consente di fornire notizie preziose in aree scarsamente coperte e di generare entrate che potrebbero essere utilizzate per assumere più giornalisti umani in futuro.
Chen ha spiegato che Hoodline impiega dozzine di redattori e giornalisti ricercatori a tempo pieno, oltre a un numero crescente di giornalisti sul campo che producono storie originali sui loro quartieri e controllano i testi elaborati con l’IA.
Ma sulla effettività della presenza e del controllo umano vi sono molti dubbi, come scrive sul tema Nieman Lab: “Se ci sono esseri umani coinvolti prima che l’intelligenza artificiale inizi a funzionare, non sembra che controllino il lavoro prodotto dall’IA con molta attenzione. Si trovano molti errori e quelle che sembrano vere e proprie allucinazioni in più articoli: una storia recente su un evento comunitario organizzato dal Dipartimento di Polizia di Boston con un gruppo di anziani afferma che il comunicato stampa del BPD “ha sottolineato uno sforzo continuo per promuovere un senso di partnership tra le forze dell’ordine e i residenti”, ma il comunicato stampa di quattro frasi a cui si collegava non faceva menzione di tali sforzi in corso.”
La redazione ha recentemente rimosso dal sito web le immagini di profilo e le biografie generate dall’AI che accompagnavano alcuni articoli. Questi sono stati sostituiti con un piccolo badge “AI” accanto ai titoli dei pezzi assistiti dall’AI, anche se i nomi umani sono stati mantenuti.
Il pericolo principale sta nel fatto che l’uso dell’AI nel giornalismo può ridurre la fiducia del pubblico nelle notizie, poiché i lettori potrebbero essere ingannati credendo di leggere articoli scritti da giornalisti veri.
Le modalità di azione di Hoodline traggono effettivamente in errore: il sito infatti si presenta come “organizzazione giornalistica locale basata su standard con giornalisti veri”. Le storie generate dall’intelligenza artificiale spesso rielaborano contenuti provenienti da altri media, comunicati stampa e bollettini delle forze dell’ordine: questo significa che il nostro mondo digitale, la rete internet, si saturerà in breve tempo, di storie sintetiche elaborate da bollettini anch’essi scritti artificialmente avviando un processo di autoalimentazione che Neiman definisce “un uroboro”
Nuala Bishari, ex giornalista di Hoodline, ha scritto un articolo per il San Francisco Chronicle descrivendo come sia “surreale” vedere il proprio lavoro sostituito dall’AI.
Bishari ha lamentato che il vecchio giornalismo è stato sostituito da “persone false” che non hanno mai messo piede nei quartieri di cui scrivono. Tuttavia, ha anche riconosciuto che la trasformazione di Hoodline mette in luce la necessità di soluzioni più ampie per mantenere in vita il giornalismo locale. “Senza un grande cambiamento, il giornalismo come lo conosciamo continuerà a svanire”, ha scritto Bishari, avvertendo che non sono solo le piccole testate come Hoodline a rischiare di estinguersi.
Hannah Covington, direttrice senior dei contenuti educativi del News Literacy Project, ha sottolineato che il crescente uso dell’AI nel giornalismo rischia di sminuire la fiducia in un ambiente giornalistico già caotico. Gli esperti avvertono che un’eccessiva dipendenza dall’AI potrebbe distruggere la credibilità delle testate giornalistiche e aumentare la diffusione della disinformazione.