A gennaio, il giornale The Futurism rivelò che CNET, noto sito di informazione tecnologica americana parte del gruppo Red Ventures, aveva utilizzato l’IA per creare una serie di articoli finanziari senza opportunamente informarne i lettori.

Circa 73 articoli, pubblicati sotto il nome di “CNET Money Staff”, trattavano argomenti come “Dovresti vendere prima della scadenza un Certificato di Deposito per ottenere un prezzo migliore?” o “Cos’è Zelle e come funziona?”. La firma apparentemente umana nascondeva l’origine dell’articolo generato da IA, rivelata solo quando si cliccava sulla firma stessa.

Di fronte alle contestazioni palesate dai lettori, CNET affermò che si trattava di un esperimento che, tra l’altro, è stato interrotto senza un annuncio ufficiale, dimostrando la volontà di mantenere l’operazione “discreta”.

Un caso analogo, venuto alla luce in questi giorni è quello di Sports Illustrated (SI), rivista sportiva statunitense che, come rivelato ancora una volta dal giornale The Futurism, ha utilizzato occultamente l’IA per la scrittura di articoli: nello specifico ha scoperto che un tale Drew Ortiz, apparentemente autore di alcuni articoli, non era altro che una creazione dell’IA, un vero e proprio redattore «artificiale» con tanto di foto e bio che pubblicava sulla rivista articoli di temi legati allo sviluppo delle nuove tecnologie e del loro impatto sulla quotidianità. 

Sports Illustrated ha inizialmente risposto alle accuse attribuendo il materiale a un accordo di native advertising con un’agenzia di marketing, l’agenzia AdVon Commerce, che però ha negato che il contenuto fosse stato generato dall’intelligenza artificiale e ha spiegato che in alcuni casi erano stati utilizzati sottotitoli falsi per proteggere la privacy dell’autore. Affermazione non veritiera, in quanto, il profilo del fantomatico Drew Ortiz è ancora rintracciabile su The Wayback Machine, il sito web che memorizza cronologicamente quanto viene pubblicato sulla Rete (come da immagine di copertina).

Arena Group, editore di SI, dopo un crollo del 27% alla Borsa di New York, correlato a questa vicenda, ha interrotto il suo rapporto di collaborazione con l’agenzia AdVon Commerce.

Questi non sono casi isolati: Gannett, una catena di giornali statunitense, ha sospeso l’uso di storie generate dall’IA che coprivano le attività sportive delle scuole superiori dopo le critiche dei lettori sulla qualità dei loro contenuti, in cui sembrava che l’autore non avesse alcuna conoscenza di quello sport.

Allo stesso modo, la rivista tedesca Die Aktuelle che aveva simulato un’intervista generata dall’IA a Michael Schumacher l’ex campione di F1 paralizzato dal 2013 a seguito un trauma cranico mentre sciava, ha licenziato l’autore dell’articolo dopo le paventate azioni legali della famiglia dell’ex pilota.

Questi casi hanno sollevato importanti questioni etiche nel giornalismo. John Affleck, docente in Giornalismo sportivo e società della Knight Foundation, ha dichiarato: “Pensiamo all’intelligenza artificiale come onnisciente, e in realtà è come uno stupido stagista: tutto ciò che fa deve essere controllato, spesso è sbagliato, è un pessimo scrittore, è pieno di cliché”.   Affleck ritiene però che l’IA, anche se imperfetta, potrebbe essere utilizzata in modo responsabile per migliorare l’industria ed informare il pubblico in attività reportistica come nel caso di Associated Press che, negli Stati Uniti, ha già iniziato a utilizzare l’IA per produrre bollettini ed anteprime per le partite di basket della NCAA.

Questi casi dimostrano che la trasparenza sull’uso delle tecnologie automatizzate è fondamentale per mantenere la fiducia del pubblico, Solo norme adeguate e comuni a tutti possono portare ad un utilizzo più etico dell’IA che sia di supporto nella realizzazione dei contenuti giornalistici.