Jack Brewster, redattore aziendale per NewsGuard, una società che tiene traccia della disinformazione online, ha condotto un esperimento poi riportato sul Wall Street Journal, che pone interrogativi sull’impiego dell’intelligenza artificiale nell’informazione.

Brewster ha rivelato la semplicità e l’economicità nella creazione di siti di notizie automatizzati, gestiti dall’IA, capaci di produrre e pubblicare articoli giornalieri, spesso con un chiaro orientamento politico e senza citare le fonti originali.

Questo processo è agevolato dalle piattaforme online come Fiverr.com, dove sviluppatori freelance offrono servizi per la creazione di siti web gestiti dall’IA a costi accessibili.

In soli due giorni e con un investimento di 105 dollari, Brewster è riuscito a lanciare un sito di notizie locale automatizzato, denominato “Buckeye State Press”, progettato per sostenere un candidato politico in una campagna senatoriale statunitense rielaborando notizie senza citare le fonti originali.

Il processo di creazione del sito è stato rapido e privo di complessità tecnica ha affermato Brewster grazie alla disponibilità di sviluppatori come Huzafa Nawaz (lo sviluppare con cui ha collaborato Brewster per la creazione del suo sito) su Fiverr.com.

Una volta fornite le istruzioni, in circa 48 ore il sito funziona in modo autonomo, pubblicando automaticamente decine di articoli al giorno in base alle direttive date. Nawaz inoltre ha offerto anche di configurare il sito per condividere automaticamente i suoi contenuti su pagine e gruppi, amplificando ulteriormente il loro impatto.

Nella conversazione avvenuta tra Brewster e Nawaz, lo sviluppatore ha confessato di aver creato più di 500 siti di notizie gestiti dall’IA, ognuno dei quali richiedeva solo pochi giorni per essere completato.

Sorge la questione dell’originalità dei contenuti, poiché l’IA riscrive articoli senza citare le fonti originali, sollevando dubbi sulla violazione del copyright.

Il caso della “Buckeye State Press” dimostra come tali siti possano essere sfruttati per manipolare l’opinione pubblica durante le elezioni, diffondendo notizie distorte o false per fini politici.

Tra i vari servizi offerti dai programmatori c’è anche la possibilità di istallare strumenti di pubblicità programmatica su questi siti da parte di aziende come Google e quindi tali siti non solo producono disinformazione, ma si trasformano in fonti di reddito immediato.

L’apparenza di legittimità dei contenuti pubblicati nonostante non ci siano fonti di riferimento è preoccupante, ricordiamo che NewsGuard fino a marzo scorso aveva già individuato circa 725 siti di notizie e informazioni inaffidabili che generano falsità che diventano virali.

È quindi essenziale adottare misure rigorose per regolamentare l’uso dell’IA nella produzione di contenuti informativi e contrastare la diffusione di notizie false.

Queste misure possono includere normative più stringenti sul copyright digitale, l’implementazione di standard etici per lo sviluppo e l’utilizzo dell’IA e la promozione della trasparenza nell’origine e nella produzione dei contenuti online.

Emerge inoltre la necessità di promuovere la consapevolezza pubblica sulla manipolazione dell’informazione online e incoraggiare la verifica critica delle fonti.