IMMAGINE REALIZZATA CON IA MIDJOURNEY

La disinformazione online rappresenta una preoccupazione crescente per le piattaforme Internet, le istituzioni e la società nel suo complesso. Negli ultimi anni, il volume di informazioni condivise online è aumentato in modo esponenziale, e con esso la diffusione della disinformazione ha trovato un terreno fertile.

L’introduzione di strumenti generativi basati sull’intelligenza artificiale, che consentono di creare facilmente contenuti audio, immagini, video realistici e testi simili a quelli umani, ha amplificato ulteriormente queste preoccupazioni.

Nonostante l’intenso interesse pubblico e la copertura mediatica sul tema, le informazioni quantitative sulla prevalenza e le modalità della disinformazione basata sui media restano scarse.

Uno studio della Cornell Univesity condotto in due anni ha utilizzato valutatori umani per annotare la disinformazione basata sui media online, esaminando un totale di 135.838 fact-check, da quando è stato introdotto ClaimReview, un sistema di tagging che permette ai fact-checker e agli editori di segnalare la disinformazione su piattaforme come Google, Facebook, Bing e altre.

Dall’analisi delle affermazioni di disinformazione contenute nei fact-check, è emerso che la grande maggioranza (circa l’80% negli ultimi tempi) coinvolge i media. Storicamente, le immagini erano la modalità dominante associata alle affermazioni di disinformazione; tuttavia, a partire dal 2022, i video sono diventati più comuni, e attualmente oltre il 60% dei media considerati fake sono video.

Nel 2022 le manipolazioni delle immagini erano generalmente semplici e non richiedevano sofisticazioni tecnologiche; il tipo più comune erano le manipolazioni del contesto, che utilizzavano immagini (spesso non modificate) insieme a una falsa affermazione su ciò che raffiguravano. Inoltre, il testo era molto comune nelle immagini, spesso articolando la stessa affermazione di disinformazione, posizionato sopra o accanto al contenuto visivo dell’immagine.

Tuttavia, il problema delle immagini generate dall’intelligenza artificiale è probabilmente anche più grave di quanto rilevato dai dati dello studio, poiché questi si basano su dati pubblici di verifica dei fatti, che non selezionano in modo casuale la disinformazione basata su immagini generate dall’intelligenza artificiale.

Siti come Snopes e Politifact, con risorse limitate, si concentrano sul fact-checking delle immagini che hanno guadagnato viralità o copertura giornalistica, sottostimando così il flusso di immagini generate dall’intelligenza artificiale che vediamo quotidianamente su piattaforme come Facebook.

Inoltre, l’avvento dei generatori di immagini basati sull’intelligenza artificiale ha creato un problema non solo con la disinformazione generata dall’intelligenza artificiale, ma anche con lo spam generato dall’intelligenza artificiale.

Un altro motivo per cui il problema della disinformazione sull’intelligenza artificiale potrebbe essere persino peggiore di quanto rilevato dai dati dello studio è che le immagini generate dall’intelligenza artificiale potrebbero essere incluse nei video. La disinformazione video potrebbe infatti essere costituita in parte o interamente da immagini generate dall’intelligenza artificiale.

Sarà difficile ottenere un quadro completamente accurato di quanto sia grave il problema della disinformazione generata dall’intelligenza artificiale, poiché è molto più dispendioso in termini di tempo trovare e rivedere queste immagini rispetto a produrle.