Il Rapporto sui Rischi Globali del World Economic Forum ha messo in evidenza un allarmante fenomeno: il 53% dei leader globali ha individuato la disinformazione e la manipolazione tramite intelligenza artificiale come una delle principali minacce per la libertà e la democrazia.
Una ricerca condotta da un gruppo di studiosi della Georgetown University e dell’Università di Stanford, pubblicata sulla rivista PNAS Nexus, ha posto interrogativi fondamentali su come le campagne di propaganda online “occulte” possano essere amplificate dall’uso di strumenti di intelligenza artificiale.
L’esperimento, condotto su un ampio campione di 8.221 intervistati statunitensi, ha avuto l’obiettivo di confrontare la persuasività di articoli di propaganda originali con quelli generati dal modello di intelligenza artificiale GPT-3.
I risultati hanno svelato che l’intelligenza artificiale era capace di creare testi estremamente persuasivi, sollevando preoccupazioni sul suo potenziale impatto nell’arena della manipolazione dell’opinione pubblica.
L’analisi ha dimostrato che sia la propaganda di origine umana che quella generata da GPT-3 risultavano altamente persuasive, con una percentuale significativamente più alta di individui che concordavano con le affermazioni della propaganda rispetto al gruppo di controllo, sottolineando la potenza dell’intelligenza artificiale nel modellare le opinioni e influenzare i comportamenti.
I dati riportati mostrano una lieve differenza nella persuasività tra la propaganda generata da GPT-3 e quella umana, ma da questi emerge che l’uomo può facilmente migliorare la persuasività della propaganda generata dall’intelligenza artificiale attraverso semplici revisioni e riformulazioni.
L’interazione uomo-macchina ha prodotto infatti addirittura risultati migliori della propaganda originale.
I potenziali rischi futuri riguardano la possibilità che i propagandisti utilizzino l’intelligenza artificiale per generare una moltitudine di articoli, aumentando sia il volume che la diversità della propaganda.
Questo potrebbe rendere più difficile individuare la fonte, poiché gli articoli potrebbero sembrare opinioni autentiche o fonti di notizie veritiere. L’uso dell’intelligenza artificiale, inoltre potrebbe consentire ai persuasori di concentrarsi sulla creazione di infrastrutture credibili, aumentando ulteriormente la complessità nel contrastare efficacemente tali campagne aumentando in questo modo il rischio della disinformazione.