Il dividendo del bugiardo: IA e disinformazione politica

L’IA ha trasformato l’informazione e la politica, destando timori per il suo potenziale di influenzare la percezione pubblica con video deepfake e avatar IA. Tuttavia, più della qualità, è la capacità dell’IA di confermare pregiudizi a renderla potente. Il “dividendo del bugiardo” indica come la paura dei deepfake possa portare a una sfiducia generale.

un bugiardo seduto in poltrona

Tempo di lettura:

2 minuti


Interessante l’articolo di Mathew Ingram su Columbia Journalism Review che si sofferma sui pericoli della disinformazione generata dall’IA e nello specifico in campo politico.

Negli ultimi anni, l’intelligenza artificiale (IA) ha avuto un impatto profondo sul mondo dell’informazione e della politica, sollevando timori riguardo alla sua capacità di distorcere la percezione della realtà e influenzare le elezioni. Le recenti campagne politiche statunitensi, così come l’impatto dell’IA sui media locali, riflettono un fenomeno più ampio: l’IA sta trasformando non solo il modo in cui consumiamo notizie, ma anche il modo in cui ci fidiamo delle informazioni.

Da un lato, l’IA offre ai politici strumenti potenti per manipolare l’opinione pubblica. Video prodotti con tecniche di deepfake e avatar generati dall’IA sono sempre più accessibili ed economici, permettendo di creare contenuti che simulano realisticamente eventi o dichiarazioni, ma che in realtà sono falsi. In alcune campagne, come quelle recenti in India e Bangladesh, si è visto come questi video possano essere utilizzati per amplificare messaggi di paura e diffidenza.

Tuttavia, come evidenza Ingram nel suo articolo, molti esperti sostengono che l’efficacia dei deepfake e delle immagini AI-generated non risieda tanto nella loro qualità, quanto nella loro capacità di confermare le convinzioni preesistenti delle persone. Secondo Carl Miller, dell’organizzazione britannica Demos, l’IA è più efficace nel manipolare le emozioni che nel convincere con falsi realistici: conferma le paure e i risentimenti delle persone, rendendo l’influenza politica più sottile, invisibile e legata a reti sociali private piuttosto che a piattaforme pubbliche.

Come afferma Miller “Molti di noi hanno un’idea piuttosto ingenua di come funzionano realmente le operazioni di influenza. Le persone possono immaginare che i cattivi attori diffonderanno immagini convincenti ma false sul mondo per fargli cambiare idea. In realtà, le operazioni di influenza sono progettate per concordare con le visioni del mondo delle persone, lusingarle, confermarle e quindi cercare di sfruttarle”.

In effetti ciò che evidenzia Ingram rifacendosi a quello che viene definito “Il dividendo del bugiardo” (e di cui avevamo scritto in un nostro precedente articolo sui problemi dell’informazione locale) è la possibilità che siano in qualche modo  banalizzate nel pericolo “deepfake” le problematiche della disinformazione politica e che queste possano invece avvantaggiare quei politici che seminano la paura delle fake news o dei deepfake anche quando le news non sono fake e i profili sono reali.

Se tutti hanno paura che tutto sia falso le persone non crederanno più a nulla, lasciando campo facile ai veri falsificatori.

Alcune immagini,traduzioni e sintesi possono essere stati realizzati con ausilio di strumenti di intelligenza artificiale.

Storytelling e supervisione umani