trump e biden

IMMAGINE REALIZZATA CON IA MIDJOURNEY

L’avvento dell’intelligenza artificiale sta catalizzando un profondo cambiamento nella nostra relazione con le informazioni, portando con sé, come abbiamo più volte riscontrato,  una crescente minaccia per la democrazia: la diffusione della disinformazione.

In particolare, la proliferazione dei cosiddetti “deepfake”, ovvero video e immagini manipolati in maniera estremamente realistica, sta suscitando serie preoccupazioni riguardo alla possibilità di manipolare il processo democratico, specialmente in relazione alle elezioni politiche.

In quest’ottica, Midjourney, uno dei brand più affermati e consolidati nella generazione di immagini tramite intelligenza artificiale, sta valutando la possibilità di vietare l’utilizzo del suo software per la creazione di immagini politiche raffiguranti figure di spicco come Joe Biden e Donald Trump.

L’obiettivo è impedire che tali strumenti vengano utilizzati in modo distorto e influenzare il processo elettorale.

David Holz, portavoce di Midjourney, ha chiarito che l’azienda sta per imporre un divieto sull’uso di immagini politiche, incluse quelle dei principali candidati presidenziali, per i prossimi 12 mesi, al fine di tutelare l’integrità del processo democratico in un periodo così critico.

Durante una discussione con gli utenti di Midjourney su una chat room su Discord (uno dei siti più utilizzati al mondo per le chat verticali su specifici settori tra cui i videogame e che attualmente è la porta di accesso al tool di Midjourney) , Holz ha commentato: “So che può sembrare divertente creare foto di Trump, lo faccio anch’io. Trump è esteticamente molto interessante. Tuttavia, probabilmente è meglio astenersi, specialmente in queste elezioni.”

Il software dispone già di una serie di misure di sicurezza: le linee guida sugli standard della community di Midjourney vietano le immagini che sono “irrispettose, dannose, rappresentazioni di personaggi pubblici/eventi o potenzialmente fuorvianti”, ma sono facilmente superabili.

Hany Farid, esperto di digital forensics e professore presso l’Università della California, Berkeley, sottolinea che, anche se Midjourney proibisce agli utenti di creare immagini contenenti figure politiche specifiche, ciò rappresenta al massimo una soluzione temporanea e non risolutiva.

Questa problematica coinvolge non solo Midjourney, ma anche altre aziende come Inflection AI e Facebook di Meta, che stanno adottando misure per contrastare la disinformazione politica.

Mustafa Suleyman, CEO di Inflection AI, ha dichiarato che il chatbot della sua azienda non supporterà alcun candidato politico, mentre Facebook di Meta prevede di identificare e contrassegnare i contenuti generati tramite strumenti di intelligenza artificiale come parte della sua strategia per contrastare la disinformazione durante il periodo elettorale.

Tra le aziende più attive, OpenAI mostra una preoccupazione per la trasparenza e la democrazia, adottando misure preventive contro un possibile abuso dell’IA.

OpenAI ha recentemente aggiornato le proprie politiche sull’utilizzo dei suoi prodotti, vietando agli utenti di utilizzare strumenti come ChatGPT, DALL-E e altri per impersonare candidati o istituzioni, per campagne politiche o lobbying, o per diffondere disinformazione elettorale. Inoltre, l’azienda prevede di incorporare credenziali digitali per autenticità nelle immagini generate da DALL-E, in collaborazione con la Coalition for Content Provenance and Authenticity (C2PA), insieme ad aziende come Microsoft, Amazon, Adobe e Getty.

OpenAI sta anche collaborando con National Association of Secretaries per indirizzare gli utenti verso la piattaforma CanIVote.org, una fonte affidabile di informazioni sul voto negli Stati Uniti. L’integrazione di ChatGPT con fonti di informazione esistenti permetterà agli utenti di accedere a notizie in tempo reale con attribuzioni e collegamenti, promuovendo la trasparenza e aiutando gli elettori a valutare meglio le informazioni.