elezioni e chatgpt

In vista dei numerosi appuntamenti elettorali previsti nel 2024, dalla politica degli Stati Uniti all’Europa, e considerando il diffuso timore legato ai deepfake, OpenAI ha recentemente annunciato, attraverso un post sul suo blog, la sua risoluta determinazione  a migliorare il suo impegno per rendere sicura la piattaforma fornendo informazioni accurate sul voto, applicando politiche adeguate e migliorando la trasparenza. “Abbiamo uno sforzo trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle intelligence sulle minacce, dei team legali, tecnologici e politici per indagare e risolvere rapidamente i potenziali abusi” scrivono da OpenAI.

La società è consapevole che la salvaguardia dell’integrità delle elezioni richiede un impegno da parte di tutti gli attori del processo democratico ed anche dei numerosi pericoli dovuti all’addestramento dei grandi modelli di linguaggio naturale che possono incorporare i bias presenti nel materiale di addestramento.

In questo senso l’azienda afferma: “Per esempio, DALL-E è dotato di “guardrail “per rifiutare le richieste che richiedono la generazione di immagini di persone reali, compresi i candidati.

Affiniamo regolarmente le nostre politiche d’uso per ChatGPT e l’API, man mano che impariamo a conoscere il modo in cui le persone usano o tentano di abusare della nostra tecnologia. Ne ricordiamo alcune per le elezioni:

  • Stiamo ancora lavorando per capire quanto possano essere efficaci i nostri strumenti per la persuasione personalizzata. Finché non ne sapremo di più, non permetteremo alle persone di creare applicazioni per campagne politiche e lobbying.
  • Le persone vogliono sapere e credere che stanno interagendo con una persona, un’azienda o un governo reali. Per questo motivo, non permettiamo ai costruttori di creare chatbot che fingano di essere persone reali (ad esempio, candidati) o istituzioni (ad esempio, amministrazioni locali).
  • Non permettiamo applicazioni che dissuadano le persone dal partecipare ai processi democratici, ad esempio travisando i processi di voto e le qualifiche (ad esempio, quando, dove o chi ha diritto di voto) o scoraggiando il voto (ad esempio, sostenendo che un voto è privo di significato).
  • Con i nuovi GPT, gli utenti possono segnalarci potenziali violazioni.”

Inoltre, l’azienda ha annunciato la volontà di collaborare strettamente con organizzazioni come la National Association of Secretaries of State negli Stati Uniti, al fine di indirizzare gli utenti verso fonti autorevoli di informazioni sul voto. Infine, l’integrazione di ChatGPT con fonti di informazione esistenti mira a fornire agli utenti accesso a notizie in tempo reale a livello globale, promuovendo la trasparenza sull’origine delle informazioni.