stretta di mano

Durante la Conferenza sulla sicurezza di Monaco , tenutasi il 16 febbraio 2024, riunione di leader politici ed esperti di sicurezza globali, è stato firmato un accordo che coinvolge 20 aziende tecnologiche di spicco tra queste figurano le principali piattaforme social e le società di intelligenza artificiale,  tra cui Google, Meta, Microsoft, OpenAI e TikTok.

L’accordo si focalizza sull’affrontare i crescenti rischi legati ai contenuti ingannevoli generati dall’intelligenza artificiale, soprattutto in contesti elettorali.

I firmatari si sono impegnati a sviluppare e implementare tecnologie atte a mitigare tali rischi, individuare e contrastare la diffusione di tali contenuti sulle loro piattaforme e adottare misure appropriate. Oltre a ciò, l’accordo prevede lo scambio di migliori pratiche, una trasparenza totale riguardo alle politiche adottate, un dialogo costante con la società civile e le istituzioni accademiche per ricevere feedback e promuovere la consapevolezza e la resilienza della società di fronte a tali minacce.

Nick Clegg, presidente degli affari globali di Meta ha affermato “Nessuna azienda tecnologica, nessun governo, nessuna organizzazione della società civile è in grado di affrontare da sola l’avvento di questa tecnologia e il suo possibile uso nefasto”.

Sebbene l’accordo sia principalmente simbolico, esso mira a contrastare immagini, audio e video generati dall’intelligenza artificiale che possono falsificare o alterare l’aspetto, la voce o le azioni di figure politiche e funzionari elettorali, o diffondere informazioni false agli elettori. L’accordo invita le piattaforme a prestare particolare attenzione al contesto e a garantire la salvaguardia delle espressioni educative, documentaristiche, artistiche, satiriche e politiche, oltre a promuovere la massima trasparenza riguardo alle loro politiche e a educare il pubblico su come riconoscere la disinformazione.

Le aziende coinvolte non si sono impegnate a vietare o rimuovere i deepfake, ma si sono concentrate su metodi per individuare ed etichettare i contenuti ingannevoli dell’intelligenza artificiale sulle loro piattaforme e garantendo risposte rapide e proporzionate in caso di diffusione di tali contenuti.

Nonostante le critiche riguardo alla vaghezza degli impegni e alla mancanza di requisiti vincolanti. Rachel Orey, direttrice associata senior del progetto Bipartisan Policy Center, ha riconosciuto l’importanza di evitare che gli strumenti tecnologici compromettano elezioni libere ed eque ed ha sottolineato l’esigenza del monitoraggio attento per garantire l’attuazione degli impegni.

Alcuni leader politici europei e statunitensi hanno accolto positivamente l’accordo, mettendo in guardia sui potenziali rischi della disinformazione alimentata dall’intelligenza artificiale e sottolineando l’importanza di un uso responsabile di tali tecnologie. Vera Jourová, vicepresidente della Commissione europea, ha affermato che sebbene un tale accordo non possa essere completo, “contiene elementi positivi e di grande impatto”.

Nonostante molte aziende abbiano già adottato politiche per scoraggiare i post ingannevoli sui processi elettorali, sono state sollecitate a fare di più. Alcune società di intelligenza artificiale sono state invitate a ridurre la diffusione della tecnologia fino a quando non saranno implementate misure di salvaguardia adeguate.

Oltre alle aziende coinvolte direttamente nell’accordo, altre hanno sottolineato l’importanza della collaborazione, sottoscrivendo l’accordo: gli sviluppatori di chatbot Anthropic e Inflection AI, ElevenLabs, startup di clonazione vocale, Arm Holdings, progettista di chip, società di sicurezza McAfee e TrendMicro, e Stability . Un’assenza importante è  quella di Midjourney, generatore di immagini IA, che però sembra che si stia muovendo già in questa direzione.