Un nuovo longform del New York Times svela le motivazioni dietro una lettera aperta di un gruppo di attuali ed ex dipendenti di OpenAI che chiedono alle aziende di intelligenza artificiale, incluso il produttore di ChatGPT, di implementare protezioni più forti per i dipendenti che segnalano rischi legati alla tecnologia AI. L’obiettivo della lettera sarebbe di garantire che i ricercatori, in veste di whistle-blowers, possano avvisare sui pericoli senza timore di ritorsioni. È sempre molto alto il livello di interesse da parte del NYT nei confronti di OpenAI verso cui, ricordiamo, ha intentato una importante causa per violazione del copyright per aver addestrato i propri modelli con i dati e gli articoli del giornale senza alcuna autorizzazione.

Tra i firmatari della lettera aperta ci sono William Saunders, un ingegnere e ricercatore che ha lasciato OpenAI a febbraio, Carroll Wainwright, Jacob Hilton, Daniel Ziegler e Daniel Kokotajlo, ex ricercatore nella divisione di governance di OpenAI che ha anche spiegato al New York Times le motivazioni dietro questa campagna di sensibilizzazione.

Kokotajlo ha raccontato che, anche se l’azienda disponeva di protocolli di sicurezza ed uno di questi era un protocollo congiunto con Microsoft noto come “deployment safety board” il cui scopo era di rivedere i nuovi modelli per i principali rischi prima che fossero rilasciati pubblicamente , raramente questi protocolli entravano in funzione.

Ad esempio, ha detto Kokotajlo, nel 2022 Microsoft ha iniziato a testare silenziosamente in India una nuova versione del suo motore di ricerca Bing che alcuni dipendenti di OpenAI credevano contenesse una versione allora inedita di GPT-4, il modello di linguaggio di grandi dimensioni all’avanguardia di OpenAI. Kokotajlo ha detto di aver saputo che Microsoft non aveva ottenuto l’approvazione del comitato di sicurezza prima di testare il nuovo modello, e dopo che il comitato venne a conoscenza dei test – attraverso una serie di rapporti secondo cui Bing si stava comportando in modo strano nei confronti degli utenti – non fece nulla per fermare Microsoft dal diffonderlo in modo più ampio.

Daniel Ziegler, ex ingegnere di OpenAI e uno degli organizzatori della lettera, ha espresso preoccupazioni per la rapida evoluzione dei sistemi di IA e gli incentivi a procedere senza la dovuta cautela. Ziegler, che ha lavorato in OpenAI dal 2018 al 2021, teme che la corsa alla commercializzazione stia inducendo l’azienda e i suoi concorrenti a ignorare i rischi.

La lettera aperta, firmata da 13 persone tra cui ex dipendenti di OpenAI e DeepMind di Google, e alcuni attuali dipendenti anonimi di OpenAI, chiede di abolire gli accordi di “non denigrazione” che potrebbero penalizzare i lavoratori critici. La reazione dei social media ha recentemente costretto OpenAI a liberare tutti i suoi ex dipendenti da tali accordi.

OpenAI ha risposto alla lettera affermando di avere già in atto misure per consentire ai dipendenti di esprimere le proprie preoccupazioni, inclusa una hotline anonima per l’integrità. L’azienda ha sottolineato l’importanza di un dibattito rigoroso sulla tecnologia AI.

La lettera ha ricevuto il sostegno di noti scienziati dell’intelligenza artificiale come Yoshua Bengio, Geoffrey Hinton e Stuart Russell, che hanno messo in guardia sui potenziali rischi esistenziali legati ai futuri sistemi di IA.

L’appello arriva in un momento critico per OpenAI, impegnata nello sviluppo della prossima generazione di tecnologia AI dietro ChatGPT e nella formazione di un nuovo comitato per la sicurezza, dopo la perdita di alcuni leader chiave.

La comunità di ricerca sull’IA è da tempo divisa sui rischi a breve e lungo termine dell’IA e su come bilanciarli con la commercializzazione della tecnologia. Questi conflitti hanno influenzato la leadership di OpenAI, contribuendo alla cacciata e al rapido ritorno del CEO Sam Altman. Recentemente, una presentazione di un nuovo prodotto ha sollevato polemiche quando la star di Hollywood Scarlett Johansson ha criticato l’uso della sua voce senza autorizzazione.

Molti firmatari della lettera, incluso Ziegler, sono legati al movimento dell’altruismo efficace, che si concentra sulla mitigazione dei potenziali impatti negativi dell’intelligenza artificiale. Ziegler ha sottolineato che le preoccupazioni riguardano non solo i rischi futuri “catastrofici” ma anche questioni di equità, l’uso improprio dei prodotti, la perdita di posti di lavoro e la manipolazione delle persone senza adeguate garanzie.

L’appello lanciato dalla lettera aperta rappresenta una richiesta di maggiore supervisione e trasparenza da parte delle aziende di intelligenza artificiale, con l’obiettivo di aumentare la fiducia del pubblico e garantire uno sviluppo tecnologico responsabile.