La società ha dichiarato il suo impegno nella creazione di partnership con testate giornalistiche, avendo incontrato numerose persone e organizzazioni del settore per affrontare preoccupazioni e offrire soluzioni. L’obiettivo dichiarato è di sostenere un ecosistema di notizie sano e creare opportunità reciprocamente vantaggiose. Come esempi di questo approccio, OpenAI ha citato le partnership con Associated Press, Axel Springer, American Journalism Project e NYU.
OpenAI ha difeso la pratica di addestrare i modelli con materiale Internet pubblico, sostenendo che ciò rientra nel fair use (dottrina legale statunitense che sancisce la possibilità di riutilizzare, in determinate circostanze, del materiale protetto da copyright senza necessità di autorizzazioni da parte del titolare del copyright – ndr), con ampi precedenti a supporto. Tuttavia, per rispettare le volontà delle testate giornalistiche, l’azienda ha introdotto un processo di opt-out, dimostrando così l’impegno nel bilanciare diritti legali e responsabilità etica.
Nel post, la società ha ammesso la presenza di un raro bug nei modelli, chiamato “Regurgitation”, ovvero la memorizzazione di alcuni contenuti inseriti da molti utenti nel sistema. Tuttavia, ha assicurato di essere attivamente impegnata nel ridurre questo problema a zero.
La situazione diventa interessante quando, nel post, OpenAI ha esplicitamente dichiarato che il New York Times non avrebbe raccontato l’intera vicenda, esprimendo sorpresa e delusione per la causa intentata dal giornale. Secondo Open, in realtà, le trattative con il Times erano iniziate molto prima e sembravano procedere in modo costruttivo fino alla comunicazione del 19 dicembre. L’azienda aveva proposto una partnership sulla visualizzazione in tempo reale con attribuzione in ChatGPT, offrendo al New York Times un nuovo modo per connettersi con i lettori e consentendo agli utenti di OpenAI l’accesso ai loro report. OpenAI ha specificato che i contenuti del Times, come ogni altra fonte, non contribuivano in modo significativo alla formazione dei loro modelli esistenti e non avrebbero avuto un impatto rilevante sulla formazione futura.
Durante le trattative, il giornale aveva evidenziato la presenza di alcuni casi di “Regurgitation”, ma aveva rifiutato di fornire esempi specifici per indagare e risolvere eventuali problemi. OpenAI ha respinto le accuse del New York Times come prive di merito, suggerendo che i bug segnalati sembravano derivare da articoli datati di anni che si erano diffusi su numerosi siti web di terze parti. L’azienda presumeva che ciò potesse essere un tentativo intenzionale di manipolare i suggerimenti, incluso l’inserimento di lunghi estratti di articoli, per confondere il proprio modello.
OpenAI ha concluso respingendo le accuse del New York Times come infondate. L’azienda si è impegnata a continuare a collaborare con le testate giornalistiche per contribuire all’elevazione del giornalismo di qualità attraverso l’applicazione dell’intelligenza artificiale. Ha mantenuto aperta la porta al dialogo e alla risoluzione delle divergenze con il New York Times, rispettando la lunga storia di collaborazione.
D’altra parte, come rileva Stefano Feltri, la vera posta in gioco non è il materiale del NYT o il solo copyright, ma riguarda l’impatto dell’intelligenza artificiale sulla società.