È Mathew Ingram su Columbia Journalism Review che, questa volta, si cimenta sul difficile terreno del rapporto tra Intelligenza Artificiale e Copyright.
Siamo davvero sicuri che l’addestramento di tali sistemi con materiali anche coperti dal diritto d’autore ne rappresenti una violazione?
L’avvento e la rapida diffusione dei grandi modelli linguistici (LLM) basati su intelligenza artificiale hanno rivoluzionato il mondo digitale, offrendo possibilità prima inimmaginabili. Tuttavia, questa innovazione ha anche sollevato interrogativi urgenti riguardanti il copyright e la protezione del lavoro creativo. Autori, editori e professionisti del settore creativo accusano le aziende tecnologiche di utilizzare i loro lavori per addestrare le IA senza il dovuto consenso o compensazione.
I giganti tecnologici come OpenAI, Meta e Google si trovano sotto i riflettori, con un crescente numero di cause legali intentate da coloro che vedono i loro diritti di copyright violati. La questione centrale riguarda l’utilizzo di testi protetti da copyright per addestrare modelli che sono poi commercializzati. Le aziende si difendono appellandosi alla dottrina del “fair use”.
La dottrina del fair use è stata definita per bilanciare le protezioni del Copyright Act del 1976 e per evitare il rischio di soffocare la creatività, secondo una sentenza della Corte Suprema degli Stati Uniti del 1990. La legge statunitense prevede alcuni esempi di attività che possono essere considerate come fair use, tra cui critica, commento e reportage.
In America i tribunali devono valutare quattro fattori per determinare se un uso specifico sia lecito: lo scopo dell’uso, se sia trasformativo o meno, la natura del materiale protetto da copyright, la quantità e sostanzialità del materiale utilizzato, e l’effetto dell’uso sul mercato dell’opera originale.
Matthew Sag, professore di diritto alla Emory University, ha dichiarato che tecnicamente i motori di intelligenza artificiale non copiano i lavori originali ma piuttosto li “digeriscono”, per apprendere come funziona il linguaggio umano. Piuttosto che pensare a un motore di intelligenza artificiale come a copiare un libro “come uno scriba in un monastero”, ha detto Sag, ha più senso pensarlo come un modo per imparare dai dati, come farebbe uno studente.
Anche Alex Reisner, In un articolo su The Atlantic, esamina l’argomento e ritiene che l’uso di opere protette da copyright nell’addestramento dell’intelligenza artificiale potrebbe essere considerato “fair use “perché l’intelligenza artificiale generativa non copia le opere di cui prende informazioni, ma ne crea nuove senza recare danni alle opere originali.
La questione è stata affrontato anche in Italia con un’altra declinazione, il garante della privacy aveva bloccato ChatGPT, “OpenAi non ha mai fornito una informativa sul trattamento dei dati degli utenti e degli interessati, manca una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma” dichiarava Guido scorza a marzo.
Il tema dell’uso di dati protetti dal copyright nei sistemi di intelligenza artificiale (AI) viene affrontato nell’AI Act, che fornisce linee guida riguardo agli obblighi degli sviluppatori di AI. Secondo l’articolo 28b (4c.) dell’AI Act, i fornitori di AI generativa sono tenuti a documentare e rendere pubblica una sintesi dell’utilizzo dei dati di addestramento protetti da copyright. Questo sembra suggerire un obbligo di clearance preventiva, ovvero i fornitori devono elencare in anticipo qualsiasi materiale coperto da copyright utilizzato per l’addestramento dei loro modelli.
Tuttavia, la legge non fornisce dettagli specifici su come debba essere gestita questa attività preventiva, lasciando incertezze sul suo ambito di applicazione.
Secondo l’opinione di alcuni esperti, come João Pedro Quintais, Professore assistente presso l’Istituto di diritto dell’informazione Università di Amsterdam è utile un tipo di trasparenza che permetta ai detentori dei diritti d’autore di comprendere e controllare l’uso dei propri contenuti da parte delle tecnologie AI, forse attraverso un meccanismo di opt-out. Tuttavia, resta da chiarire come l’AI Act possa concretamente supportare e facilitare questo tipo di trasparenza e controllo data la sua attuale formulazione.