Nel gennaio 2023, Getty Images ha avviato un procedimento legale presso il tribunale di Londra contro Stability AI, la società responsabile di Stable Diffusion, un modello di apprendimento automatico profondo basato su deep learning. L’accusa principale riguardava la presunta violazione del copyright, con Stability AI accusata di aver illegalmente replicato milioni di immagini protette da copyright e relativi metadati. Stable Diffusion, noto per generare immagini da descrizioni testuali, è stato addestrato utilizzando coppie immagine-testo dal dataset pubblico LAION-5B.

Getty Images, con sede a Seattle, ha sostenuto che Stability AI ha infranto i diritti di copyright di proprietà o rappresentati dall’azienda. L’accusa era che Stable Diffusion stesse copiando e processando illegalmente milioni di immagini protette da copyright senza alcuna licenza, a vantaggio di Stability AI e a discapito dei creatori di contenuti.

Un mese dopo, Getty Images ha intensificato la battaglia legale presentando un’ulteriore causa contro Stability AI negli Stati Uniti presso il tribunale distrettuale del Delaware. In questa azione legale, Getty ha accusato Stability AI di una “violazione sfacciata della proprietà intellettuale di Getty Images su scala sconcertante”, sostenendo che la startup aveva copiato oltre 12 milioni di immagini dal suo database senza autorizzazione, nel tentativo di costruire un business concorrente. Anche qui, la violazione riguardava sia il copyright che il marchio.

La battaglia legale potrebbe in questo caso concentrarsi sull’interpretazione della dottrina statunitense del fair use, che potrebbe proteggere l’uso non autorizzato di opere protette da copyright in circostanze specifiche.

Il 5 dicembre, le prime risposte, il tribunale inglese ha respinto le argomentazioni di Stability AI contro la causa di Getty Images. La corte ha stabilito che i materiali protetti da copyright di Getty Images erano stati utilizzati illegalmente per addestrare i modelli di intelligenza artificiale di Stability AI. Il giudice Joanna Smith ha sollevato dubbi sulla completezza e accuratezza delle prove presentate da Stability AI, indicando la necessità di un’indagine più approfondita.

Stability AI ha cercato di archiviare il caso, volendo dimostrare che i suoi modelli erano stati formati principalmente a Monaco e non nel Regno Unito, contestando la sede giuridica. Tuttavia, il giudice ha messo in dubbio la veridicità di tali prove, suggerendo che potrebbero essere “incomplete o inaccurate”. Ha sottolineato la necessità di un processo completo per rispondere alle questioni ancora aperte.

Quel che è certo è che il verdetto finale della sentenza avrà implicazioni significative sulla regolamentazione futura dell’utilizzo di immagini protette da copyright da parte dei modelli di intelligenza artificiale, potenzialmente obbligando gli sviluppatori a pagare i diritti d’autore o a eliminare le immagini protette dai loro set di addestramento.

Tale vicenda evidenzia i delicati confini tra la creatività dell’IA e la tutela della proprietà intellettuale.