IMMAGINE REALIZZATA CON IA MIDJOURNEY

Joel Simon è il fondatore e direttore della Journalism Protection Initiative presso la Craig Newmark Graduate School of Journalism, un’iniziativa volta ad esaminare le crescenti minacce al giornalismo e ai giornalisti sia negli Stati Uniti che nel resto del mondo, concentrandosi particolarmente sul fenomeno della disinformazione, della propaganda, della regolamentazione e delle politiche tecnologiche.

Simon, in un articolo su Columbia Journalism Review, ha analizzato la responsabilità dei nuovi strumenti di intelligenza artificiale in caso di output diffamatori, questione che diventa sempre più rilevante con la diffusione di questi sistemi.

La sua analisi parte da uno studio dal titolo “Freedom of Speech and AI Output”, pubblicato, ad agosto 2023, sul Journal of Free Speech Law, condotto da Eugene Volokh professore di giurisprudenza dell’UCLA.

Il professor Volokh ha posto delle domande su alcune persone di spicco a ChatGPT ed alcune delle risposte generate dal bot sono risultate essere false e diffamatorie.  In particolare, ChatGPT ha erroneamente affermato che un personaggio pubblico si fosse dichiarato colpevole di frode telematica, basando tale affermazione su una falsa citazione della Reuters ed anche che diversi professori di diritto erano stati accusati di molestie sessuali.

C’è da chiedersi quali possano essere le conseguenze legali in questi casi mentre sorgono spontanee alcune domande: l’intelligenza artificiale può essere citata in giudizio per diffamazione? I risultati dell’intelligenza artificiale generativa hanno diritto alla protezione del Primo Emendamento (USA)?

Volokh ritiene, per entrambe le domande, di sì e, anche se gli attuali programmi di intelligenza artificiale ovviamente non sono persone e non godono di diritti costituzionali, la loro parola potrebbe essere potenzialmente protetta a causa dei diritti dei creatori dei programmi.

Per rispondere a queste domande Volokh parte dalla considerazione che la sezione 230 del Communications Decency Act del 1996 americana, che sancisce la non responsabilità delle piattaforme social in caso di contenuti diffamatori pubblicati dai loro utenti, (“Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi) non possa essere applicata anche per i nuovi strumenti di intelligenza artificiale perché i contenuti generati non vengono creati da persone come nel caso dei social media ma direttamente dalla macchina.

Per intentare un’azione legale contro questi strumenti il professore indentifica due possibilità.

La prima rientra nell’ipotesi della cosiddetta “malizia reale” articolato per la prima volta dalla Corte Suprema degli Stati Uniti nel 1964 nel caso del New York Times contro Sullivan.

La decisione storica della Corte Suprema degli Stati Uniti del 1964 nel caso New York Times Co. contro Sullivan consolidò la libertà di stampa garantita dal Primo Emendamento. Il caso ebbe origine quando funzionari dell’Alabama citarono in giudizio il New York Times per diffamazione in seguito a un annuncio che criticava l’arresto di Martin Luther King Jr. Gli imputati furono condannati inizialmente, ma la Corte Suprema ribaltò la decisione, sostenendo che mancavano prove di malizia effettiva e che il caso non dimostrava una negligenza evidente nella pubblicazione delle informazioni. Questa decisione rafforzò significativamente la protezione della libertà di parola e di stampa negli Stati Uniti, ponendo un limite alto per le cause di diffamazione intentate da pubblici ufficiali e aprendo la strada a una maggiore libertà di espressione e discussione pubblica.

Per Volokh quindi, in questo caso, la causa potrebbe essere intentata esclusivamente se una società di intelligenza artificiale fosse avvisata che il suo programma stia generando specifici contenuti falsi e diffamatori e non intraprendesse alcuna azione, perché in quel caso agirebbe con “malizia reale”.

La seconda possibilità di azione verso un’azienda di IA delineato da Volokh è che le società di intelligenza artificiale possono essere responsabili di negligenza se ci sono difetti nella progettazione del prodotto che inducono a generare contenuti diffamatori e l’azienda non provvede a correggerli: quindi anche in questo caso ci sarebbe la possibilità di azione di responsabilità legale.

“La struttura della colpa all’interno del nostro attuale regime di responsabilità per diffamazione presuppone interamente un vero oratore umano con un vero stato d’animo umano. Semplicemente non è immediatamente adatto a questa nuova realtà tecnologica. Giudici e legislatori hanno un grande compito davanti a loro mentre lavoriamo per mappare i vecchi principi in un nuovo panorama della comunicazione”. Ha affermato Ronnell Andersen Jones, professore di diritto presso l’Università dello Utah.

Appare evidente come negli Stati Uniti così come in Europa e in Italia, urga la necessità di istituire un sistema di norme più specifiche in relazione alla possibilità di output diffamatori generati dai sistemi di IA.

Joel Simon sottolinea però che questo potrebbe comportare un rischio di un’autocensura troppo restrittiva da parte degli stessi strumenti di IA per non incorrere in errori di questo genere.

Gli esempi più lampanti riguardano l’autocensura che sia Gemini che Chatgpt stanno attuando in merito alle domande per le prossime elezioni vediamo infatti che lo strumento di Google, non risponderà a domande sulle elezioni o sui candidati politici. (“Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova Ricerca Google.”)  mentre ChatGPT, specifica che le risposte alle domande sono soggettive “e dipendono su prospettive e interpretazioni individuali”.

Se l’obiettivo deve essere quello di ottenere e garantire che il dibattito pubblico sia disinibito, robusto e aperto sembra che questa non sia la giusta strada da percorre.