Lo scorso agosto, Il giornalista Martin Bernklau è stato coinvolto in un caso di diffamazione causato da Copilot, la piattaforma di intelligenza artificiale sviluppata da Microsoft.
L’episodio ha avuto origine quando Bernklau ha deciso di utilizzare Copilot per monitorare la diffusione dei suoi articoli online, inserendo il proprio nome e luogo di residenza. Inaspettatamente, l’intelligenza artificiale ha associato il giornalista a crimini terribili, trasformandolo in un fuggitivo da un istituto psichiatrico, nonché in un abusatore di minori e truffatore.
Questa distorsione è avvenuta poiché Copilot ha erroneamente collegato il nome di Bernklau ai casi giudiziari su abusi e frodi di cui lui stesso aveva scritto, confondendolo con i criminali protagonisti dei suoi articoli.
Dopo l’accaduto, Bernklau ha presentato una denuncia presso la procura di Tubinga, ma il caso è stato archiviato, poiché, secondo il giudice, non vi è un autore umano imputabile per le affermazioni diffamatorie: l’IA non può essere accusata di questi reati. Anche il responsabile della protezione dei dati della Baviera ha tentato di risolvere la situazione contattando Microsoft che, in primo luogo aveva rimosso le informazioni diffamanti ma, le notizie diffamatorie, sono riemerse pochi giorni dopo sulla piattaforma.
Nel nostro paese questo reato sarebbe assimilabile alla diffamazione aggravata poiché ChatGPT può essere considerato uno strumento di pubblicità; tuttavia, il caso dell’attore intelligenza artificiale non è ancora definito nell’ordinamento giuridico italiano. Non vi è un espresso rinvio alla normativa sulla diffamazione aggravata per le condotte suddette, e la giurisprudenza sul punto non ha delineato un orientamento essendo un tema di estrema attualità.
Il giornalista ha assunto un avvocato, sostenendo che le dichiarazioni diffamatorie, pur essendo generate da un’intelligenza artificiale, costituiscono una violazione della sua dignità e sono facilmente rintracciabili online.
L’episodio è un chiaro esempio delle cosiddette “allucinazioni” dell’intelligenza artificiale, un fenomeno in cui i modelli generativi, come Copilot, ChatGPT o Google Gemini, producono informazioni inesatte. Questi sistemi, addestrati su vasti set di dati, generano risposte basandosi su associazioni statistiche piuttosto che su una vera comprensione della realtà, con conseguenze a volte pericolose.
La questione è seria perché sembra che queste allucinazioni siano inevitabili, poiché i modelli sono progettati per generare risposte basate sui dati di addestramento, senza garantire necessariamente l’accuratezza delle informazioni fornite.
Gli LLM funzionano come strumenti avanzati di completamento del testo, producendo risposte anche su argomenti che non sono presenti nei loro dati. Essi non sono progettate come i motori di ricerca per dare risposte veritiere ma essenzialmente per soddisfare l’utente.
In base a quanto detto in precedenza possiamo affermare che per le aziende come Microsoft e OpenAI sembra molto difficile eliminare completamente le “allucinazioni”, poiché rappresentano una caratteristica intrinseca dei modelli linguistici di grandi dimensioni; la soluzione che viene adottata al momento è l’intervento “ex post”, correggendo gli errori solo dopo che vengono segnalati.
Ma questa modalità di azione solleva dubbi sulla reale tutela che abbiamo nei confronti di queste grandi piattaforme.