Prima che il digitale divenisse parte fondamentale della nostra vita, pensavamo che dimenticare fosse per certi versi un problema, un limite, un deficit cognitivo. Successivamente, quando il sistema binario e le tecnologie di comunicazione lo hanno consentito e le informazioni sono divenute permanenti ed immutabili, ci siamo resi conto che la memoria poteva rappresentare un problema: ricordare tutto significherebbe dover fare i conti continuamente con il passato, doverlo portare sulle spalle come un fardello enorme, in grado di schiacciarci. Ed allora ci si è resi conto che dimenticare era spesso una necessità, ma anche un diritto fondamentale.

Mai avremmo potuto immaginare, fino a qualche anno fa, che dimenticare potesse divenire una necessità anche per sistemi algoritmici o di intelligenza artificiale. Adesso ci si rende conto che con l’esplosione dell’IA generativa, molto spesso addestrata con sistemi di “webscraping” incontrollato, , nei dati di questi sistemi, sono presenti molte informazioni che possono, rivelarsi poco utili o anche pericolose perché non veritiere.

Molto interessante in proposito il documento elaborato da Emmie Hine, Claudio Novelli (ricercatori presso il Dipartimento di Scienze Giuridiche dell’Università di Bologna), Mariarosaria Taddeo (Professore di Etica Digitale e Tecnologie di Difesa all’Università di Oxford) )e Luciano Floridi (Direttore e fondatore del Digital Ethics Center a Yale), dal titolo “Supporting Trustworthy AI Through Machine Unlearning” (“Supportare un’intelligenza artificiale affidabile attraverso il machine unlearning”).

Il documento esplora il concetto di Machine Unlearning (MU), ovvero la capacità dei modelli di apprendimento automatico di “dimenticare” o rimuovere l’influenza di dati specifici su un modello esistente.

Questa funzione è particolarmente rilevante in contesti dove la privacy e i diritti dei dati sono prioritari, come nel caso del diritto all’oblio sancito dall’UE. La pratica del MU si allinea ai principi OCSE per un’AI di fiducia, evidenziando l’importanza dell’affidabilità nei sistemi di intelligenza artificiale.

I princìpi OCSE sono stati adottati nel 2019 e mirano a promuovere l’uso di AI che sia innovativo e di fiducia, nel rispetto dei diritti umani e dei valori democratici, fornendo standard pratici e flessibili per il futuro dell’AI.
Essi prevedono:

  • ​Crescita inclusiva, sviluppo sostenibile e benessere.
  • Valori umani e equità.
  • Trasparenza e spiegabilità.
  • Robustezza, sicurezza e sicurezza.
  • Responsabilità.

Il documento afferma che muoversi verso un’intelligenza artificiale che possa disimparare richiede una rigorosa valutazione etica e l’implementazione di politiche adeguate. La trasparenza e la comprensione dei processi di MU sono essenziali per assicurare che gli utenti comprendano come e perché i dati vengono rimossi dai modelli. Inoltre, la sicurezza e l’accuratezza di questi processi sono cruciali per mantenere la fiducia nel sistema e garantire che non si verifichino danni a seguito del processo di unlearning.

Dalle prospettive etiche a quelle politiche, il MU solleva questioni fondamentali su come gestire i dati e i modelli di apprendimento automatico in modo responsabile. È fondamentale che la ricerca nel campo del MU venga promossa e che vi siano investimenti adeguati per sviluppare metodologie che garantiscano l’efficacia e la sicurezza di tale pratica.

Il MU si pone come un elemento chiave per l’avanzamento di un’intelligenza artificiale che sia non solo potente e innovativa, ma anche rispettosa dei diritti individuali e collettivi. Ricerca e politiche mirate possono supportare questo avanzamento, contribuendo a costruire un futuro in cui la tecnologia lavora a favore dell’umanità e del rispetto dell’ambiente circostante.