L’impegno del Garante della Privacy per garantire la protezione dei dati degli utenti italiani che utilizzano ChatGpt, è ancora in corso.
A fine marzo scorso, il Garante Privacy italiano aveva identificato seri rischi per la privacy degli utenti di Open AI, portando alla temporanea limitazione del trattamento dei dati degli utenti italiani e al blocco di ChatGpt nel paese.
In risposta, Open AI aveva temporaneamente oscurato la piattaforma. Il blocco era durato un mese, con il ripristino di ChatGpt alla fine di aprile, dopo che OpenAI aveva apportato alcune delle modifiche richieste dal Garante su alcuni degli aspetti critici.
Da quel momento, il Garante ha richiesto a OpenAI di conformarsi a una serie di regole per adeguarsi al contesto legislativo europeo, contestualmente, ha però avviato un’istruttoria per verificare se la società di Sam Altman avesse compiuto altri illeciti rispetto a quanto stabilito dal GDPR.
Il 29 gennaio, il Garante ha comunicato i risultati dell’istruttoria in corso, notificando ufficialmente a Open AI le contestazioni per la violazione della normativa sulla protezione dei dati personali.
Ora, la società americana ha 30 giorni per rispondere e presentare le proprie difese.
Il Garante ha anche comunicato che nella definizione del procedimento terrà conto dei lavori in corso nell’ambito della speciale task force, istituita lo scorso anno dal Board che riunisce le Autorità di protezione dati dell’Ue (Edpb). Il procedimento potrebbe portare a sanzioni significative per Open AI, con una possibile penalità tra il 2% e il 4% del fatturato della società, traducibile in decine di milioni di dollari.
Le contestazioni riguardano questioni del 2023, come la base giuridica del trattamento dei dati personali, le “allucinazioni” del chatbot che generano risposte inesatte e possono portare a una gestione impropria delle informazioni, la trasparenza e la tutela dei minori.
Il Garante ha inviato la contestazione ad OpenAI. Presso la sua sede europea, in Irlanda.
Questo processo sottolinea l’importanza di una regolamentazione chiara sull’uso degli algoritmi di intelligenza artificiale al fine di mitigare i rischi legati a bias e pregiudizi; infatti, nonostante i numerosi provvedimenti legislativi sembra che la strada da percorrere sia ancora lunga.