Uno po' di quello che vuoi sapere su IA e informazione!
Interskills srl
SØØn
Newsletter 13 del 29 marzo 2024
Uno po' di quello che vuoi sapere su IA e informazione!

SØØn vuol essere un riepilogo settimanale di alcune delle numerose novità che evolvono continuamente il mondo dell'Intelligenza Artificiale. Non è possibile darne un resoconto completo o esaustivo, ci vorrebbero decine di pagine. Scegliamo quelle che possono riguardare, direttamente o indirettamente, il mondo dell'informazione e del giornalismo

Anche l'IA può diffamare

Joel Simon è il fondatore e direttore della Journalism Protection Initiative presso la Craig Newmark Graduate School of Journalism, un'iniziativa volta ad esaminare le crescenti minacce al giornalismo e ai giornalisti sia negli Stati Uniti che nel resto del mondo, concentrandosi particolarmente sul fenomeno della disinformazione, della propaganda, della regolamentazione e delle politiche tecnologiche.

Simon, in un articolo su Columbia Journalism Review, ha analizzato la responsabilità dei nuovi strumenti di intelligenza artificiale in caso di output diffamatori, questione che diventa sempre più rilevante con la diffusione di questi sistemi.

La sua analisi parte da uno studio dal titolo “Freedom of Speech and AI Output”, pubblicato, ad agosto 2023, sul Journal of Free Speech Law, condotto da Eugene Volokh professore di giurisprudenza dell'UCLA.

Il professor Volokh ha posto delle domande su alcune persone di spicco a ChatGPT, alcune delle risposte generate dal bot sono risultate essere false e diffamatorie.  In particolare, ChatGPT ha erroneamente affermato che un personaggio pubblico si fosse dichiarato colpevole di frode telematica, basando tale affermazione su una falsa citazione della Reuters ed anche che diversi professori di diritto erano stati accusati di molestie sessuali.

C’è da chiedersi quali possano essere le conseguenze legali in questi casi mentre sorgono spontanee alcune domande: l’intelligenza artificiale può essere citata in giudizio per diffamazione? I risultati dell’intelligenza artificiale generativa hanno diritto alla protezione del Primo Emendamento (USA)?

Volokh ritiene, per entrambe le domande, di sì e, anche se gli attuali programmi di intelligenza artificiale ovviamente non sono persone e non godono di diritti costituzionali, la loro parola potrebbe essere potenzialmente protetta a causa dei diritti dei creatori dei programmi. 

Per rispondere a queste domande Volokh parte dalla considerazione che la sezione 230 del Communications Decency Act del 1996 americana, che sancisce la non responsabilità delle piattaforme social in caso di contenuti diffamatori pubblicati dai loro utenti, ("Nessun fornitore e nessun utilizzatore di servizi Internet può essere considerato responsabile, come editore o autore, di una qualsiasi informazione fornita da terzi") non possa essere applicata anche per i nuovi strumenti di intelligenza artificiale perché i contenuti generati non vengono creati da persone come nel caso dei social media ma direttamente dalla macchina.

Per intentare un’azione legale contro questi strumenti il professore indentifica due possibilità.

La prima rientra nell’ipotesi della cosiddetta “malizia reale” articolato per la prima volta dalla Corte Suprema degli Stati Uniti nel 1964 nel caso del New York Times contro Sullivan

La decisione storica della Corte Suprema degli Stati Uniti del 1964 nel caso New York Times Co. contro Sullivan consolidò la libertà di stampa garantita dal Primo Emendamento. Il caso ebbe origine quando funzionari dell'Alabama citarono in giudizio il New York Times per diffamazione in seguito a un annuncio che criticava l'arresto di Martin Luther King Jr. Gli imputati furono condannati inizialmente, ma la Corte Suprema ribaltò la decisione, sostenendo che mancavano prove di malizia effettiva e che il caso non dimostrava una negligenza evidente nella pubblicazione delle informazioni. Questa decisione rafforzò significativamente la protezione della libertà di parola e di stampa negli Stati Uniti, ponendo un limite alto per le cause di diffamazione intentate da pubblici ufficiali e aprendo la strada a una maggiore libertà di espressione e discussione pubblica.

Per Volokh quindi, in questo caso, la causa potrebbe essere intentata esclusivamente se una società di intelligenza artificiale fosse avvisata che il suo programma stia generando specifici contenuti falsi e diffamatori e non intraprendesse alcuna azione, perché in quel caso agirebbe con “malizia reale”.

La seconda possibilità di azione verso un’azienda di IA delineato da Volokh è che le società di intelligenza artificiale possono essere responsabili di negligenza se ci sono difetti nella progettazione del prodotto che inducono a generare contenuti diffamatori e l’azienda non provvede a correggerli: quindi anche in questo caso ci sarebbe la possibilità di azione di responsabilità legale.

“La struttura della colpa all’interno del nostro attuale regime di responsabilità per diffamazione presuppone interamente un vero oratore umano con un vero stato d’animo umano. Semplicemente non è immediatamente adatto a questa nuova realtà tecnologica. Giudici e legislatori hanno un grande compito davanti a loro mentre lavoriamo per mappare i vecchi principi in un nuovo panorama della comunicazione”. Ha affermato Ronnell Andersen Jones, professore di diritto presso l’Università dello Utah.

Appare evidente come negli Stati Uniti così come in Europa e in Italia, urga la necessità di istituire un sistema di norme più specifiche in relazione alla possibilità di output diffamatori generati dai sistemi di IA.

Joel Simon sottolinea però che questo potrebbe comportare un rischio di un’autocensura troppo restrittiva da parte degli stessi strumenti di IA per non incorrere in errori di questo genere. 

Gli esempi più lampanti riguardano l’autocensura che sia Gemini che Chatgpt stanno attuando in merito alle domande per le prossime elezioni vediamo infatti che lo strumento di Google, non risponderà a domande sulle elezioni o sui candidati politici. ("Sto ancora imparando come rispondere a questa domanda. Nel frattempo, prova Ricerca Google.")  mentre ChatGPT, specifica che le risposte alle domande sono soggettive "e dipendono su prospettive e interpretazioni individuali”.

Se l’obiettivo deve essere quello di ottenere e garantire che il dibattito pubblico sia disinibito, robusto e aperto sembra che questa non sia la giusta strada da percorre.

OpenAI, nuove cause per violazione del copyright

Nel mese di febbraio 2024, The Intercept, Raw Story e AlterNet hanno presentato azioni legali presso il tribunale distrettuale meridionale di New York contro OpenAI, rappresentate dallo studio legale Loevy & Loevy.

Questi siti accusano ChatGPT di riprodurre proprie opere giornalistiche protette da copyright senza nemmeno fornire informazioni fondamentali come gli autori, i titoli, i diritti d'autore o i termini di utilizzo di tali opere.

Tale mancanza di attribuzione aggraverebbe la violazione dei diritti degli autori e del rispetto delle norme sul copyright. Infatti i legali lamentano che ChatGPT replica letteralmente o quasi letteralmente i propri contenuti senza fornire le necessarie informazioni sul copyright.

Le azioni legali avanzate da Raw Story e AlterNet vanno oltre, sostenendo che OpenAI e Microsoft erano consapevoli che l'eventuale violazione del copyright avrebbe compromesso la popolarità e le entrate di ChatGPT. Entrambe le società offrono una copertura legale ai clienti paganti nel caso di denunce per violazione del copyright riguardanti l'utilizzo di strumenti come Copilot o ChatGPT Enterprise.

È importante notare che OpenAI ha già affrontato altre cause legali riguardanti il copyright, dove l'azienda è riuscita a difendersi con successo. Nel luglio scorso, la comica Sarah Silverman insieme ad altri autori come Christopher Golden, Richard Kadrey, Paul Tremblay e Mona Awad aveva accusato OpenAI di aver utilizzato i loro lavori per addestrare ChatGPT senza consenso, violando il loro diritto d'autore. Tuttavia, il 19 febbraio 2024, la giudice federale Araceli Martínez-Olguín ha respinto le accuse.

Date queste premesse, la strategia legale di Loevy & Loevy si concentra sulla presunta violazione della Digital Millennium Copyright Act (DMCA) del 1998 da parte di OpenAI. Il Digital Millennium Copyright Act rende illegali la produzione e la divulgazione di tecnologie, strumenti o servizi che aggirino le misure di accesso ai lavori protetti dal copyright (conosciuti anche come DRM) e criminalizza l'elusione di dispositivi di controllo d'accesso, anche senza violazione effettiva del diritto d'autore. Inoltre, prevede un inasprimento delle pene per la violazione del copyright su Internet. Lo studio legale sostiene che OpenAI avrebbe intenzionalmente rimosso le informazioni relative al copyright dagli articoli online di The Intercept, Raw Story e AlterNet inclusi nei set di dati di addestramento di ChatGPT, violando apertamente il DMCA.

Affinché sia possibile citare direttamente OpenAI però gli editori devono mantenere una documentazione delle opere utilizzate presso l'Ufficio copyright degli Stati Uniti. I giornali in formato cartaceo hanno la possibilità di pagare una tariffa mensile per registrare tutti i contenuti pubblicati durante il periodo considerato, mentre le pubblicazioni esclusivamente digitali devono gestire registrazioni elettroniche per ciascun singolo articolo, il che comporta costi significativi. Ad esempio, il processo di registrazione di tutti gli articoli presenti su un sito di notizie prolifico come The Intercept può rapidamente accumulare decine di migliaia di dollari. Questo crea un problema ulteriore per siti come The Intercept, Raw Story e AlterNet nel dimostrare tali la violazioni. In questo senso una delle linee di intervento proposte nella relazione della Commissione sull’intelligenza artificiale per l’informazione, presentato alla premier Giorgia Meloni lo scorso 26 marzo, potrebbe rappresentare un utile strumento. La Commissione presieduta da padre Paolo Benanti propone la promozione della tracciabilità mediante la marcatura temporale dei contenuti editoriali con tre obiettivi: presidiare l'autenticità e la provenienza dei contenuti da fonti editoriali; garantire la patemità delle opere e la titolarità dei diritti; consentire l'attribuzione della responsabilità dei contenuti per contrastare la disinformazione.

Autorità per l'IA: è mia, no è mia!!

In conformità con le disposizioni dell'AI Act, ogni Stato membro dovrà istituire autorità nazionali con competenze specifiche assegnate dal regolamento stesso. Queste autorità avranno il compito di applicare le sanzioni previste in caso di violazioni dell'AI Act, operando in modo indipendente, imparziale e senza pregiudizi, e dotate delle risorse necessarie per svolgere efficacemente i loro compiti.

È richiesto che tali autorità abbiano competenze approfondite nelle tecnologie dell'intelligenza artificiale, nei dati utilizzati da tali tecnologie e nei relativi algoritmi di trattamento, oltre a conoscenze in materia di protezione dei dati personali, sicurezza informatica e standard esistenti. L'AI Act prevede la possibilità di istituire più autorità, a seconda delle esigenze organizzative dello Stato membro, a condizione che soddisfino tali requisiti.

A questo proposito è scaturito un confronto istituzionale tra il governo e il Garante Privacy, a seguito delle dichiarazioni del Sottosegretario all’Innovazione, Alessio Butti, riguardo all'intenzione di assegnare le funzioni di vigilanza e controllo del nuovo regolamento UE ad enti come Agid Agenzia per l'Italia Digitale e all’Acn Agenzia per la Cybersicurezza Nazionale, il Garante ha inviato una lettera al Parlamento, sottolineando l'importanza di individuare un'autorità indipendente e imparziale, come anche sostenuto dal senatore Dem  Alberto Losacco che respinge l'idea di affidarlo a enti governativi come Agid e Acn.

Nella sua comunicazione il presidente dell’Autorità Garante per la protezione dei dati personali, Pasquale Stanzione afferma che la scelta è dettata sia dalla legge europea recentemente approvata, che fa riferimento esplicito ai Garanti per la Privacy per il controllo delle applicazioni che utilizzano il riconoscimento facciale, sia dalla logica stessa, che suggerisce che un organo direttamente dipendente dal governo potrebbe non garantire un sufficiente controllo su aree in cui l'azione governativa potrebbe entrare in conflitto con i diritti dei cittadini, come la sicurezza e la sanità.

Il Garante ricorda che l'AI Act si basa sull'articolo 16 del Trattato sul Funzionamento dell'Unione Europea, fondamento giuridico della normativa sulla protezione dei dati, e sottolinea che lo stesso Regolamento sull'Intelligenza Artificiale prevede il controllo delle Autorità di protezione dei dati personali su processi algoritmici che utilizzano dati personali.

Stanzione, quindi, sottolinea l'importanza della sinergia tra le due discipline e la loro applicazione da parte di un'unica Autorità per garantire l'effettività dei diritti e delle garanzie stabilite, invitando il Parlamento e il Governo a riflettere sul da farsi.

 

Nuove line guida dall'UE e dall'ONU

"Tutti e 193 membri dell'Assemblea generale delle Nazioni Unite hanno concordato all'unisono di dirigere il corso dell'intelligenza artificiale anziché esserne dominati", ha dichiarato Linda Thomas-Greenfield, ambasciatrice americana presso l'ONU giovedì scorso.

La risoluzione preparata dagli Stati Uniti e adottata all'unanimità dall'Assemblea generale dell'ONU, richiede l'istituzione di "standard" per affrontare le sfide dell'IA ed è stata elaborata In stretta collaborazione con oltre 120 paesi dell'ONU, tra cui Russia, Cina e Cuba, a seguito di procedure negoziali svoltesi nell’arco di alcuni mesi.

Questo documento rappresenta il primo impegno delle Nazioni Unite verso la regolamentazione dell'intelligenza artificiale, mirando a garantire un suo utilizzo equo, rispettoso dei diritti umani e affidabile.

La risoluzione si propone di ridurre il divario digitale tra nazioni sviluppate e in via di sviluppo, assicurando che tutti abbiano accesso e siano inclusi nelle discussioni sull'IA. Inoltre, si impegna a fornire alle nazioni in via di sviluppo le risorse tecnologiche e le competenze necessarie per sfruttare appieno i benefici dell'intelligenza artificiale, come il monitoraggio delle malattie, la previsione delle catastrofi naturali, il supporto all'agricoltura e la formazione della forza lavoro futura.

Nel frattempo, la Commissione europea, insieme ai paesi e alle parti interessate dello Spazio europeo della ricerca, ha presentato una serie di linee guida volte a sostenere l'uso responsabile dell'intelligenza artificiale generativa (AI) nell'ambito della ricerca scientifica. Queste linee guida affrontano le sfide e le opportunità connesse alla crescente diffusione di questa tecnologia in vari settori, compreso quello scientifico. Fondate sui principi dell'integrità della ricerca, le raccomandazioni forniscono una guida uniforme per i ricercatori, le organizzazioni di ricerca e i finanziatori in tutta Europa.

Con l’AI Act L’Unione Europea sta assumendo un ruolo guida a livello globale. La ricerca è uno dei settori che potrebbe essere sconvolto in modo più significativo dall’intelligenza artificiale generativa. L’intelligenza artificiale ha un grande potenziale per accelerare la scoperta scientifica e migliorare l’efficacia e il ritmo dei processi di ricerca e verifica.

Tuttavia, la tecnologia comporta anche il rischio di abusi. Alcuni rischi sono dovuti ai limiti tecnici dello strumento, mentre altri hanno a che fare con l'uso dello strumento in modi che minano le solide pratiche di ricerca. Altri rischi per la ricerca in Europa potrebbero derivare dalla natura proprietaria di alcuni strumenti, o dalla concentrazione della proprietà.

Diverse istituzioni hanno pubblicato linee guida su come utilizzare questi strumenti in modo appropriato per garantire che i benefici di tali strumenti siano pienamente utilizzati.

Per questo motivo, il Forum dello Spazio Europeo della Ricerca ha deciso di sviluppare linee guida sull’uso dell’intelligenza artificiale generativa nella ricerca per enti finanziatori, organizzazioni di ricerca e ricercatori, sia nel settore della ricerca pubblica che privata.

Le linee guida intendono definire indicazioni comuni sull’uso responsabile dell’IA generativa. Devono essere considerati come uno strumento di supporto e non vincolanti, tenendo conto dei principi chiave sull’integrità della ricerca e dei quadri già esistenti per l’uso dell’IA in generale e nella ricerca specifica. 

ChatGPT 5 pronto per il lancio

Solo un anno fa, OpenAI lanciò il suo GPT-4, pubblicizzato come più veloce e preciso nel fornire risposte rispetto al suo predecessore, il GPT-3 e, successivamente, introdusse GPT-4 Turbo, che risolveva anche il problema della cosiddetta "pigrizia", per cui il modello a volte esitava a rispondere alle richieste.

Le vendite alle imprese, che pagano OpenAI per una versione avanzata di ChatGPT per le loro operazioni, costituiscono la principale fonte di entrate dell'azienda. Secondo indiscrezioni rilasciate da Business Insider, sembrerebbe che GPT-5 sia già pronto per il lancio l'estate prossima: "OpenAI sta ancora addestrando GPT-5", ha dichiarato una fonte anonima. 

Una volta completato l'addestramento, il modello sarà sottoposto a test di sicurezza interni e ulteriormente esaminato da un team dedicato, un processo in cui i dipendenti e talvolta anche esterni mettono alla prova lo strumento per individuare eventuali problemi prima del rilascio pubblico. 

Non c'è una scadenza definita per questi test di sicurezza, il che potrebbe influenzare la data di lancio.

Alcuni clienti aziendali hanno già ricevuto una demo del nuovo modello e dei relativi miglioramenti di ChatGPT.

Un CEO rimasto anch’esso anonimo che ha avuto recentemente una visione di GPT-5 ed avrebbe confermato miglioramenti apportati da OpenAI ed  ha dichiarato che il nuovo modello è addestrato con dati specifici dell’azienda e che quindi riesce a dare risposte personalizzate e più specifiche.

La società ha accennato ad altre funzionalità del modello non ancora rilasciate, incluso il potenziale per chiamare agenti AI di OpenAI per eseguire compiti in modo autonomo.

I dati utilizzati per addestrare il nuovo modello non sono chiari ma sappiamo che  la società di Altman sta negoziando accordi per ottenere dati coperti da copyright.

D’altra parte, oltrele indiscrezioni di Business Insider, Sam Altman ha risposto in maniera evasiva alle domande su GPT-5 in un'ampia intervista sull'intelligenza artificiale.  Sebbene Altman non abbia fornito un periodo di rilascio di GPT-5, ha affermato che OpenAI ha molte cose da rilasciare nei prossimi mesi. Come ospite del podcast Lex Fridman , Sam Altman ha affermato che la "risposta onesta" sulla data di rilascio di GPT-5 è che non lo sa.

 

Corso wordpress per giornalisti accreditato OdG: 10 cfp

 Quì la videopresentazione del corso 

Gli articoli in dettaglio
gemelle

in collaborazione con:

Sempre gratuita e disponibile
Lavoriamo tanto per realizzare la nostra newsletter SØØn e ne siamo orgogliosi.
Sarà sempre gratuita e disponibile in archivio sul nostro sito.
Aiutaci, condividila con i tuoi contatti.
Registrati alla Newsletter
facebook  linkedin  instagram