Etica e Normativa

In questa categoria sono raccolte normativa, proposte di leggi e regolamenti, implicazioni etiche e deontologiche, etica

Proteggere i whistle-blowers dell’IA

Di |2024-06-06T10:18:54+02:005 Giugno , 2024|Etica e Normativa, Giornalismo, Giornalismo e IA, Intelligenza Artificiale, News|

Un nuovo longform del New York Times svela le motivazioni dietro una lettera aperta di un gruppo di attuali ed ex dipendenti di OpenAI che chiedono alle aziende di intelligenza artificiale, incluso il produttore di ChatGPT, di implementare protezioni più forti per i dipendenti che segnalano rischi legati alla tecnologia AI. L’obiettivo della lettera sarebbe di garantire che i ricercatori, in veste di whistle-blowers, possano avvisare sui pericoli senza timore di ritorsioni. È sempre molto alto il livello di interesse da parte del NYT nei confronti di OpenAI verso cui, ricordiamo, ha intentato una importante causa per violazione del copyright per aver addestrato i propri modelli con i dati e gli articoli del giornale senza alcuna autorizzazione.

Sulla responsabilità dei contenuti diffamatori dell’IA

Di |2024-03-29T12:23:03+01:0029 Marzo , 2024|Articoli, Etica e Normativa, Intelligenza Artificiale|

Joel Simon è il fondatore e direttore della Journalism Protection Initiative presso la Craig Newmark Graduate School of Journalism, un'iniziativa volta ad esaminare le crescenti minacce al giornalismo e ai giornalisti sia negli Stati Uniti che nel resto del mondo, concentrandosi particolarmente sul fenomeno della disinformazione, della propaganda, della regolamentazione e delle politiche tecnologiche. Simon, in un articolo su Columbia Journalism Review, ha analizzato la responsabilità dei nuovi strumenti di intelligenza artificiale in caso di output diffamatori, questione che diventa sempre più rilevante con la diffusione di questi sistemi. La sua analisi parte da uno studio dal titolo “Freedom of Speech and AI Output”, pubblicato, ad agosto 2023, sul Journal of Free Speech Law, condotto da Eugene Volokh professore di giurisprudenza dell'UCLA.

Vigilanza e controllo dall’AI ACT in Italia

Di |2024-03-29T12:22:56+01:0029 Marzo , 2024|Articoli, Etica e Normativa, Intelligenza Artificiale|

In conformità con le disposizioni dell'AI Act, ogni Stato membro dovrà istituire autorità nazionali con competenze specifiche assegnate dal regolamento stesso. Queste autorità avranno il compito di applicare le sanzioni previste in caso di violazioni dell'AI Act, operando in modo indipendente, imparziale e senza pregiudizi, e dotate delle risorse necessarie per svolgere efficacemente i loro compiti. È richiesto che tali autorità abbiano competenze approfondite nelle tecnologie dell'intelligenza artificiale, nei dati utilizzati da tali tecnologie e nei relativi algoritmi di trattamento, oltre a conoscenze in materia di protezione dei dati personali, sicurezza informatica e standard esistenti. L'AI Act prevede la possibilità di istituire più autorità, a seconda delle esigenze organizzative dello Stato membro, a condizione che soddisfino tali requisiti.

Prime linee guida dell’ONU per l’intelligenza artificiale

Di |2024-03-29T12:22:48+01:0029 Marzo , 2024|Articoli, Etica e Normativa, Intelligenza Artificiale|

"Tutti e 193 membri dell'Assemblea generale delle Nazioni Unite hanno concordato all'unisono di dirigere il corso dell'intelligenza artificiale anziché esserne dominati", ha dichiarato Linda Thomas-Greenfield, ambasciatrice americana presso l'ONU giovedì scorso. La risoluzione preparata dagli Stati Uniti adottata all’unanimità dall’Assemblea generale dell’ONU richiede l'istituzione di "standard" per affrontare le sfide dell'IA ed è stata elaborata In stretta collaborazione con oltre 120 paesi dell'ONU, tra cui Russia, Cina e Cuba, a seguito di procedure negoziali svoltesi nell’arco di alcuni mesi. Questo documento rappresenta il primo impegno delle Nazioni Unite verso la regolamentazione dell'intelligenza artificiale, mirando a garantire un suo utilizzo equo, rispettoso dei diritti umani e affidabile.

Google da’ una ripulita: aggiornamenti per il suo algoritmo di ranking

Di |2024-03-08T14:35:46+01:008 Marzo , 2024|Articoli, Etica e Normativa|

Il web è saturo di siti che propagano notizie false o poco autentiche, questa tendenza è ulteriormente accentuata con l'avanzare dell'intelligenza artificiale, come dimostra il rapporto di NewGuard, che ha identificato già circa 725 siti che diffondono Fake news. Le pagine dei motori di ricerca, inclusa quella di Google, sono sommerse da questo genere di informazioni, rendendo sempre più complicata la ricerca per gli utenti. Numerosi contenuti utilizzano l'IA non per migliorare e organizzare le informazioni, bensì per ottenere una posizione privilegiata nei risultati di ricerca. Proprio per contrastare questa tendenza, Google ha annunciato un aggiornamento sulla qualità delle ricerche, focalizzato sul miglioramento del suo algoritmo di classificazione dei siti web e sull'aggiornamento delle politiche antispam della Ricerca Google.

Elon Musk fa causa ad OpenAI

Di |2024-03-08T14:15:41+01:008 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Elon Musk ha presentato una causa legale contro OpenAI e il suo CEO, Sam Altman, affermando che l'azienda ha abbandonato la sua missione originaria di sviluppare tecnologie di intelligenza artificiale a beneficio dell'umanità in modalità non profit. La causa è stata depositata lo scorso 29 febbraio presso un tribunale di San Francisco: sì, è proprio lo stesso Elon Musk che nel 2015 ha co-fondato OpenAI con Altman, e il presidente di OpenAI Greg Brockman, ma che attualmente non detiene più una partecipazione nella società. Le accuse avanzate da Musk includono: violazione del contratto, violazione del dovere fiduciario e pratiche commerciali sleali da parte di OpenAI.

La persuasione occulta con l’IA: una ricerca statunitense

Di |2024-03-08T14:36:37+01:001 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Il Rapporto sui Rischi Globali del World Economic Forum ha messo in evidenza un allarmante fenomeno: il 53% dei leader globali ha individuato la disinformazione e la manipolazione tramite intelligenza artificiale come una delle principali minacce per la libertà e la democrazia. Una ricerca condotta da un gruppo di studiosi della Georgetown University e dell’Università di Stanford, pubblicata sulla rivista PNAS Nexus, ha posto interrogativi fondamentali su come le campagne di propaganda online “occulte” possano essere amplificate dall'uso di strumenti di intelligenza artificiale. L'esperimento, condotto su un ampio campione di 8.221 intervistati statunitensi, ha avuto l'obiettivo di confrontare la persuasività di articoli di propaganda originali con quelli generati dal modello di intelligenza artificiale GPT-3.

The New York times investe ancora sull’IA

Di |2024-03-08T14:36:44+01:001 Marzo , 2024|Articoli, Etica e Normativa, Tecnologia e applicazioni|

Secondo quanto riferito dai dirigenti del giornale statunitense Axios, Il The New York Times testerà l'impiego dell'IA generativa per assistere gli inserzionisti nella selezione dei migliori spazi editoriali per i loro messaggi promozionali. L'obiettivo è ottimizzare l'efficacia delle campagne pubblicitarie e raggiungere con maggiore precisione i potenziali consumatori. Il progetto, in fase di sviluppo dalla seconda metà del 2024, coinvolgerà un gruppo selezionato di investitori pubblicitari, con i primi casi studio che saranno monitorati internamente dal giornale. Joy Robins, responsabile globale della pubblicità del Times, ha commentato: "Questo dimostra chiaramente che crediamo che l'IA generativa sia un fattore abilitante e possa essere un elemento efficace per la nostra attività se utilizzato in modo responsabile".

Gemini è razzista? Google blocca la produzione delle immagini

Di |2024-03-08T14:47:40+01:001 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Attraverso un post sul social X, Google ha annunciato il temporaneo blocco del suo nuovo modello di intelligenza artificiale, Gemini, nella produzione di immagini di persone, dichiarando: 'Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo una versione migliorata'." La decisione è stata presa in seguito alla diffusione su social media di esempi di immagini generate dallo strumento, le quali raffiguravano figure storiche, come i papi e i padri fondatori degli Stati Uniti, in una varietà di etnie e generi. Ad esempio, una richiesta di immagini di vichinghi ha prodotto solo persone di colore vestite con abiti tradizionali dei guerrieri norreni.

Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale

Di |2024-03-08T14:37:31+01:0023 Febbraio , 2024|Articoli, Etica e Normativa|

Lo scorso luglio la comica Sarah Silverman e alti autori: Christopher Golden, Richard Kadrey, Paul Tremblay e Mona Awad avevano accusato OpenAI di aver utilizzato illecitamente i loro lavori per addestrare ChatGPT, violando il loro diritto di copyright. Le prove offerte dagli autori miravano a dimostrare che, quando richiesto, ChatGPT remixava le opere protette da copyright di migliaia di autori di libri senza consenso, compenso o credito. Il 19 febbraio 2024, la giudice federale californiana Araceli Martínez-Olguín ha respinto le accuse degli autori ritenendo che non sia stata riscontrata una somiglianza diretta tra gli output di ChatGPT e le opere originali. Martínez-Olguín ha sottolineato che i querelanti “non hanno dimostrato che gli output di ChatGPT contengano copie dirette dei libri protetti da copyright” .

Torna in cima