Etica e Normativa

In questa categoria sono raccolte normativa, proposte di leggi e regolamenti, implicazioni etiche e deontologiche, etica

L’impatto dell’IA nel giornalismo: bilanciare innovazione e fiducia

Di |2024-07-24T09:02:08+02:0022 Luglio , 2024|Ecosistema digitale, Etica e Normativa, Intelligenza Artificiale, News|

L’utilizzo dell'intelligenza artificiale nel giornalismo è questione ampiamente dibattuta e sempre più rilevante, laddove essa può determinare conseguenze significative sulla fiducia dei lettori nei confronti delle notizie che consumano. Hilke Schellmann, giornalista investigativa, non a caso ha affermato, in un’intervista rilasciata a Laptop Mag lo scorso 3 luglio, che, nonostante l’IA può aiutare nella ricerca e nella generazione di idee, c'è un rischio significativo che le informazioni presentate possano essere inesatte o che le fonti non vengano citate correttamente, andando a danneggiare la reputazione delle organizzazioni giornalistiche e a minare la fiducia dei lettori.

Stati Uniti: i repubblicani chiedono indagini sugli accordi tecnologici con gli Emirati Arabi

Di |2024-07-19T08:42:14+02:0018 Luglio , 2024|Ecosistema digitale, Etica e Normativa, Intelligenza Artificiale, News|

Lo scorso aprile Microsoft ha investito circa 1,5 miliardi di dollari nell’azienda di Intelligenza artificiale degli Emirati Arabi Uniti G42; l’accordo prevedeva l’ingresso, nel consiglio di amministrazione dell’azienda araba, del presidente di Microsoft, Brad Smith, e l’utilizzo del cloud Azure da parte di G42 per le sue applicazioni di intelligenza artificiale. Tale investimento era stato incoraggiato anche dal governo degli Stati Uniti in quanto un’altra parte dell’accordo prevedeva che G42 eliminasse l'hardware di Huawei, l'azienda cinese di telecomunicazioni, e che gli Emirati Arabi Uniti accettassero di rimuovere le apparecchiature di Huawei da alcune aree considerate sensibili.

Proteggere i whistle-blowers dell’IA

Di |2024-06-06T10:18:54+02:005 Giugno , 2024|Etica e Normativa, Giornalismo, Giornalismo e IA, Intelligenza Artificiale, News|

Un nuovo longform del New York Times svela le motivazioni dietro una lettera aperta di un gruppo di attuali ed ex dipendenti di OpenAI che chiedono alle aziende di intelligenza artificiale, incluso il produttore di ChatGPT, di implementare protezioni più forti per i dipendenti che segnalano rischi legati alla tecnologia AI. L’obiettivo della lettera sarebbe di garantire che i ricercatori, in veste di whistle-blowers, possano avvisare sui pericoli senza timore di ritorsioni. È sempre molto alto il livello di interesse da parte del NYT nei confronti di OpenAI verso cui, ricordiamo, ha intentato una importante causa per violazione del copyright per aver addestrato i propri modelli con i dati e gli articoli del giornale senza alcuna autorizzazione.

Sulla responsabilità dei contenuti diffamatori dell’IA

Di |2024-03-29T12:23:03+01:0029 Marzo , 2024|Articoli, Etica e Normativa, Intelligenza Artificiale|

Joel Simon è il fondatore e direttore della Journalism Protection Initiative presso la Craig Newmark Graduate School of Journalism, un'iniziativa volta ad esaminare le crescenti minacce al giornalismo e ai giornalisti sia negli Stati Uniti che nel resto del mondo, concentrandosi particolarmente sul fenomeno della disinformazione, della propaganda, della regolamentazione e delle politiche tecnologiche. Simon, in un articolo su Columbia Journalism Review, ha analizzato la responsabilità dei nuovi strumenti di intelligenza artificiale in caso di output diffamatori, questione che diventa sempre più rilevante con la diffusione di questi sistemi. La sua analisi parte da uno studio dal titolo “Freedom of Speech and AI Output”, pubblicato, ad agosto 2023, sul Journal of Free Speech Law, condotto da Eugene Volokh professore di giurisprudenza dell'UCLA.

Vigilanza e controllo dall’AI ACT in Italia

Di |2024-03-29T12:22:56+01:0029 Marzo , 2024|Articoli, Etica e Normativa, Intelligenza Artificiale|

In conformità con le disposizioni dell'AI Act, ogni Stato membro dovrà istituire autorità nazionali con competenze specifiche assegnate dal regolamento stesso. Queste autorità avranno il compito di applicare le sanzioni previste in caso di violazioni dell'AI Act, operando in modo indipendente, imparziale e senza pregiudizi, e dotate delle risorse necessarie per svolgere efficacemente i loro compiti. È richiesto che tali autorità abbiano competenze approfondite nelle tecnologie dell'intelligenza artificiale, nei dati utilizzati da tali tecnologie e nei relativi algoritmi di trattamento, oltre a conoscenze in materia di protezione dei dati personali, sicurezza informatica e standard esistenti. L'AI Act prevede la possibilità di istituire più autorità, a seconda delle esigenze organizzative dello Stato membro, a condizione che soddisfino tali requisiti.

Prime linee guida dell’ONU per l’intelligenza artificiale

Di |2024-03-29T12:22:48+01:0029 Marzo , 2024|Articoli, Etica e Normativa, Intelligenza Artificiale|

"Tutti e 193 membri dell'Assemblea generale delle Nazioni Unite hanno concordato all'unisono di dirigere il corso dell'intelligenza artificiale anziché esserne dominati", ha dichiarato Linda Thomas-Greenfield, ambasciatrice americana presso l'ONU giovedì scorso. La risoluzione preparata dagli Stati Uniti adottata all’unanimità dall’Assemblea generale dell’ONU richiede l'istituzione di "standard" per affrontare le sfide dell'IA ed è stata elaborata In stretta collaborazione con oltre 120 paesi dell'ONU, tra cui Russia, Cina e Cuba, a seguito di procedure negoziali svoltesi nell’arco di alcuni mesi. Questo documento rappresenta il primo impegno delle Nazioni Unite verso la regolamentazione dell'intelligenza artificiale, mirando a garantire un suo utilizzo equo, rispettoso dei diritti umani e affidabile.

Google da’ una ripulita: aggiornamenti per il suo algoritmo di ranking

Di |2024-03-08T14:35:46+01:008 Marzo , 2024|Articoli, Etica e Normativa|

Il web è saturo di siti che propagano notizie false o poco autentiche, questa tendenza è ulteriormente accentuata con l'avanzare dell'intelligenza artificiale, come dimostra il rapporto di NewGuard, che ha identificato già circa 725 siti che diffondono Fake news. Le pagine dei motori di ricerca, inclusa quella di Google, sono sommerse da questo genere di informazioni, rendendo sempre più complicata la ricerca per gli utenti. Numerosi contenuti utilizzano l'IA non per migliorare e organizzare le informazioni, bensì per ottenere una posizione privilegiata nei risultati di ricerca. Proprio per contrastare questa tendenza, Google ha annunciato un aggiornamento sulla qualità delle ricerche, focalizzato sul miglioramento del suo algoritmo di classificazione dei siti web e sull'aggiornamento delle politiche antispam della Ricerca Google.

Elon Musk fa causa ad OpenAI

Di |2024-03-08T14:15:41+01:008 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Elon Musk ha presentato una causa legale contro OpenAI e il suo CEO, Sam Altman, affermando che l'azienda ha abbandonato la sua missione originaria di sviluppare tecnologie di intelligenza artificiale a beneficio dell'umanità in modalità non profit. La causa è stata depositata lo scorso 29 febbraio presso un tribunale di San Francisco: sì, è proprio lo stesso Elon Musk che nel 2015 ha co-fondato OpenAI con Altman, e il presidente di OpenAI Greg Brockman, ma che attualmente non detiene più una partecipazione nella società. Le accuse avanzate da Musk includono: violazione del contratto, violazione del dovere fiduciario e pratiche commerciali sleali da parte di OpenAI.

La persuasione occulta con l’IA: una ricerca statunitense

Di |2024-03-08T14:36:37+01:001 Marzo , 2024|Articoli, Etica e Normativa, Giornalismo e IA|

Il Rapporto sui Rischi Globali del World Economic Forum ha messo in evidenza un allarmante fenomeno: il 53% dei leader globali ha individuato la disinformazione e la manipolazione tramite intelligenza artificiale come una delle principali minacce per la libertà e la democrazia. Una ricerca condotta da un gruppo di studiosi della Georgetown University e dell’Università di Stanford, pubblicata sulla rivista PNAS Nexus, ha posto interrogativi fondamentali su come le campagne di propaganda online “occulte” possano essere amplificate dall'uso di strumenti di intelligenza artificiale. L'esperimento, condotto su un ampio campione di 8.221 intervistati statunitensi, ha avuto l'obiettivo di confrontare la persuasività di articoli di propaganda originali con quelli generati dal modello di intelligenza artificiale GPT-3.

The New York times investe ancora sull’IA

Di |2024-03-08T14:36:44+01:001 Marzo , 2024|Articoli, Etica e Normativa, Tecnologia e applicazioni|

Secondo quanto riferito dai dirigenti del giornale statunitense Axios, Il The New York Times testerà l'impiego dell'IA generativa per assistere gli inserzionisti nella selezione dei migliori spazi editoriali per i loro messaggi promozionali. L'obiettivo è ottimizzare l'efficacia delle campagne pubblicitarie e raggiungere con maggiore precisione i potenziali consumatori. Il progetto, in fase di sviluppo dalla seconda metà del 2024, coinvolgerà un gruppo selezionato di investitori pubblicitari, con i primi casi studio che saranno monitorati internamente dal giornale. Joy Robins, responsabile globale della pubblicità del Times, ha commentato: "Questo dimostra chiaramente che crediamo che l'IA generativa sia un fattore abilitante e possa essere un elemento efficace per la nostra attività se utilizzato in modo responsabile".

Torna in cima