sicurezza

725 siti pubblicano fake news artificiali

Di |2024-03-01T13:37:22+01:001 Marzo , 2024|Articoli, Giornalismo e IA|

NewsGuard è una società che si occupa di analisi dei media, sicurezza e intelligenza artificiale e si impegna nella battaglia contro la disinformazione e nella promozione della trasparenza e dell'accuratezza nel panorama delle notizie online. Fondata nel 2018 da Steven Brill e Gordon Crovitz, NewsGuard ha sviluppato un sistema di valutazione che assegna punteggi di affidabilità ai siti web. Il processo di valutazione di NewsGuard coinvolge un team di giornalisti professionisti che esaminano e valutano manualmente migliaia di siti web secondo nove criteri fondamentali, tra cui l'accuratezza delle informazioni, la trasparenza delle fonti, l'etica editoriale e il riconoscimento dei contenuti pubblicitari.

Parola d’ordine: open source

Di |2024-03-01T13:38:02+01:001 Marzo , 2024|Articoli, Giornalismo e IA|

Il Rapporto sui Rischi Globali del World Economic Forum ha messo in evidenza un allarmante fenomeno: il 53% dei leader globali ha individuato la disinformazione e la manipolazione tramite intelligenza artificiale come una delle principali minacce per la libertà e la democrazia. Una ricerca condotta da un gruppo di studiosi della Georgetown University e dell’Università di Stanford, pubblicata sulla rivista PNAS Nexus, ha posto interrogativi fondamentali su come le campagne di propaganda online “occulte” possano essere amplificate dall'uso di strumenti di intelligenza artificiale. L'esperimento, condotto su un ampio campione di 8.221 intervistati statunitensi, ha avuto l'obiettivo di confrontare la persuasività di articoli di propaganda originali con quelli generati dal modello di intelligenza artificiale GPT-3.

Londra crea l’AI Safety Institute per affrontare i rischi dei modelli di IA

Di |2024-02-16T11:21:49+01:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'AI Safety Institute, l'organizzazione dedicata alla sicurezza nell'utilizzo e nello sviluppo dell'intelligenza artificiale inglese presentata dal primo ministro Rishi Sunak lo scorso anno, ha reso pubblici i primi risultati della sua ricerca sui modelli linguistici di grandi dimensioni (LLM), alla base di strumenti come i chatbot e i generatori di immagini. I modelli LLM hanno dimostrato di essere vulnerabili all'inganno e alla manipolazione, aprendo la porta a possibili abusi. Sui modelli testati è emerso il grave rischio che potrebbero assistere nella pianificazione di attacchi informatici. Un esempio emblematico emerso dalla ricerca è l'identificazione di un modello capace di generare personaggi sui social media per diffondere disinformazione in modo altamente convincente ed efficiente.

Google svela Lumiere

Di |2024-02-05T10:02:22+01:002 Febbraio , 2024|Articoli, Tecnologia e applicazioni|

Google ha introdotto Lumiere il suo innovativo modello di intelligenza artificiale per la generazione di video, questo modello si caratterizza per l'utilizzo del rivoluzionario framework di diffusione denominato Space-Time-U-Net (STUNet), che consente a Lumiere di comprendere sia gli aspetti spaziali che temporali. Diversamente dagli approcci tradizionali, questa tecnologia avanzata consente di creare video in un unico processo, eliminando la necessità di assemblare fotogrammi fissi più piccoli. Il processo di Lumiere inizia con la creazione dia struttura di base che può provenire da un prompt o da un’immagine. Sfruttando il potenziale di STUNet, il modello approssima la traiettoria degli oggetti all'interno del fotogramma, generando una sequenza organica di fotogrammi che si fondono senza soluzione di continuità, creando un effetto di movimento fluido.

Anche l’Italia avrà la sua intelligenza artificiale

Di |2024-02-05T10:30:49+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

Considerando l'evoluzione delle principali aziende tecnologiche americane come Microsoft, Google e Amazon, che hanno investito ingenti risorse nello sviluppo di tecnologie di intelligenza artificiale, e considerando anche le iniziative di altri paesi, in particolare della Cina, anche per gli altri paesi emerge la necessità di attivarsi per un ruolo di primo piano nel progresso di queste nuove tecnologie. Anche l'Italia ha preso una posizione attiva con l’iniziativa da parte di iGenius, un'azienda specializzata nello sviluppo di prodotti basati sull'intelligenza artificiale per semplificare l'interazione tra persone e dati e Cineca, un Consorzio Interuniversitario che gestisce uno dei più potenti supercomputer al mondo “Leonardo”, che hanno ufficialmente presentato il progetto "Modello Italia".

OpenAI annuncia il suo impegno per prevenire l’uso distorto dell’IA per le elezioni politiche

Di |2024-02-05T10:38:57+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

In vista dei numerosi appuntamenti elettorali previsti nel 2024, dalla politica degli Stati Uniti all'Europa, e considerando il diffuso timore legato ai deepfake, OpenAI ha recentemente annunciato, attraverso un post sul suo blog, la sua risoluta determinazione a migliorare il suo impegno per rendere sicura la piattaforma fornendo informazioni accurate sul voto, applicando politiche adeguate e migliorando la trasparenza. “Abbiamo uno sforzo trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle intelligence sulle minacce, dei team legali, tecnologici e politici per indagare e risolvere rapidamente i potenziali abusi” scrivono da OpenAI.

SØØn – Newsletter n°3 del 27 ottobre 2023

Di |2024-02-21T16:14:25+01:0027 Ottobre , 2023|Riepiloghi|

Questa settimana parliamo di come l'Ai trasformerà il business, della mobilitazione delle grandi potenze nel Summit che si terrà a Londra, dello scenario giornalistico esposto durante la "Trust Conferance": igiene digitale e intelligenza artificiale, delle novità di Microsoft Copilot che partirà il primo novembre, delle considerazioni di Richard Gingras sullo stato dell'informazione ed un piccolo elenco delle applicazioni di IA che permettono di creare loghi originali.

AI Safety Summit

Di |2024-03-01T16:38:00+01:0027 Ottobre , 2023|Etica e Normativa|

Il primo vertice Globale sulla Sicurezza dell'Intelligenza Artificiale, programmato per l'1 e il 2 novembre, ospitato dal Governo del Regno Unito presso Bletchley Park, assume un'importanza cruciale in un momento in cui il mondo si trova ad affrontare crescenti sfide legate all'intelligenza artificiale.

Torna in cima