sicurezza

Scongiurare la guerra fredda nell’IA

Di |2024-03-20T12:27:15+01:0020 Marzo , 2024|Articoli, Intelligenza Artificiale, Tecnologia e applicazioni|

La settimana scorsa, a Pechino, un gruppo di esperti internazionali si è riunito per discutere del pericolo dell’Intelligenza artificiale individuando le "linee rosse" nello sviluppo dell'intelligenza artificiale che nessun sistema dovrebbe superare. Queste "linee rosse" includono il divieto per i sistemi di IA di auto-migliorarsi senza coinvolgimento umano esplicito e di intraprendere azioni che possano aumentare impropriamente il proprio potere e influenza. In una dichiarazione successiva all'incontro, riportata dal Financial Times, gli esperti hanno sottolineato l'importanza di un approccio collaborativo per garantire la sicurezza nell'utilizzo dell'IA e prevenire potenziali rischi catastrofici per l'umanità.

SØØn – Newsletter n°9 del 23 febbraio 2024

Di |2024-03-08T14:48:13+01:001 Marzo , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - Google vuole salvare o uccidere il giornalismo? - 725 siti pubblicano fake news artificiali - Parola d’ordine: open source - La persuasione occulta con l’IA: una ricerca statunitense - The New York times investe ancora sull’IA - Gemini è razzista? Google blocca la produzione delle immagini - Continua la battaglia legale tra OpenAI e Il The New York Times

725 siti pubblicano fake news artificiali

Di |2024-03-08T14:36:28+01:001 Marzo , 2024|Articoli, Giornalismo e IA|

NewsGuard è una società che si occupa di analisi dei media, sicurezza e intelligenza artificiale e si impegna nella battaglia contro la disinformazione e nella promozione della trasparenza e dell'accuratezza nel panorama delle notizie online. Fondata nel 2018 da Steven Brill e Gordon Crovitz, NewsGuard ha sviluppato un sistema di valutazione che assegna punteggi di affidabilità ai siti web. Il processo di valutazione di NewsGuard coinvolge un team di giornalisti professionisti che esaminano e valutano manualmente migliaia di siti web secondo nove criteri fondamentali, tra cui l'accuratezza delle informazioni, la trasparenza delle fonti, l'etica editoriale e il riconoscimento dei contenuti pubblicitari.

Parola d’ordine: open source

Di |2024-03-15T09:05:16+01:001 Marzo , 2024|Articoli, News|

’utilizzo dei modelli open source consente lo sviluppo di applicazioni e chatbot da parte di aziende indipendenti, rappresentando una spinta notevole per questo mercato. L’aspetto finanziario gioca un ruolo fondamentale e l’utilizzo di questi modelli può significare una riduzione dei costi rispetto allo sviluppo di soluzioni personalizzate o all’acquisto di licenze per modelli proprietari. Ma non è solo una questione di risparmio finanziario. I modelli open source offrono anche una maggiore flessibilità e adattabilità, gli sviluppatori possono modificarli e personalizzarli per soddisfare le esigenze specifiche dell’azienda, consentendo una maggiore flessibilità nel design delle soluzioni di intelligenza artificiale.

Londra crea l’AI Safety Institute per affrontare i rischi dei modelli di IA

Di |2024-02-16T11:21:49+01:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'AI Safety Institute, l'organizzazione dedicata alla sicurezza nell'utilizzo e nello sviluppo dell'intelligenza artificiale inglese presentata dal primo ministro Rishi Sunak lo scorso anno, ha reso pubblici i primi risultati della sua ricerca sui modelli linguistici di grandi dimensioni (LLM), alla base di strumenti come i chatbot e i generatori di immagini. I modelli LLM hanno dimostrato di essere vulnerabili all'inganno e alla manipolazione, aprendo la porta a possibili abusi. Sui modelli testati è emerso il grave rischio che potrebbero assistere nella pianificazione di attacchi informatici. Un esempio emblematico emerso dalla ricerca è l'identificazione di un modello capace di generare personaggi sui social media per diffondere disinformazione in modo altamente convincente ed efficiente.

Google svela Lumiere

Di |2024-02-05T10:02:22+01:002 Febbraio , 2024|Articoli, Tecnologia e applicazioni|

Google ha introdotto Lumiere il suo innovativo modello di intelligenza artificiale per la generazione di video, questo modello si caratterizza per l'utilizzo del rivoluzionario framework di diffusione denominato Space-Time-U-Net (STUNet), che consente a Lumiere di comprendere sia gli aspetti spaziali che temporali. Diversamente dagli approcci tradizionali, questa tecnologia avanzata consente di creare video in un unico processo, eliminando la necessità di assemblare fotogrammi fissi più piccoli. Il processo di Lumiere inizia con la creazione dia struttura di base che può provenire da un prompt o da un’immagine. Sfruttando il potenziale di STUNet, il modello approssima la traiettoria degli oggetti all'interno del fotogramma, generando una sequenza organica di fotogrammi che si fondono senza soluzione di continuità, creando un effetto di movimento fluido.

Anche l’Italia avrà la sua intelligenza artificiale

Di |2024-02-05T10:30:49+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

Considerando l'evoluzione delle principali aziende tecnologiche americane come Microsoft, Google e Amazon, che hanno investito ingenti risorse nello sviluppo di tecnologie di intelligenza artificiale, e considerando anche le iniziative di altri paesi, in particolare della Cina, anche per gli altri paesi emerge la necessità di attivarsi per un ruolo di primo piano nel progresso di queste nuove tecnologie. Anche l'Italia ha preso una posizione attiva con l’iniziativa da parte di iGenius, un'azienda specializzata nello sviluppo di prodotti basati sull'intelligenza artificiale per semplificare l'interazione tra persone e dati e Cineca, un Consorzio Interuniversitario che gestisce uno dei più potenti supercomputer al mondo “Leonardo”, che hanno ufficialmente presentato il progetto "Modello Italia".

OpenAI annuncia il suo impegno per prevenire l’uso distorto dell’IA per le elezioni politiche

Di |2024-02-05T10:38:57+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

In vista dei numerosi appuntamenti elettorali previsti nel 2024, dalla politica degli Stati Uniti all'Europa, e considerando il diffuso timore legato ai deepfake, OpenAI ha recentemente annunciato, attraverso un post sul suo blog, la sua risoluta determinazione a migliorare il suo impegno per rendere sicura la piattaforma fornendo informazioni accurate sul voto, applicando politiche adeguate e migliorando la trasparenza. “Abbiamo uno sforzo trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle intelligence sulle minacce, dei team legali, tecnologici e politici per indagare e risolvere rapidamente i potenziali abusi” scrivono da OpenAI.

SØØn – Newsletter n°3 del 27 ottobre 2023

Di |2024-02-21T16:14:25+01:0027 Ottobre , 2023|Riepiloghi|

Questa settimana parliamo di come l'Ai trasformerà il business, della mobilitazione delle grandi potenze nel Summit che si terrà a Londra, dello scenario giornalistico esposto durante la "Trust Conferance": igiene digitale e intelligenza artificiale, delle novità di Microsoft Copilot che partirà il primo novembre, delle considerazioni di Richard Gingras sullo stato dell'informazione ed un piccolo elenco delle applicazioni di IA che permettono di creare loghi originali.

AI Safety Summit

Di |2024-03-01T16:38:00+01:0027 Ottobre , 2023|Etica e Normativa|

Il primo vertice Globale sulla Sicurezza dell'Intelligenza Artificiale, programmato per l'1 e il 2 novembre, ospitato dal Governo del Regno Unito presso Bletchley Park, assume un'importanza cruciale in un momento in cui il mondo si trova ad affrontare crescenti sfide legate all'intelligenza artificiale.

Torna in cima