deepfake

Nuovi strumenti per combattere i deepfake

Di |2024-04-05T14:08:31+02:005 Aprile , 2024|Articoli, Intelligenza Artificiale, News|

TrueMedia.org, un'organizzazione no-profit con sede a Seattle, ha presentato martedì 2 aprile uno strumento di verifica dei media basato sull'intelligenza artificiale sviluppato con l'obiettivo di assistere giornalisti nel rilevare deepfake e contrastare la diffusione di disinformazione in vista delle prossime elezioni statunitensi e internazionali. Lo strumento è gratuito e attualmente disponibile per funzionari governativi, fact-checker, personale delle campagne elettorali, università, organizzazioni no-profit e giornalisti di testate giornalistiche accreditate. Secondo il comunicato stampa pubblicato sul sito dell'organizzazione, TrueMedia.org ha collaborato con i principali fornitori tecnologici, ricercatori e istituti accademici del settore per creare uno strumento di rilevamento dei deepfake preciso e di semplice utilizzo.

SØØn – Newsletter n°8 del 23 febbraio 2024

Di |2024-03-08T14:48:51+01:0023 Febbraio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - La visione sull’IA del The New York Times - Le controversie sul copyright nell’addestramento dei modelli di intelligenza artificiale - IA e disinformazione: 20 big tech firmano un accordo a Monaco - Reddit vende i dati degli utenti all’IA - Anche OpenAI ha il suo text to video: nasce Sora

IA e disinformazione: 20 big tech firmano un accordo a Monaco

Di |2024-03-08T14:18:56+01:0023 Febbraio , 2024|Articoli, Ecosistema digitale, Intelligenza Artificiale|

Durante la Conferenza sulla sicurezza di Monaco , tenutasi il 16 febbraio 2024, riunione di leader politici ed esperti di sicurezza globali, è stato firmato un accordo che coinvolge 20 aziende tecnologiche di spicco tra queste figurano le principali piattaforme social e le società di intelligenza artificiale, tra cui Google, Meta, Microsoft, OpenAI e TikTok. L'accordo si focalizza sull'affrontare i crescenti rischi legati ai contenuti ingannevoli generati dall'intelligenza artificiale, soprattutto in contesti elettorali. I firmatari si sono impegnati a sviluppare e implementare tecnologie atte a mitigare tali rischi, individuare e contrastare la diffusione di tali contenuti sulle loro piattaforme e adottare misure appropriate.

Midjourney in campo contro i deepfake

Di |2024-07-05T11:48:08+02:0014 Febbraio , 2024|Articoli, Etica e Normativa|

L'avvento dell'intelligenza artificiale sta catalizzando un profondo cambiamento nella nostra relazione con le informazioni, portando con sé, come abbiamo più volte riscontrato, una crescente minaccia per la democrazia: la diffusione della disinformazione. In particolare, la proliferazione dei cosiddetti "deepfake", ovvero video e immagini manipolati in maniera estremamente realistica, sta suscitando serie preoccupazioni riguardo alla possibilità di manipolare il processo democratico, specialmente in relazione alle elezioni politiche. In quest'ottica, Midjourney, uno dei brand più affermati e consolidati nella generazione di immagini tramite intelligenza artificiale, sta valutando la possibilità di vietare l'utilizzo del suo software per la creazione di immagini politiche raffiguranti figure di spicco come Joe Biden e Donald Trump.

Meta: etichetta i contenuti per distinguere quelli Umani da quelli artificiali

Di |2024-02-16T11:21:41+01:0014 Febbraio , 2024|Articoli, Social media, Tecnologia e applicazioni|

La questione di distinguere se i contenuti sono generati dalla mente umana o dall'intelligenza artificiale sta diventando sempre più complessa e necessaria. Con il passare del tempo, la linea di demarcazione tra i contenuti umani e quelli prodotti dall'IA si sta assottigliando, suscitando la necessità delle persone di riuscire a distinguerne la provenienza. Attualmente, l'industria dell'IA sta ancora lavorando per stabilire standard comuni per identificare immagini, video e audio generati dall'IA. Vi sono progressi in tal senso da parte di alcune aziende, come Meta che, fin dalla creazione del suo strumento di generazione di immagini, Meta AI, ha iniziato ad etichettare le immagini fotorealistiche, introducendo marcatori visibili, filigrane invisibili e metadati nei file di immagine.

Problemi dell’intelligenza artificiale per le redazioni locali

Di |2024-03-08T14:51:01+01:002 Febbraio , 2024|Articoli, Giornalismo e IA|

Abbiamo spesso affrontato l'impatto dell'intelligenza artificiale nell’ecosistema dell’informazione, con particolare riferimento alle testate mainstream. Tale impatto è altrettanto complesso per le testate locali, come ricorda un articolo del Poynter. Come sappiamo i modelli linguistici avanzati richiedono una vasta quantità di dati per funzionare in modo ottimale, raccolta che diventa problematica nel contesto delle notizie locali, dove le informazioni sono spesso limitate. La scarsità di dati lascia inoltre emergere dubbi sulla possibile efficacia dei modelli, poiché potrebbero risultare limitati nella comprensione delle sfumature e delle peculiarità delle comunità locali. Un po’ la difficoltà che abbiamo “noi” umani nel comprendere le sfumature dei contesti di linguaggi stranieri.

OpenAI annuncia il suo impegno per prevenire l’uso distorto dell’IA per le elezioni politiche

Di |2024-02-05T10:38:57+01:0026 Gennaio , 2024|Articoli, News, Tecnologia e applicazioni|

In vista dei numerosi appuntamenti elettorali previsti nel 2024, dalla politica degli Stati Uniti all'Europa, e considerando il diffuso timore legato ai deepfake, OpenAI ha recentemente annunciato, attraverso un post sul suo blog, la sua risoluta determinazione a migliorare il suo impegno per rendere sicura la piattaforma fornendo informazioni accurate sul voto, applicando politiche adeguate e migliorando la trasparenza. “Abbiamo uno sforzo trasversale dedicato al lavoro sulle elezioni, che riunisce le competenze dei nostri sistemi di sicurezza, delle intelligence sulle minacce, dei team legali, tecnologici e politici per indagare e risolvere rapidamente i potenziali abusi” scrivono da OpenAI.

SØØn – Newsletter n°3 del 19 gennaio 2024

Di |2024-02-21T16:07:57+01:0019 Gennaio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - NYT reticente secondo OpenAI - L’IA alla ricerca di nuove interfacce mentre tramontano i social - I nuovi Trend per il digitale secondo il Reuters Institute - Prospettive regolatorie per l’IA nel 2024 - Un teologo per dare le linee guida all’IA italiana

Il pericolo più grande? La disinformazione mediata dall’IA

Di |2024-03-08T14:53:13+01:0019 Gennaio , 2024|Articoli, Giornalismo e IA, News, Newsletter, Opinioni e analisi|

Più di altri delicati aspetti come, ad esempio, l’impatto sul mondo del lavoro, la questione della disinformazione legata all’intelligenza artificiale appare in questo momento la vera emergenza da affrontare. In Slovacchia, a soli due giorni dalle elezioni, una registrazione audio che coinvolgeva il candidato dell'opposizione liberale Michal Šimečka in un presunto complotto per l'acquisto di voti ha scatenato un'ondata di disinformazione sui social media. Nella registrazione, che è diventata rapidamente virale, si ascoltava Šimečka mentre discuteva con un giornalista su metodi illeciti per manipolare il risultato elettorale. Tuttavia, è stato presto rivelato che la registrazione era in realtà un falso. Secondo esperti di fact-checking, l'audio era stato generato da sofisticate tecniche di intelligenza artificiale.

SØØn – Newsletter n°2 del 12 gennaio 2024

Di |2024-02-21T16:13:27+01:0012 Gennaio , 2024|Riepiloghi|

Gli argomenti trattati questa settimana sono: - NYT reticente secondo OpenAI - L’IA alla ricerca di nuove interfacce mentre tramontano i social - I nuovi Trend per il digitale secondo il Reuters Institute - Prospettive regolatorie per l’IA nel 2024 - Un teologo per dare le linee guida all’IA italiana

Torna in cima