viso di una donna orientale

IMMAGINE REALIZZATA CON IA MIDJOURNEY

La questione di distinguere se i contenuti sono generati dalla mente umana o dall’intelligenza artificiale sta diventando sempre più complessa e necessaria. Con il passare del tempo, la linea di demarcazione tra i contenuti umani e quelli prodotti dall’IA si sta assottigliando, suscitando la necessità delle persone di riuscire a distinguerne la provenienza.

Attualmente, l’industria dell’IA sta ancora lavorando per stabilire standard comuni per identificare immagini, video e audio generati dall’IA.

Vi sono progressi in tal senso da parte di alcune aziende, come Meta che, fin dalla creazione del suo strumento di generazione di immagini, Meta AI, ha iniziato ad etichettare le immagini fotorealistiche, introducendo marcatori visibili, filigrane invisibili e metadati nei file di immagine.

Tuttavia, per Meta rimane prioritario riconoscere anche i contenuti IA non generati con gli strumenti di Meta AI. L’azienda sta cercando di collaborare con altri attori del settore, come  come la Partnership on AI (PAI), per definire standard tecnici comuni che indichino quando un contenuto è stato creato con l’IA e consentire anche il riconoscimento di immagini generate dall’IA e pubblicate su piattaforme come Facebook, Instagram e Threads.

Meta come ha dichiarato con un post sul suo blog  sta quindi lavorando per introdurre gli standard tecnici C2PA (Consortium for Content Provenance and Authenticity: consorzio globale composto da aziende leader nel settore dei media, tra cui Google, Microsoft, la BBC, che ha l’obiettivo di sviluppare e promuovere standard tecnici e best practice per la provenienza e l’autenticità dei contenuti digitali) e IPTC (International Press Telecommunications Council  un’organizzazione globale senza scopo di lucro che ha sviluppato standard per l’industria editoriale e dei media), al fine di etichettare le immagini generate da aziende come Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.

L’etichettatura dei contenuti generati dall’IA non riguarda solo le immagini, ma anche i video e l’audio. Tuttavia, rilevare e etichettare questi contenuti è un compito ancora più difficile. Meta riconosce che mettere in atto queste policy richiede un impegno congiunto da parte delle piattaforme e degli utenti. Diventa cruciale non solo per le aziende, ma anche per gli utenti utilizzare gli strumenti di divulgazione ed etichettatura quando pubblicano contenuti organici con un video fotorealistico o un audio realistico creato o alterato digitalmente. Per combattere la diffusione di deepfake è necessario anche una forte responsabilizzazione degli utenti.

Tuttavia, secondo Nick Clegg, Presidente Affari globali di Meta, rilevare questi tipi di contenuti falsi rimane generalmente difficile, poiché la marcatura e il watermarking non sono ancora stati adottati su larga scala per consentire un efficace rilevamento: “Non è ancora possibile identificare tutti i contenuti generati dall’Ai, poiché esistono modi in cui le persone possono eliminare i marcatori invisibili. Per questo stiamo valutando una serie di opzioni lavorando con impegno per sviluppare classificatori che ci aiutino a individuare automaticamente i contenuti generati dall’Ai, anche quelli che non presentano contrassegni invisibili e allo stesso tempo, stiamo cercando modi per rendere più difficile la rimozione o l’alterazione delle filigrane invisibili”