Nel contesto digitale attuale, gli artisti che si sentono minacciati dall’IA cercano metodi per salvaguardare le loro opere dall'uso non consentito da parte di sistemi di intelligenza artificiale.
È stata ideata un’applicazione Nightshade considerata il veleno per l’IA, grazie ad un software che introduce alterazioni non rilevabili visivamente nelle opere digitali, gli algoritmi di apprendimento automatico durante la fase di addestramento facilmente vengono ingannati cadendo in errore causano una scorretta interpretazione del contenuto delle immagini. Un'altra soluzione che agisce in maniera più discreta è Glaze, permette di mascherare le caratteristiche distintive dello stile di un'opera d'arte, rendendola meno identificabile e di conseguenza meno utilizzabile per il training di modelli di IA, tale software consente gli artisti di tutelare il loro stile senza però modifiche estreme all'opera. |