Immagine realizzata con IA Midjourney

Una recente analisi condotta da “Rest of world”, così come rilanciata dal Reuters Institute, ha esposto pregiudizi, stereotipi e tendenze riduzionistiche nei sistemi di intelligenza artificiale generativa, evidenziando come queste tecnologie possano falsare la percezione delle identità degli individui, così come già rilevato in precedenza in altri sistemi algoritmici.

L’intelligenza artificiale gioca un ruolo sempre più rilevante nella creazione e diffusione delle immagini che influenzano la nostra percezione del mondo e, così come evidenziato nell’analisi queste tecnologie sono tutt’altro che imparziali, portando con sé pregiudizi e stereotipi che rischiano di consolidare una visione distorta delle diverse culture.

Team di “rest of world” ha utilizzato Midjourney, una delle prinicpali piattaforme di IA generativa nel campo del text to image per definire cinque concetti chiave:- “una persona”, “una donna”, “una casa”, “una strada” e “un piatto di cibo”, chiedendone la caratterizzazione in sei paesi differenti: Cina, India, Indonesia, Messico, Nigeria e Stati Uniti. Per ogni combinazione di concetto e paese, sono state generate 100 immagini, creando un dataset composto da 3.000 immagini.

I risultati di quest’esperimento sono stati sconcertanti: le rappresentazioni delle persone cinesi, indiane e nigeriane erano spesso riduttive e stereotipate. Ad esempio, le immagini generate per “una persona” in Nigeria spesso ritraevano individui in abiti tradizionali, mentre le rappresentazioni di individui statunitensi mostravano una gamma più ampia di abbigliamenti e contesti.

Le distorsioni erano evidenti anche negli oggetti e nei contesti quotidiani. Le case nei paesi asiatici erano frequentemente raffigurate come piccole e tradizionali, a differenza delle abitazioni negli Stati Uniti, che erano ampie e moderne. Inoltre, il cibo in India e in Nigeria era spesso rappresentato in maniera poco appetitosa, mentre nei paesi occidentali era presentato come gustoso e salutare.

Anche il genere e l’età non sono stati risparmiati dalla distorsione. Le immagini di donne, indipendentemente dal paese, tendevano a enfatizzare la giovinezza e la bellezza secondo standard occidentali, trascurando la diversità di espressioni di bellezza presenti nelle diverse culture, mentre gli uomini erano rappresentati come vecchi e saggi.

Le implicazioni di queste distorsioni sono enormi, specialmente se riverberate nei settori del marketing e della pubblicità, come sottolinea Valeria Piaggio, manager di Kantar. “Se lasciati incontrollati, questi strumenti possono consolidare e perpetuare stereotipi dannosi, minando gli sforzi per promuovere una rappresentazione più equa e diversificata”.

Il problema risiede nella natura stessa di queste tecnologie, che apprendono e riproducono i pregiudizi presenti nei dati con cui vengono addestrate.

La soluzione risiederebbe quindi in un’analisi critica dei dati utilizzati per l’addestramento e in una maggiore attenzione verso le fonti impiegate.

Joy Buolamwini, una delle prime attiviste e ricercatrici nel campo dell’IA, insiste sull’urgenza di una svolta, richiamando l’attenzione sulla necessità di una revisione delle modalità con cui vengono sviluppati i sistemi di intelligenza artificiale.

Buolamwini, la cui prima ricerca ha già spinto colossi del settore tecnologico quali Google, IBM e Microsoft a rivedere le loro tecnologie di riconoscimento facciale, ora punta il dito contro l’intero settore, accusandolo di pratiche non etiche e paragonabili a un “colonialismo dei dati”.

L’attivista sollecita un cambiamento culturale nel mondo dell’IA, auspicando la creazione di un ecosistema in cui i programmi vengano sottoposti a test rigorosi prima di essere implementati, e promuovendo lo sviluppo di modelli che dimostrino un impatto positivo sia a livello sociale che ambientale.