soldato seconda guerra mondiale

IMMAGINE REALIZZATA CON IA MIDJOURNEY

Attraverso un post sul social X, Google ha annunciato il temporaneo blocco del suo nuovo modello di intelligenza artificiale, Gemini, nella produzione di immagini di persone, dichiarando: ‘Stiamo già lavorando per risolvere i recenti problemi con la funzionalità di generazione delle immagini di Gemini. Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo una versione migliorata’.”

La decisione è stata presa in seguito alla diffusione su social media di esempi di immagini generate dallo strumento, le quali raffiguravano figure storiche, come i papi e i padri fondatori degli Stati Uniti, in una varietà di etnie e generi.

Ad esempio, una richiesta di immagini di vichinghi ha prodotto solo persone di colore vestite con abiti tradizionali dei guerrieri norreni. Analogamente, la richiesta di raffigurare i ‘padri fondatori’ degli Stati Uniti ha restituito immagini di nativi americani in abiti coloniali o persino un George Washington di colore. Quando si è chiesto di rappresentare un papa, Gemini ha mostrato solo persone di etnie diverse da quella bianca.

Le reazioni non si sono fatte attendere, con alcuni esponenti della destra americana che hanno interpretato le immagini prodotte da Gemini come una conferma dei pregiudizi delle big tech contro i bianchi. L’imprenditore Mike Solana ha persino definito l’IA di Google come “un pazzo anti-bianchi”.

In un altro post su X, un ex dipendente di Google ha dichiarato: “È difficile convincere Google Gemini a riconoscere che esistono i bianchi”.

Lo stesso amministratore delegato di Google, Pichai ha descritto alcune risposte del modello di intelligenza artificiale Gemini della società come “distorte” e “del tutto inaccettabili” e ha dichiarato: “I nostri team hanno lavorato 24 ore su 24 per affrontare questi problemi. Stiamo già riscontrando un miglioramento sostanziale su un’ampia gamma di suggerimenti”

Inoltre, ha aggiunto che Google intraprenderà una serie di azioni su Gemini, tra cui “cambiamenti strutturali, linee guida aggiornate sui prodotti e processi di lancio migliorati”.

La questione dei pregiudizi nell’intelligenza artificiale non è una novità e diversi studi in passato avevano evidenziato l’impatto negativo che questi avevano avuto sulle persone di colore.

Un’indagine del Washington Post dello scorso anno ha mostrato come alcuni generatori di immagini esibiscano pregiudizi contro le persone di colore e sessismo. Ad esempio, il generatore di immagini Stable Diffusion XL ha prodotto immagini in cui i destinatari dei buoni pasto erano principalmente non bianchi o con la pelle più scura, nonostante la maggioranza dei beneficiari dei buoni pasto negli Stati Uniti fosse bianca.

Andrew Rogoyski, dell’Institute for People-Centred AI presso l’Università del Surrey, ha sottolineato che mitigare i bias è una sfida diffusa nel campo del deep learning e dell’intelligenza artificiale generativa, con il rischio di errori sempre presente.

Ulteriori ricerche, come quella condotta da “Rest of world” e riportata dal Reuters Institute, hanno mostrato pregiudizi, stereotipi e semplificazioni nei sistemi di intelligenza artificiale generativa. Queste distorsioni possono influenzare la percezione delle identità individuali.

Il team di “Rest of world” ha utilizzato Midjourney per esplorare il fenomeno, rivelando che le rappresentazioni di persone cinesi, indiane e nigeriane erano spesso stereotipate. Anche gli oggetti e i contesti quotidiani sono stati soggetti a distorsioni, con abitazioni in paesi asiatici raffigurate in modo tradizionale e piccolo, a differenza delle case negli Stati Uniti, rappresentate come moderne e spaziose. Anche il cibo è stato soggetto a stereotipi, con presentazioni poco attraenti per l’India e la Nigeria rispetto ai paesi occidentali.

Anche il genere e l’età sono stati influenzati dalle distorsioni, con immagini di donne che enfatizzavano la giovinezza e la bellezza secondo standard occidentali, mentre gli uomini venivano rappresentati come anziani e saggi.

Valeria Piaggio, manager di Kantar (società che opera nel data management ed offre insight), sottolinea le implicazioni di queste distorsioni, specialmente nel settore del marketing e della pubblicità, dove strumenti come questi potrebbero perpetuare stereotipi dannosi anziché promuovere una rappresentazione equa e diversificata.