IMMAGINE REALIZZATA CON IA MIDJOURNEY

Un gruppo di scienziati, tra cui la prof.ssa Mariarosaria Taddeo dell’Università di Oxford ed il Prof. Luciano Floridi della Yale University, ha analizzato in modo approfondito i danni associati allo sviluppo dell’Intelligenza Artificiale (IA) proponendo un approccio più ampio per la sicurezza dei sistemi di IA. Sono stati esaminati i danni emergenti in varie fasi dello sviluppo dell’IA, inclusi l’estrazione delle risorse, le pratiche lavorative sfruttatrici e l’addestramento dei modelli ad alta intensità energetica (di cui parliamo, sempre in questa newsletter, anche in relazione ad un altro studio).

Il gruppo di studiosi propone l’adozione di metodi di valutazione olistici per garantire che l’IA sia etica in senso ampio, tenendo conto di aspetti legali, sociali, economici e ambientali. Nel documento si suggerisce l’utilizzo e l’adattamento di meccanismi di sicurezza di altri settori per mitigare questi rischi lungo l’intera catena di fornitura dell’IA, fornendo raccomandazioni su come implementare un approccio più ampio sulla sicurezza dell’IA.

Il documento evidenzia come nella riflessione etica sull’IA certi tipi di problemi sono più enfatizzati rispetto ad altri. In particolare, c’è un’enfasi sui rischi individuali causati dallo sviluppo dell’IA, rispetto a quelli sociali e collettivi. Questa enfasi selettiva è problematica, poiché tali rischi sollevano importanti questioni etiche e richiedono la collaborazione di diverse parti per essere rilevati. È importante notare che i problemi in queste fasi sono interconnessi. Ad esempio, l’accumulo eccessivo di dati in fase di sviluppo aumenta il rischio di problemi collettivi per la privacy.

I danni ambientali sono una componente critica nello sviluppo dei sistemi di IA. Risorse come il cobalto, il silicio e il litio devono essere estratti e trasformati in componenti elettronici, in particolare i semiconduttori, essenziali per l’IA. Questa estrazione, spesso in regioni con governance debole, causa danni ecologici, tra cui l’inquinamento di suolo, aria e acqua. Inoltre, la raccolta e l’archiviazione dei dati, così come l’addestramento dei modelli, richiedono un notevole consumo energetico. Queste esternalità negative non possono essere compensate solo con investimenti in crediti di carbonio, spesso utilizzati nell’industria per obiettivi climatici.

Nella sezione “Raccomandazioni per un approccio più ampio alla garanzia dell’IA” del documento si suggeriscono misure per policy maker e attori del settore per migliorare la sicurezza dell’Intelligenza Artificiale. Si consiglia di incentivare la valutazione dell’impatto della sostenibilità dell’IA, sviluppare un quadro specifico per l’IA per reporting e audit ESG e promuovere un mercato per audit e certificazioni di terze parti. Queste raccomandazioni mirano a un approccio più olistico e responsabile nella gestione dei rischi e dei danni associati allo sviluppo e all’utilizzo dell’IA.