ACCORDO ai

IMMAGINE REALIZZATA CON IA DALL-E

Il 27 novembre 2023, una coalizione di 18 paesi tra cui Stati Uniti, Regno Unito, Germania, Italia, Repubblica Ceca, Estonia, Polonia, Australia, Cile, Israele, Nigeria e Singapore, ha presentato un accordo pionieristico per la sicurezza nell’intelligenza artificiale (IA). Questo accordo, sebbene non vincolante, stabilisce raccomandazioni dettagliate per le aziende che sviluppano e utilizzano l’IA per garantire che vengano progettati sistemi “sicuri dalla progettazione” che proteggano i clienti e il pubblico da abusi.

Il documento di 20 pagine incentrato su queste raccomandazioni sottolinea la necessità di monitorare i sistemi di IA per abusi, proteggere i dati da manomissioni e controllare i fornitori di software. L’importanza dell’accordo è stata enfatizzata da Jen Easterly, direttore della US Cybersecurity and Infrastructure Security Agency, che ha riconosciuto l’importanza dell’adozione di misure di sicurezza nella progettazione dei sistemi di IA come principio fondamentale.

La mossa riflette una crescente consapevolezza globale del potenziale dirottamento dell’IA da parte di hacker, nonché delle sue implicazioni più ampie nell’industria e nella società. Il documento non affronta però questioni più delicate come gli usi appropriati dell’IA o le pratiche di raccolta dati.

L’Europa è considerata più avanti degli Stati Uniti nella regolamentazione dell’IA, con i legislatori che stanno elaborando regole specifiche. Francia, Germania e Italia hanno anche raggiunto un’intesa sull’adozione di “codici di condotta” (come già evidenziato in precedenza) per una sorta di autoregolamentazione obbligatoria per i modelli di IA fondamentali, che sono essenziali per generare una vasta gamma di risultati.

L’amministrazione Biden ha spinto per una regolamentazione più forte dell’IA negli Stati Uniti, ma ha incontrato resistenza in un Congresso polarizzato. Nonostante ciò, la Casa Bianca ha emesso un ordine esecutivo in ottobre per mitigare i rischi dell’IA per i consumatori, i lavoratori e le minoranze, e al tempo stesso rafforzare la sicurezza nazionale.

Le linee guida per lo sviluppo sicuro dei sistemi di IA sono state sviluppate dal National Cyber Security Centre (NCSC) del Regno Unito e dalla Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti, con la collaborazione di esperti del settore e altre 21 agenzie e ministeri internazionali, inclusi i membri del G7 e del Global South. Queste iniziative dimostrano un impegno crescente a livello globale per plasmare lo sviluppo dell’IA in modo responsabile e sicuro.