Immagine realizzata con IA Dall-E

Il 30 ottobre 2023 il presidente Biden ha firmato l’ Executive Order che regolerà la creazione, l’utilizzo e la diffusione di modelli di intelligenza artificiale, definendo per la prima volta la posizione politica degli Stati Uniti in questo campo.

Essendo un ordine esecutivo, varrà fino alla fine della presidenza Biden, dopodiché potrà, con altre presidenze continuare ad esistere, essere modificato o annullato. In caso di incompatibilità con la Costituzione potrebbe essere impugnato. In generale, gli ordini esecutivi vengono emanati dai presidenti in caso di emergenza o per trovare soluzioni rapide e applicabili concretamente, in quanto non prevedono l’approvazione da parte del Congresso.

Gli USA, uno dei leader tecnologici nel campo, erano sprovvisti di norme specifiche e finora c’erano solo presupposti teorici per una normativa in campo di IA con il rischio di restare indietro rispetto alla UE, che ha in fase avanzata di elaborazione un vero e proprio regolamento sull’IA (AI ACT).

Il provvedimento di Biden fa sì che gli USA creino una diplomazia diretta con altre forze globali, contribuendo a creare standard internazionali ed affianco ad UE e Cina e altri 25 Paesi, hanno sottoscritto la prima dichiarazione mondiale sui rischi causati dai sistemi di IA. È nato così l’accordo di Bletchley, che prevede una collaborazione a livello globale per individuare e classificare i rischi causati dai sistemi di IA mirando a contenerli.

L’ Executive Order prevede:

  • Nuovi standard per la sicurezza dell’IA e riguarda principalmente le aziende che producono “i più potenti sistemi di AI”, che dovranno condividere informazioni critiche dei loro prodotti con il Governo, cosa che nel panorama americano è inusuale, perché ci troviamo in un’economia liberale.

Per sistemi di IA potenti si intendono tutti modelli che possono rappresentare un rischio di qualsiasi tipo per la sicurezza del Paese, ad esempio  aziende come OpenAI  o Google dovranno condividere con il Governo americano i risultati dei test effettuati dai red team, gruppi organizzati che simulano attacchi ai sistemi di IA, individuandone le debolezze per poi migliorare la loro efficacia.

La sicurezza di questi sistemi sarà garantita da standard istituiti dal National Institute of Standards and Technology. Sarà compito del Dipartimento del Commercio degli Stati Uniti invece, fornire una guida tecnica per valutare l’autenticità dei contenuti prodotti da IA, prevenendo diffusione di notizie false o truffe.

Sarà creato un National Security Memorandum, supervisionato dal capo dello staff della Casa Bianca e dal National Security Council che garantiranno un giusto utilizzo dell’IA anche da parte dei servizi militari e dei servizi segreti statunitensi.

  • La salvaguardia della privacy dei cittadini, attraverso lo sviluppo di modelli di IA che sin dall’inizio proteggano i dati personali degli utenti;
  • La salvaguardia dei diritti umani e l’eguaglianza. I sistemi di IA si basano spesso su un apprendimento automatico e questo molte volte comporta l’acquisizione inconsapevole di dati che contengono dei pregiudizi, causando delle “discriminazioni algoritmiche”. Gli esperti del settore definiscono questo fenomeno come “AI Bias” riferendosi a situazioni in cui sistemi di analisi dei dati basati su IA mostrano atteggiamenti discriminatori nei confronti di alcune categorie.

Per evitare che questo avvenga è stato chiesto alle aziende di creare algoritmi equi ed etici e il Dipartimento di Giustizia e gli Uffici Federali dovranno vigilare che questo avvenga e dovranno fornire delle linee guida antidiscriminazione da seguire.

  • La promozione dell’innovazione attraverso l’istituzione di una task force composta da esperti del settore che permetterà ai ricercatori di accedere facilmente ai dati, (National AI Research Resource)in maniera da sviluppare sistemi di IA all’avanguardia in qualsiasi ambito. Inoltre, è stato istituito un portale sul sito ufficiale del governo (gov) a cui possono accedere studenti ed esperti che non fanno parte della task force, ma che comunque potrebbero contribuire al potenziamento dei sistemi di intelligenza artificiale.

Suresh Venkatasubramanian, direttore del Centro per la responsabilità tecnologica alla Brown University, pone l’attenzione su come questo ordine esecutivo sia valido e abbia una rilevanza in tutte le agenzie federali, ma per quanto riguarda i settori della giustizia penale l’applicazione della legge è competenza di enti locali e fa notare come ultimamente nel campo giuridico ci siano stati gravi errori causati dall’utilizzo di sistemi di IA, come arresti ingiustificati.

La soluzione proposta dal direttore è che il governo americano finanzi le varie agenzie locali o statali per l’implementazione dei nuovi standard di scurezza previsti dall’ordine esecutivo.

Il provvedimento del presidente Biden è stato molto apprezzato anche dall’ex presidente degli Stati Uniti, Obama reputandolo un passo fondamentale per lo sviluppo dei sistemi di IA.