Per far fronte a questa sfida, l’azienda ha istituito diversi team tecnici: un “team di preparazione” che ha l’obiettivo principale di tracciare un percorso chiaro per identificare, analizzare e decidere come affrontare i rischi associati ai modelli in fase di sviluppo che opera attivamente nell’identificare e quantificare i rischi prima che un modello venga rilasciato al pubblico.
Inoltre, c’è il “team di superallineamento” dedicato allo sviluppo di linee guida teoriche per modelli “superintelligenti”. Questi modelli, che potrebbero essere molto avanzati, richiedono una progettazione e una gestione particolarmente attente.
Il lavoro dei team è valutare ogni modello in base a quattro categorie di rischio fondamentali: sicurezza informatica, “persuasione” (che include la gestione della disinformazione), autonomia del modello (ovvero, la possibilità di azioni autonome) e CBRN (minacce chimiche, biologiche, radiologiche e nucleari, ecc.).
L’obiettivo è spingere i modelli ai loro limiti per valutare efficacemente i rischi e misurare l’efficacia delle eventuali mitigazioni proposte. Saranno definiti livelli di rischio che attiveranno misure di sicurezza di base, garantendo che solo i modelli con un punteggio post-mitigazione “medio” o inferiore possano essere implementati e ulteriormente sviluppati.
Una volta identificati i rischi, il Safety Advisory Group un organo che si posiziona al di sopra dei team tecnici entra in azione, formulando raccomandazioni dirette a Sam Altman, CEO di OpenAI.
Altman prende quindi decisioni sulle eventuali modifiche da apportare al modello al fine di ridurre i rischi associati. Nel caso in cui un modello sia valutato con un rischio elevato, non può essere implementato, e se presenta rischi critici, non verrà sviluppato ulteriormente.
Il Quadro di preparazione (Beta) di OpenAI definisce un approccio dettagliato per lo sviluppo e l’implementazione sicura dei modelli di IA.
Inoltre, un gruppo consultivo sulla sicurezza interfunzionale esaminerà i rapporti, fornendo feedback alla leadership e al consiglio di amministrazione. Saranno sviluppati protocolli per una maggiore sicurezza e responsabilità esterna, con esercitazioni regolari e la possibilità di risposte rapide a problemi urgenti di sicurezza.
OpenAI inoltre riconosce l’importanza del feedback esterno e prevede audit da parte di terze parti qualificate e indipendenti. Collaborazioni con soggetti esterni e team interni sono previste per monitorare gli usi impropri dei modelli nel mondo reale e per affrontare rischi noti e sconosciuti.
Appare quindi evidente che OpenAI si stia impegnando per dimostrare la propria capacità di produrre e gestire sistemi di IA affidabili e sicuri, di fronte alle molte preoccupazioni che la rapida evoluzione di questi sistemi generano. Altro desumibile obiettivo è quello di predisporsi a non essere limitati dai molti dispositivi normativi che si stanno approntando in diverse parti del mondo: i quattro livelli di rischio previsti dalle regole di OpenAI somigliano straordinariamente a quelli proposti dall’AI Act dell’Unione Europea.