OpenAI e la sicurezza dei sistemi dell’IA
La possibilità di deviazioni dei modelli di intelligenza artificiale è concreta e reale, tale rischio è sottolineato dall'impegno di OpenAI, nella formazione di nuovi gruppi di lavoro dedicati a garantire una maggiore sicurezza nei propri modelli. Per far fronte a questa sfida, l'azienda ha istituito diversi team tecnici: un “team di preparazione" che ha l'obiettivo principale di tracciare un percorso chiaro per identificare, analizzare e decidere come affrontare i rischi associati ai modelli in fase di sviluppo che opera attivamente nell'identificare e quantificare i rischi prima che un modello venga rilasciato al pubblico. Inoltre, c'è il "team di superallineamento" dedicato allo sviluppo di linee guida teoriche per modelli "superintelligenti". Questi modelli, che potrebbero essere molto avanzati, richiedono una progettazione e una gestione particolarmente attente.