Londra crea l’AI Safety Institute per affrontare i rischi dei modelli di IA
L'AI Safety Institute, l'organizzazione dedicata alla sicurezza nell'utilizzo e nello sviluppo dell'intelligenza artificiale inglese presentata dal primo ministro Rishi Sunak lo scorso anno, ha reso pubblici i primi risultati della sua ricerca sui modelli linguistici di grandi dimensioni (LLM), alla base di strumenti come i chatbot e i generatori di immagini. I modelli LLM hanno dimostrato di essere vulnerabili all'inganno e alla manipolazione, aprendo la porta a possibili abusi. Sui modelli testati è emerso il grave rischio che potrebbero assistere nella pianificazione di attacchi informatici. Un esempio emblematico emerso dalla ricerca è l'identificazione di un modello capace di generare personaggi sui social media per diffondere disinformazione in modo altamente convincente ed efficiente.