La Commissione europea, insieme ai paesi e alle parti interessate dello Spazio europeo della ricerca, ha recentemente presentato una serie di linee guida volte a sostenere l’uso responsabile dell’intelligenza artificiale generativa (AI) nell’ambito della ricerca scientifica. Queste linee guida affrontano le sfide e le opportunità connesse alla crescente diffusione di questa tecnologia in vari settori, compreso quello scientifico. Fondate sui principi dell’integrità della ricerca, le raccomandazioni forniscono una guida uniforme per i ricercatori, le organizzazioni di ricerca e i finanziatori in tutta Europa.

Con l’AI Act L’Unione Europea sta assumendo un ruolo guida a livello globale. La ricerca è uno dei settori che potrebbe essere sconvolto in modo più significativo dall’intelligenza artificiale generativa. L’intelligenza artificiale ha un grande potenziale per accelerare la scoperta scientifica e migliorare l’efficacia e il ritmo dei processi di ricerca e verifica.

Tuttavia, la tecnologia comporta anche il rischio di abusi. Alcuni rischi sono dovuti ai limiti tecnici dello strumento, mentre altri hanno a che fare con l’uso dello strumento in modi che minano le solide pratiche di ricerca. Altri rischi per la ricerca in Europa potrebbero derivare dalla natura proprietaria di alcuni strumenti, o dalla concentrazione della proprietà.

Diverse istituzioni hanno pubblicato linee guida su come utilizzare questi strumenti in modo appropriato per garantire che i benefici di tali strumenti siano pienamente utilizzati.

Per questo motivo, il Forum dello Spazio Europeo della Ricerca ha deciso di sviluppare linee guida sull’uso dell’intelligenza artificiale generativa nella ricerca per enti finanziatori, organizzazioni di ricerca e ricercatori, sia nel settore della ricerca pubblica che privata.

Le linee guida intendono definire indicazioni comuni sull’uso responsabile dell’IA generativa. Devono essere considerati come uno strumento di supporto e non vincolanti, tenendo conto dei principi chiave sull’integrità della ricerca e dei quadri già esistenti per l’uso dell’IA in generale e nella ricerca specifica.

I principi chiave alla base di queste linee guida per l’uso responsabile dell’IA generativa nella ricerca sono:

  • Affidabilità nel garantire la qualità della ricerca, riflessa nella progettazione, metodologia, analisi e utilizzo delle risorse. Ciò include aspetti legati alla verifica e alla riproduzione delle informazioni prodotte dall’IA per la ricerca. Implica anche essere consapevoli di possibili problemi di uguaglianza e non discriminazione in relazione a pregiudizi e inesattezze.
  • Onestà nello sviluppo, realizzazione, revisione, rendicontazione e comunicazione della ricerca in modo trasparente, equo, completo e imparziale. Questo principio include la divulgazione dell’utilizzo dell’IA generativa
  • Rispetto per i colleghi, i partecipanti alla ricerca, i soggetti di ricerca, la società, gli ecosistemi, il patrimonio culturale e l’ambiente. L’uso responsabile dell’IA generativa dovrebbe tenere conto dei limiti della tecnologia, del suo impatto ambientale e dei suoi effetti sociali (pregiudizi, diversità, non discriminazione, equità e prevenzione dei danni). Ciò include la corretta gestione delle informazioni, il rispetto della privacy, della riservatezza e dei diritti di proprietà intellettuale e la corretta citazione.
  • Responsabilità per la ricerca dall’idea alla pubblicazione, per la sua gestione e organizzazione, per la formazione, supervisione e tutoraggio e per i suoi impatti sociali più ampi. Ciò include la responsabilità per tutti i risultati prodotti da un ricercatore, sostenuta dalla nozione di azione umana e supervisione.

L’intelligenza artificiale generativa può creare opportunità e rischi che al momento risultano difficili da prevedere e comprendere appieno. Nel documento è espressamente sottolineato che le linee guida sono fondate sullo stato attuale della tecnologia e sul contesto politico circostante. Dato il carattere dinamico di entrambi, tali linee guida dovranno adattarsi ed evolversi costantemente.