IMMAGINE REALIZZATA CON IA MIDJOURNEY

Durante la ventiquattresima riunione plenaria, che si è svolta dal 29 novembre al 1° dicembre 2023, il Comitato direttivo per i media e la società dell’informazione (CDMSI) del Consiglio d’Europa ha adottato le Linee guida sull’implementazione responsabile dei sistemi di intelligenza artificiale (IA) nel giornalismo. Queste linee guida, elaborate dal Comitato di esperti sull’aumento della resilienza dei media (MSI-RES), rappresentano un contributo significativo alla promozione di una sfera di comunicazione pubblica basata sullo stato di diritto e rispettosa dei diritti umani.

Il documento fornisce orientamenti pratici ad una vasta gamma di destinatari, con particolare attenzione agli organi di informazione, agli Stati, ai fornitori di tecnologia e alle piattaforme digitali coinvolte nella diffusione delle notizie. Esse delineano dettagliatamente come i sistemi di intelligenza artificiale dovrebbero essere utilizzati per sostenere la produzione giornalistica, affrontando le diverse fasi che vanno dalla decisione di adottare tali sistemi all’acquisizione di strumenti AI, all’integrazione pratica nell’ambito giornalistico e agli impatti esterni sull’audience e sulla società.

Le Linee guida propongono responsabilità specifiche per fornitori e piattaforme tecnologiche, così come per gli Stati membri. Sottolineano il ruolo cruciale degli Stati nello sviluppo di standard per l’uso responsabile dell’IA e nel fornire supporto, anche attraverso schemi finanziari per il progresso di sistemi di IA giornalistica responsabile.

L’approccio delle Linee guida si concentra specificamente sul settore del giornalismo, concretizzando principi generali nell’applicazione pratica: esse definiscono i sistemi di intelligenza artificiale giornalistica che possono essere impiegati in svariate attività, dall’analisi dei dati per il giornalismo investigativo, al controllo dei fatti, alla generazione automatizzata di testo, video e audio, e ad attività di routine come traduzione e trascrizione.

Tale indicazioni sono riferite a fornitori di tecnologia, utenti dell’IA (tipicamente testate giornalistiche), e il pubblico dell’IA, ovvero coloro che sono esposti agli output dei sistemi di IA giornalistica.

Un elemento significativo del documento è l’attenzione ai diritti umani come contributo alla resilienza del giornalismo nell’era digitale.

Emerge che la decisione di implementare sistemi di intelligenza artificiale giornalistica è una scelta strategica con impatti significativi sui processi interni, la percezione pubblica del giornalismo e le condizioni di lavoro nell’ecosistema mediatico. Invita a una valutazione completa, coinvolgendo diverse prospettive e interessi, affrontando sia aspetti procedurali che sostanziali.

Viene inoltre incoraggiata la promozione delle condizioni per lo sviluppo open source, la condivisione di buone pratiche, la multidisciplinarietà e le collaborazioni tra settore e mondo accademico, sottolineando l’importanza di uno spazio per la sperimentazione per lo sviluppo di un’intelligenza artificiale giornalistica responsabile.

Linee guida per l’implementazione responsabile dei sistemi di Intelligenza Artificiale nell’ambito giornalistico:

  1. Decisione di Implementazione: La decisione di implementare sistemi di Intelligenza Artificiale (IA) giornalistica dovrebbe essere guidata dalla missione e dai valori dell’organizzazione, non solo da considerazioni tecniche o commerciali. La decisione è di natura editoriale, con il redattore capo come figura chiave responsabile dell’implementazione e dei risultati. L’implementazione dovrebbe rispondere a esigenze specifiche nel flusso di lavoro giornalistico. La valutazione sistematica del rischio è essenziale, considerando potenziali impatti su dati, diritti umani, ambiente e diritti dei lavoratori. Il processo decisionale dovrebbe coinvolgere diversi interessi, garantendo trasparenza nelle decisioni prese a livello organizzativo. Un “proprietario del problema” dovrebbe avere una visione completa e responsabilità nel processo decisionale. Le decisioni dovrebbero essere basate su ciò che è legalmente e tecnicamente fattibile, coinvolgendo un dialogo tra utenti e fornitori di IA. Le decisioni dovrebbero essere supportate da prove di concetto o test di prototipi per comprendere meglio le opportunità. L’implementazione dovrebbe essere parte di un processo circolare, monitorando regolarmente le prestazioni, la conformità alla missione e l’evoluzione del contesto legale ed etico.
  2. Identificazione e Acquisizione: L’identificazione di compiti automatizzabili dovrebbe guidare l’acquisizione di sistemi di IA giornalistica, considerando opzioni di approvvigionamento responsabile. La valutazione rigorosa di disponibilità, equità e qualità dei dati è essenziale, con attenzione alla privacy e alla protezione dei dati. La scelta dei fornitori di tecnologia dovrebbe considerare gli sforzi per garantire l’uso responsabile dei dati.
  3. Integrazione degli Strumenti di IA: Le infrastrutture tecniche e organizzative devono supportare i sistemi di IA, con attenzione alla diversità del personale. La supervisione editoriale è necessaria per evitare risultati errati, specialmente in compiti sensibili o con conseguenze significative. Valutazioni continue del rischio dovrebbero essere effettuate. La divulgazione dell’uso di sistemi di IA dovrebbe essere praticata, migliorando la trasparenza, come più volte già indicato in Italia dal presidente dell’Ordine dei giornalisti, Carlo Bartoli. La formazione continua del personale su IA e tematiche etiche è fondamentale. Lo sviluppo e l’implementazione responsabili richiedono investimenti a lungo termine e potenziale condivisione di conoscenze e pratiche migliori, specialmente da parte dei media di servizio pubblico ben finanziati.
  4. Decisione di Implementazione: La scelta di integrare sistemi di Intelligenza Artificiale (IA) nell’ambito giornalistico deve essere guidata dai valori e dalla missione dell’organizzazione, coinvolgendo un processo decisionale partecipativo. Il redattore capo è responsabile dell’implementazione, e la decisione dovrebbe rispondere a esigenze specifiche del flusso di lavoro giornalistico. La valutazione sistematica del rischio è fondamentale, considerando impatti su dati, diritti umani, ambiente e diritti dei lavoratori. Il processo decisionale deve coinvolgere diversi interessi, garantendo trasparenza nelle decisioni organizzative. Un “proprietario del problema” svolge un ruolo chiave nella visione d’insieme e nella responsabilità decisionale. Le decisioni dovrebbero basarsi su fattibilità legale e tecnica, coinvolgendo un dialogo tra utenti e fornitori di IA. L’implementazione deve essere supportata da prove di concetto o test di prototipi e essere parte di un processo circolare, monitorando regolarmente le prestazioni.
  5. Identificazione e Acquisizione: L’acquisizione di sistemi di IA giornalistica dovrebbe derivare dall’identificazione di compiti automatizzabili, con attenzione all’approvvigionamento responsabile. La valutazione rigorosa di disponibilità, equità e qualità dei dati è essenziale, con rispetto per la privacy e la protezione dei dati. La scelta dei fornitori di tecnologia dovrebbe considerare gli sforzi per garantire l’uso responsabile dei dati.
  6. Obblighi Generali degli Stati: Gli Stati devono proteggere e creare condizioni favorevoli per i diritti umani e il pluralismo dei media. La diversificazione dei finanziamenti è necessaria per sostenere progetti di sviluppo a breve e lungo termine nell’ambito dell’intelligenza artificiale giornalistica. Si sottolinea l’importanza di non compromettere l’indipendenza del giornalismo durante queste iniziative. Gli Stati devono svolgere un ruolo chiave nel favorire l’accesso e la scelta tra fornitori di tecnologia che rispettino i valori giornalistici e i diritti umani. Vengono suggerite azioni specifiche come la creazione di condizioni favorevoli per soluzioni open source, l’accesso ai dati di formazione e la promozione della concorrenza tra i fornitori di tecnologia, inclusi quelli europei e le start-up.