Articolo già pubblicato su Media studies.
Il testo che segue è stato oggetto della mia relazione nel corso del convegno presso l’Università LUMSA a Roma, in occasione del premio giornalistico “Alessandra Bisceglia”, sul tema del giornalismo e intelligenza artificiale.
Come scriveva Domenico De Masi nel suo libro La felicità negata, riprendendo il concetto di Edgar Morin sulla “sfida della complessità”, il progresso della conoscenza – sia scientifica che umanistica – non è un percorso lineare e ordinato verso una sempre maggiore chiarezza.
È palese che la sfida della complessità sia necessariamente applicabile al processo che è in corso in questo momento nel mondo dell’informazione con l’avvento dell’Intelligenza artificiale. Un processo al quale si tenta di dare risposte semplici, individuare formule risolutive che possano salvaguardare il giornalismo, il suo business e l’informazione giornalistica più in generale.
Purtroppo, non funziona così.
Questo processo si sviluppa su molti piani, economico, giuridico, sociale, tecnologico, perché il percorso su cui ci stiamo avviando (siamo in realtà da tempo in cammino) è rivoluzionario, un “game changer” o, come dicono i sociologi, “un cambio di paradigma”.
Ci sono aspetti che sono potenzialmente positivi nell’uso di queste tecnologie per le redazioni, ma parallelamente i rischi sono rilevanti.
Parto da un esempio concreto.
In quest’ultimo anno gli editori di tutto il mondo hanno stipulato accordi con le aziende di Intelligenza Artificiale, per consentire loro di addestrare i propri modelli su informazioni aggiornate, affidabili e verificate. Condé Nast, the Financial Times, the Associated Press, The Atlantic, Axel Springer, il Corriere della Sera, sono solo alcune di queste testate ed editori che hanno stipulato questi accordi.
In cambio agli editori verranno fornite tecnologie di IA, aggiornamento professionale e qualcosa che è stata ritenuta fondamentale: la citazione delle fonti nelle risposte dei BOT delle IA. In questo modo si spera di ottenere un effetto “motore di ricerca” per il quale i bot IA possano trasferire traffico alle pagine dei siti delle testate, dove queste raccolgono i dati dei propri lettori e fanno la pubblicità.
Ed è già qui che si manifesta la complessità: gli editori corrono per arrivare primi in questa competizione tecnologica e per partecipare alla corsa cedono l’unico oggetto di valore che hanno: le informazioni che producono.
Valore, intendiamoci, non nel senso del valore economico di una notizia che da tempo ormai, nell’epoca della copia immediata ed indefinita del digitale, sono delle commodities. Ma è il valore del brand che le produce che conta e che viene ceduto, l’affidabilità e la qualità delle notizie. Valore che gli editori pensano di poter recuperare attraverso i link.
Quindi, nel momento storico in cui la quantità dei lettori e del testo letto è esponenzialmente diminuita, si presuppone che un lettore, dopo aver avuto una risposta esaustiva da un chatbot decida anche di visitare la fonte.
Siamo sicuri che funzionerà proprio così?
Questa corsa frenetica, forse “affrettata” è il termine più corretto, riporta alla mente di chi l’ha vissuta, una analoga competizione, oltre una decina di anni fa, che indusse gli editori ad investire ingenti risorse nella visibilità sui social network, allora principalmente Facebook e Twitter.
Si aprì quindi un ampio dibattito sul tema, tra esperti di giornalismo, giornalisti, accademici, un po’ come adesso con l’intelligenza artificiale. Ricordo in particolare quando, ad ottobre del 2014, lo scomparso David Carr sul New York Times, stigmatizzò la questione, scrivendo:
“Per gli editori, Facebook è un po’ come quel grosso cane che galoppa verso di te nel parco. Il più delle volte, è difficile capire se vuole giocare con te o divorarti”
Non ci si era resi conto che in quel modo si cedeva a Zuckerberg ed affini molto più di un link ai propri articoli, si cedeva la gestione della propria immagine, della propria reputazione, dei propri lettori, della propria qualità.
Fino a quando questo è servito alle piattaforme.
Sono ormai due anni che il traffico di ritorno dai social (cosiddetto “referral”) verso le testate è crollato in alcuni casi del 90%.
Potremmo quindi dire che il grosso cane, dopo aver giocato, le ha anche divorate.
Oggi le bacheche dei social sono popolate da reel, storie e post di creators che, a loro volta, si affannano a crearsi spazi in quei luoghi.
Domani (domani.. forse oggi) i social network saranno popolati di notizie ed immagini create sinteticamente. Anzi è notizia di questi giorni che è nato un nuovo social, “Social AI”, dove è possibile registrarsi scegliendo la tipologia dei contatti con cui si vuole interagire: amichevoli, critici, colti.
Peccato che tutti i contatti siano dei bot, migliaia di bot, in grado di rispondere e conversare nelle modalità prescelte.
Un vero capolavoro dell’onanismo e dell’asocialità.
E d’altra parte, la complessità di questo rapporto tra l’Intelligenza artificiale e gli editori si palesa nel fatto che altri attori non hanno stipulato accordi di quel tipo ed uno di questi si chiama The New York Times.
Poi c’è la complessità nel comprendere dove va a finire il diritto d’autore che riguarda evidentemente anche l’informazione giornalistica.
Mark A. Lemley, professore di diritto presso la Stanford Law School, in un documento dello scorso giugno pubblicato sulla Science and Technology Law Review, afferma che, mentre molti casi di copyright legati all’IA sono già sotto esame nei tribunali ovvero la questione dell’uso equo di dati di addestramento come nel procedimento The New York Times vs OpenAI, queste questioni non rappresentano il vero impatto che la tecnologia IA avrà sulle leggi esistenti.
Il cambiamento della dottrina sarà necessario in seguito alla trasformazione della creatività stessa. Storicamente, il diritto d’autore è servito a proteggere coloro che creano opere originali.
Tuttavia, con l’avvento dell’IA, la creazione si sposta da un’opera fisica o concettuale a un processo di “domanda” o “prompt”, dove l’utente fornisce input o istruzioni che l’IA trasforma in contenuti.
Questa nuova dinamica pone un’enorme pressione sulle dottrine fondamentali del diritto d’autore: per Lemley il ruolo tradizionale del diritto d’autore, ovvero premiare la creatività dell’autore, sarà drasticamente ridotto, poiché l’IA svolge il grosso del lavoro creativo.
Quindi abbiamo già visto due tipologie di complessità; una riguarda l’impatto dell’Intelligenza Artificiale sul business model del giornalismo, l’altra il diritto d’autore.
La questione potrebbe essere molto più ampia perché ci sono problemi di autorialità, di norme giuridiche che non riescono ad avere efficacia sovranazionale, a causa delle differenze culturali, politiche e dei diversi interessi economici che esistono nel mondo e che inevitabilmente si riflettono anche in questo campo.
Molto diverso per obiettivi e scenari il nuovo regolamento AI Act dell’Ue rispetto ai sistemi normativi presenti in altri continenti, Cina e Stati Uniti ad esempio.
Quindi? Quindi come dicevo all’inizio non esiste una soluzione “ex-ante”, semplice o definitiva.
Come tutti i processi di trasformazione, rivoluzionari come questo, è necessario un tempo utile per la comprensione e la metabolizzazione dei cambiamenti.
L’intelligenza artificiale è una rivoluzione già da tempo presente in tutte le nostre attività, nei nostri smartphone, nei programmi di traduzione e trascrizione, già da tempo nel giornalismo e nelle redazioni italiane.
Diciamo la verità: non è l’automazione che ci preoccupa, che ci spaventa!
È più profondamente la fantasia (o ipotesi plausibile) della sostituzione del pensiero umano con un algoritmo.
L’ipotesi di divenire superflui, soverchi, ridondanti. Legittima come ogni paura ma da sola non serve.
È la stessa paura che gli editori hanno avuto quando Internet ha effettuato la prima rivoluzione digitale, perdendo essi stessi l’occasione di divenire centrali nell’evoluzione dell’ecosistema informativo.
Nelle redazioni, anche in quelle italiane, al web veniva messo chi era considerato meno bravo o inviso al direttore. La carta era il must. Poi, quando ci si è resi conto che tutto era cambiato è iniziata una affannosa e tardiva rincorsa all’online, perdente perché nel frattempo i luoghi della discussione, una volta davanti a un giornale, erano stati occupati dalle multinazionali social.
Possiamo imparare qualcosa da questa lezione?
Forse si, partendo innanzitutto dal guardare al futuro ed all’innovazione con attenzione, anche un pizzico di diffidenza, come quella che si può avere mettendosi al volante di una potente automobile mai guidata prima.
Bisogna conoscerla, imparare ad utilizzarla, fare molti tentativi e capirne i punti di forza e di utilità, come pure le vulnerabilità e i pericoli.
Qual è la differenza tra un articolo scritto da un giornalista e quello scritto da ChatGPT?
È la stessa differenza che esiste tra l’intelligenza umana e quella definita artificiale.
Roger Penrose, matematico e premio Nobel per la fisica, ritiene che, nell’intelligenza, vi sono in gioco tanto la coscienza quanto ciò che la comprensione cosciente dei significati può fare per noi. Queste parole si implicano a vicenda: l’intelligenza richiede comprensione. E la comprensione richiede consapevolezza.
Questo ci porta a dire che un dispositivo, per essere definito “intelligente”, dovrebbe essere capace di comprensione. Ma se anche ammettessimo la comprensione, questo dispositivo, per essere definito “intelligente”, dovrebbe essere dotato di consapevolezza.
E nei sistemi di IA, la comprensione e la consapevolezza è nei programmatori e progettisti che creano i Large Language Models, i modelli alla base di questi sistemi, non nel modello o nell’hardware.
Almeno fino ad ora.
E tornando alla domanda, fatta questa premessa, la risposta è che l’articolo scritto da un giornalista è stato creato con una comprensione cosciente e consapevole, quello scritto da una IA è basato sul sistema di algoritmi del suo modello.
E questa differenza è evidente nella personalizzazione che il giornalista fa nella descrizione del “fatto”, nel suo particolare e specifico punto di vista, mentre l’IA risponde sulla base del suo modello e dei dati con cui è stato addestrato.
Ed il carattere e l’angolazione della descrizione, contenuti in quell’articolo, nascono dal sistema cognitivo del giornalista, dalle sue convinzioni, dalla sua comprensione consapevole della realtà, dalla sua visione del mondo.
E, non dimentichiamolo, dalla ricerca della verità dei fatti.
Per questo motivo, l’unica possibilità di sopravvivenza per il giornalismo ed i giornalisti sarà la loro capacità di comprensione consapevole della realtà. Quindi, per i giornalisti che intendono attraversare questo ulteriore processo di cambiamento, non c’è altra possibilità che acquisire le competenze per poter utilizzare questi sistemi con consapevolezza e comprensione, liberandosi di tutte quelle attività che possono essere svolte da sistemi sintetici: traduzioni, trascrizioni, montaggi al volo, bollettini, raccolte di dati.
Il giornalista che sarà in grado di affrancare la sua professione giornalistica dai vincoli delle routine e della ripetitività avrà il tempo reale dell’analisi, dello studio, della ricerca, dell’inchiesta, della scrittura.
Sono molti ormai i casi di inchieste giornalistiche che sono state portate avanti grazie all’intelligenza artificiale, alla sua capacità di analizzare enormi quantità di dati, di ritrovare in essi schemi e ripetizioni che consentono di formulare le ipotesi da verificare.
Non ultime quest’anno due inchieste che hanno utilizzato il supporto del’IA hanno vinto premi Pulitzer, una di queste proprio dal The New York Times.
Non c’è quindi altra possibilità che accettare il cambiamento dotandosi delle competenze e degli strumenti per comprenderlo e farne parte.
La tecnologia e l’evoluzione non si possono arrestare.
Se, al contrario, editori e giornalisti decidessero di delegare la loro funzione di comprensione consapevole della realtà a questi sistemi allora i nuovi editori e giornalisti saranno le aziende dell’IA.