trump che parla con elon musk

Uno studio realizzato da Originality AI, startup statunitense nel settore dell’IA che si occupa di studiare le problematiche connesse alla disinformazione e distorsione dei sistemi di IA (problematiche per cui realizza delle specifiche applicazioni di analisi e verifica dei testi) rivela come la stragrande maggioranza dei principali siti di notizie ha adottato misure restrittive nei confronti dei web crawler alimentati dall’intelligenza artificiale, come riportato su Wired, in un articolo del 24 gennaio scorso. Queste restrizioni coinvolgono testate giornalistiche di rilevanza generale come The New York Times, The Washington Post e The Guardian, nonché pubblicazioni specializzate come The Atlantic e piattaforme dedicate a interessi specifici come Bleacher Report.

Tra i crawler, il GPTBot di OpenAI è risultato essere il più frequentemente ostacolato.

Ciò che merita attenzione è che, in contrasto con questa tendenza, nessuno dei principali organi di informazione di orientamento conservatore, tra cui Fox News, Daily Caller e Breitbart, ha adottato misure simili per bloccare i principali strumenti di raccolta dati basati sull’intelligenza artificiale, che includono anche il bot di Google. Anche il nuovo sito web di Bari Weiss, The Free Press, si distingue per non aver implementato restrizioni nei confronti dei robot di scraping alimentati dall’intelligenza artificiale.

Sono state formulate alcune ipotesi su questo diverso comportamento tra le fonti di informazione, che sembrano convergere sulle possibili motivazioni strategiche dietro questa scelta, con l’idea che potrebbe essere una tattica per combattere i pregiudizi politici percepiti, dato che i modelli di IA riflettono le distorsioni dei dati di addestramento e per introdurne di diversi. In poche parole, i media conservatori starebbero dando in pasto ai crawler di IA i propri contenuti per fare in modo che i modelli di linguaggio naturale ne siano influenzati.

Tuttavia, vi è scetticismo su quanto questa strategia possa effettivamente influenzare i risultati dei sistemi di intelligenza artificiale finiti come i chatbot, soprattutto a causa dell’enorme volume di materiale più vecchio che le società di intelligenza artificiale hanno già raccolto dai principali organi di informazione prima che iniziassero a bloccare i crawler di intelligenza artificiale.

Anche i modelli di lingua pre-addestrati come ChatGPT di OpenAI hanno dimostrato di avere inclinazioni politiche che riflettono la polarizzazione presente nei corpora di pre-addestramento. Un paper peer-reviewed ha rivelato che ChatGPT tende ad essere il più incline a sinistra tra i chatbot AI, mentre il modello LLaMA di Meta tende a essere più a destra e autoritario. Questo ha portato a critiche su come l’IA possa rinforzare i pregiudizi sociali e influenzare la previsione di discorsi di odio e rilevatori di disinformazione.

Come abbiamo già osservato il problema della disinformazione collegata alle influenze dell’IA sulla politica rappresenta uno dei problemi principali che si pongono nel presente e nell’immediato futuro se, come ricorda il World Economic Forum, nel suo “The Global Risk Report 2024”, nei prossimi due anni, quasi tre miliardi di persone si recheranno alle urne elettorali in diverse economie, tra cui Stati Uniti, India, Regno Unito, Messico e Indonesia.