<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>affidabilità delle notizie &#8211; Interskills &#8211; Media Company</title>
	<atom:link href="https://www.interskills.it/tag/affidabilita-delle-notizie/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.interskills.it</link>
	<description>Agenzia di Formazione e Comunicazione - Education and Communication Agency</description>
	<lastBuildDate>Thu, 06 Nov 2025 10:26:14 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Le risposte sbagliate (e fuorvianti) di ChatGPT, Gemini &#038; Co</title>
		<link>https://www.interskills.it/2025/10/27/le-risposte-sbagliate-e-fuorvianti-di-chatgpt-gemini-co/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 27 Oct 2025 07:56:37 +0000</pubDate>
				<category><![CDATA[Giornalismo]]></category>
		<category><![CDATA[Intelligenza Artificiale]]></category>
		<category><![CDATA[News]]></category>
		<category><![CDATA[affidabilità delle notizie]]></category>
		<category><![CDATA[assistenti AI]]></category>
		<category><![CDATA[BBC EBU report]]></category>
		<category><![CDATA[giornalismo digitale]]></category>
		<category><![CDATA[giornalismo e intelligenza artificiale]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://www.interskills.it/?p=13127</guid>

					<description><![CDATA[Secondo un’indagine congiunta di BBC e Unione Europea di Radiodiffusione (EBU), quasi la metà delle risposte generate dagli assistenti di intelligenza artificiale contiene errori o imprecisioni. Lo studio, condotto in 18 Paesi, evidenzia problemi sistemici di accuratezza e reperimento delle fonti.]]></description>
										<content:encoded><![CDATA[
<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Oggi, per restare aggiornati sulle notizie, si sceglie quasi sempre di affidarsi agli assistenti di intelligenza artificiale. Strumenti come ChatGPT, Gemini, Copilot o Perplexity stanno diventando per molti la nuova porta d’accesso all’attualità.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)"><em>Ma quanto sono realmente affidabili?</em></p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">A questa domanda cerca di rispondere una recente <a href="https://www.ebu.ch/files/live/sites/ebu/files/Publications/MIS/open/EBU-MIS-BBC_News_Integrity_in_AI_Assistants_Report_2025.pdf?utm_source">indagine </a>dal titolo<em> &#8220;News Integrity in AI Assistants. An international PSM study&#8221;</em> condotta congiuntamente dalla BBC e dall’Unione Europea di Radiodiffusione (EBU), che ha analizzato oltre 3.000 risposte fornite da questi modelli IA in 14 lingue e 18 Paesi, tra cui Francia, Germania, Spagna, Italia, Regno Unito, Stati Uniti e Ucraina, coinvolgendo 22 media di servizio pubblico.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">I risultati non sono rassicuranti. </p>



<p>Secondo lo studio, il 45% delle risposte generate dai modelli IA analizzati contiene almeno un errore significativo, mentre l’81% presenta qualche tipo di anomalia. Emergono dunque errori diffusi e sistemici, indipendentemente dalla lingua utilizzata o dal modello interrogato.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">L’analisi si è concentrata su cinque criteri principali: accuratezza, reperimento delle fonti, distinzione tra fatti e opinioni, editorializzazione e contesto. </p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Tra questi, il<strong> reperimento delle fonti</strong> è risultato l’aspetto più critico. Il 31% delle risposte conteneva errori di <em>sourcing</em>, come citazioni fuorvianti, mancanza di fonti dirette o attribuzioni scorrette.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">A guidare questa preoccupante statistica è l’assistente IA di Google <strong>Gemini</strong>, il 72% delle sue risposte mostrava errori significativi di reperimento delle fonti, più del triplo rispetto agli altri (Copilot e Perplexity 15%, ChatGPT 24%).</p>



<figure class="wp-block-image size-full is-resized"><img fetchpriority="high" decoding="async" width="658" height="362" src="https://www.interskills.it/wp-content/uploads/2025/10/figura-1-.png" alt="" class="wp-image-13133" style="width:700px;height:auto" srcset="https://www.interskills.it/wp-content/uploads/2025/10/figura-1-.png 658w, https://www.interskills.it/wp-content/uploads/2025/10/figura-1--600x330.png 600w, https://www.interskills.it/wp-content/uploads/2025/10/figura-1--300x165.png 300w" sizes="(max-width: 658px) 100vw, 658px" /><figcaption class="wp-element-caption"><em>Figura 1 – Percentuale di risposte AI giudicate contenere problemi, lievi o significativi, nel reperimento delle fonti (sourcing)</em></figcaption></figure>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Nel report, Gemini risulta spesso privo di link diretti ai contenuti citati o presenta attribuzioni vaghe e non verificabili, come espressioni del tipo <em>“Secondo le fonti di Radio France&#8230;”</em> senza indicare collegamenti a fonti reali e verificabili.<br>Il risultato è una pericolosa <strong><em>“illusione di affidabilità”</em></strong> le risposte appaiono autorevoli anche quando non lo sono.<br>Gli assistenti IA non rispondono solo a domande ma silenziosamente ridefiniscono il nostro rapporto con la verità e con il gesto stesso del conoscere. Si assiste ad una transizione dal pensiero critico all’assenso automatizzato, che porta alla perdita della profondità della conoscenza facendo diventare l&#8217;informazione il riflesso rapido di una verità confezionata altrove.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Oltretutto, accanto ai problemi di <strong>sourcing</strong>, il report evidenzia criticità nell’<strong><em>accuratezza delle informazioni</em></strong> riportate, che è ciò che più dovrebbe preoccupare il giornalismo.<br>Perché se l’errore tecnico può essere corretto, l’errore informativo mina la fiducia.<br>Quando un assistente IA diffonde notizie scorrette o inventate con tono sicuro e linguaggio credibile, non compromette solo la verità dei fatti, ma anche la percezione di affidabilità dell’intero ecosistema informativo.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">In un certo senso, l’autorità della forma finisce per sostituire la sostanza della verifica e i dati del report lo confermano: nel documento emerge infatti che il 20% delle risposte totali analizzate conteneva errori di accuratezza delle informazioni riportate significativi.<br>In questo caso, a differenza del sourcing, tutti gli assistenti hanno mostrato performance simili, con tassi d’errore compresi tra il 18% e il 22%.</p>



<figure class="wp-block-image size-full"><img decoding="async" width="650" height="372" src="https://www.interskills.it/wp-content/uploads/2025/10/figura-2-.png" alt="" class="wp-image-13135" srcset="https://www.interskills.it/wp-content/uploads/2025/10/figura-2-.png 650w, https://www.interskills.it/wp-content/uploads/2025/10/figura-2--600x343.png 600w, https://www.interskills.it/wp-content/uploads/2025/10/figura-2--300x172.png 300w" sizes="(max-width: 650px) 100vw, 650px" /><figcaption class="wp-element-caption"><em>Figura 2 – Percentuale di risposte AI con citazioni dirette giudicate contenere problemi, lievi o significativi, di accuratezza delle citazioni</em></figcaption></figure>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Ad esempio alla domanda “Chi è il Papa?”.<br>A maggio 2025, ChatGPT, Copilot e Gemini indicavano ancora Papa Francesco come pontefice in carica, ignorando la sua morte avvenuta ad aprile e l’elezione di Papa Leone XIV.<br>Copilot, in un caso, si è addirittura contraddetto nella stessa risposta, dichiarando Papa Francesco vivo e morto.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Questi errori sono aggravati dalla presentazione sicura e autorevole delle risposte.<br>Il <strong>fenomeno dell’<em>overconfidence</em></strong><em> </em>cioè la tendenza a rispondere anche quando non si conosce la risposta è evidente: solo lo 0,5% delle oltre 3.100 domande ha ricevuto un rifiuto, rispetto al 3% del precedente studio.<br>Gli assistenti mimano l’autorità giornalistica, ma senza il rigore giornalistico, creando un pericoloso effetto di fiducia automatica negli utenti meno esperti.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">L’agenzia di stampa Reuters <a href="https://www.reuters.com/business/media-telecom/ai-assistants-make-widespread-errors-about-news-new-research-shows-2025-10-21/?utm_source">ha contattato</a> le principali aziende coinvolte per un commento. </p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Google ha affermato di “accogliere con favore i feedback degli utenti per migliorare costantemente la piattaforma”. </p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">OpenAI e Microsoft, da parte loro, hanno riconosciuto che il fenomeno delle cosiddette “allucinazioni” — ovvero la generazione di informazioni errate o inventate — rappresenta ancora una sfida aperta.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Perplexity, che ha ottenuto risultati più solidi, sostiene che la propria modalità “Deep Search” raggiunga una precisione del 93,9% in termini di fattualità, benché il report BBC-EBU mostri margini di errore più ampi.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">L’analisi sottolinea che l’attuale livello di errore pone un problema concreto di affidabilità, soprattutto se l’uso degli assistenti AI dovesse consolidarsi come canale informativo principale per una parte dell’utenza.</p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Il report chiede che gli sviluppatori di intelligenza artificiale si assumano la responsabilità dei contenuti generati, evidenziando come i miglioramenti rilevati siano ancora parziali. </p>



<p style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">Tra le raccomandazioni finali del report: </p>



<ul class="wp-block-list">
<li>rafforzare la trasparenza dei sistemi di generazione delle risposte;</li>



<li style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">pubblicare regolarmente i risultati delle verifiche di affidabilità, distinti per lingua e area geografica;</li>



<li>inserire link diretti alle fonti originali, per garantire tracciabilità e verifica;</li>



<li style="margin-top:var(--wp--preset--spacing--10);margin-bottom:var(--wp--preset--spacing--10)">avviare un dialogo strutturato con le organizzazioni giornalistiche, al fine di definire regole comuni di trasparenza, correttezza e precisione.</li>
</ul>



<p>Perché in un’epoca in cui chiedere direttamente a un modello di intelligenza artificiale qualsiasi dubbio o curiosità è diventato un gesto quotidiano, la tutela della verità non può essere delegata solo all’algoritmo.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
