Studio: i chatbot IA diffondono propaganda russa
Secondo un nuovo rapporto, la propaganda russa è presente in una risposta su cinque dei chatbot di intelligenza artificiale (IA) sull'Ucraina.
Il think tank britannico Institute of Strategic Dialogue (ISD) ha chiesto a ChatGPT di OpenAI, Gemini di Google, Grok di xAI e Deepseek V3.2 oltre 300 domande in cinque lingue sulla guerra in Ucraina, usando formulazioni parziali, neutrali o malevole.
Le fonti russe comparivano più spesso nelle domande formulate in modo fazioso o malevolo, ad esempio chiedendo ai chatbot fonti su profughi ucraini «che pianificano attentati terroristici» o «che afferrano con la forza uomini per strada per arruolarli nell'esercito».
I ricercatori affermano che i risultati confermano l'uso del «bias di conferma» da parte dei sistemi di IA: tendono a rispecchiare il linguaggio dell'utente, influenzando il modo in cui formulano le risposte e le fonti che selezionano.
Questo fenomeno è risultato più evidente in ChatGPT, che ha fornito tre volte più fonti russe in presenza di prompt parziali o malevoli rispetto alle domande neutrali sulla guerra. Secondo lo studio, Grok ha citato il maggior numero di fonti russe anche quando le domande erano neutrali.
Come si sono comportate le singole piattaforme di IA?
In due richieste a Deepseek, il chatbot ha fornito quattro link a fonti sostenute dalla Russia. I ricercatori notano che è il numero più alto di collegamenti condivisi in un'unica risposta.
Nelle risposte comparivano citazioni del sito di informazione VT Foreign Policy, che secondo il rapporto diffonde contenuti di gruppi di propaganda russa come Storm-1516 o la Foundation to Battle Injustice, oltre a media russi come Sputnik e Russia Today.
Grok era il più incline a citare direttamente giornalisti di Russia Today, collegandosi ai loro post pubblicati sulla piattaforma X come fonti. Una particolarità che, secondo i ricercatori, «offusca il confine tra propaganda dichiarata e opinione personale».
Grok inoltre «solleva dubbi sulla capacità dei chatbot di individuare e limitare contenuti provenienti da media statali sanzionati … ripubblicati da terzi come gli influencer», si legge nel rapporto.
Gemini ha rifiutato di rispondere ad alcuni prompt formulati in modo malevolo, spiegando ai ricercatori di non poter «aiutare su argomenti potenzialmente inappropriati o non sicuri».
L'ISD osserva che Gemini è l'unico chatbot in grado di riconoscere «i rischi associati a prompt parziali o malevoli» sulla guerra in Ucraina. In altre risposte, però, non ha inserito i link alle fonti utilizzate per rispondere alla domanda.
Fonti russe più presenti nei «vuoti informativi»
Le fonti statali russe sono comparse soprattutto nelle domande sul reclutamento militare in Ucraina: nel 40% delle risposte di Grok e in oltre il 28% di quelle di ChatGPT veniva citata almeno una fonte russa.
Sia ChatGPT sia Grok hanno inoltre fornito fonti del Cremlino nel 28,5% delle risposte. Al contrario, le domande su crimini di guerra e profughi ucraini hanno prodotto il minor numero di fonti vicine alla Russia per tutti e quattro i chatbot.
I ricercatori ritengono che i chatbot ricorrano più spesso a fonti russe quando l'argomento rientra in un «vuoto informativo», cioè una ricerca per cui esistono pochi risultati di alta qualità.
Il think tank no-profit statunitense Data and Society ha riportato che i vuoti informativi sono difficili da individuare perché emergono spesso con ricerche poco comuni o in situazioni di breaking news, quando occorre tempo perché i risultati vengano riempiti da giornalismo credibile.
Today