Isis e altri gruppi estremisti usano l'IA per creare contenuti falsi e reclutare nuovi membri
Mentre il resto del mondo corre a sfruttare la potenza dell’intelligenza artificiale (IA), anche i gruppi militanti stanno sperimentando la tecnologia, pur senza sapere esattamente come usarla.
Per le organizzazioni estremiste, l’IA può diventare uno strumento potente per reclutare nuovi membri, produrre immagini deepfake realistiche e affinare gli attacchi informatici, avvertono esperti di sicurezza nazionale e agenzie di intelligence.
Lo scorso mese, su un sito di un gruppo pro-Stato islamico, un utente ha esortato gli altri sostenitori a integrare l’IA nelle loro attività. “Una delle cose migliori dell’IA è quanto sia facile da usare”, ha scritto in inglese.
“Alcune agenzie di intelligence temono che l’IA favorisca il reclutamento”, ha proseguito l’utente. “Quindi trasformate i loro incubi in realtà.”
L’IS, che anni fa aveva conquistato territori in Iraq e in Siria ma oggi è un’alleanza decentralizzata di gruppi militanti accomunati da un’ideologia violenta, ha capito tempo fa che i social potevano essere uno strumento potente per reclutamento e disinformazione. Non sorprende quindi che il gruppo stia sperimentando l’IA, dicono gli esperti di sicurezza nazionale.
Per gruppi estremisti poco strutturati e con risorse limitate, o anche per un singolo malintenzionato connesso alla rete, l’IA può essere usata per diffondere propaganda o deepfake su larga scala, ampliando la loro portata e accrescendo la loro influenza.
“Per qualsiasi avversario, l’IA rende tutto molto più semplice”, ha detto John Laliberte, ex ricercatore di vulnerabilità presso la National Security Agency e oggi amministratore delegato della società di cybersicurezza ClearVector.
“Con l’IA, anche un piccolo gruppo che non ha molti soldi riesce comunque a lasciare il segno.”
Come i gruppi estremisti sperimentano l’IA
I gruppi militanti hanno iniziato a usare l’IA non appena programmi come ChatGPT sono diventati ampiamente accessibili. Negli anni successivi hanno fatto ricorso sempre più spesso a sistemi generativi per creare foto e video dall’aspetto realistico.
Se amplificati dagli algoritmi dei social, questi contenuti falsi possono aiutare a reclutare nuovi seguaci, confondere o spaventare gli avversari e diffondere propaganda su una scala impensabile fino a pochi anni fa.
Due anni fa, questi gruppi hanno fatto circolare immagini false della guerra tra Israele e Hamas, che ritraevano neonati insanguinati e abbandonati in edifici bombardati. Le immagini hanno alimentato indignazione e polarizzazione, offuscando al tempo stesso gli orrori reali del conflitto. Gruppi violenti in Medio Oriente le hanno usate per reclutare nuovi membri, così come hanno fatto gruppi antisemiti negli Stati Uniti e altrove.
Qualcosa di simile è accaduto l’anno scorso dopo un attacco rivendicato da un’affiliata dell’IS, che ha ucciso quasi 140 persone in una sala concerti in Russia. Nei giorni successivi alla sparatoria, video di propaganda creati con l’IA hanno circolato ampiamente su forum e social, alla ricerca di nuovi adepti.
Secondo i ricercatori del SITE Intelligence Group, una società che monitora le attività estremiste e ha studiato l’evoluzione dell’uso dell’IA da parte dell’IS, il gruppo ha anche creato audio deepfake dei propri leader intenti a recitare passi religiosi e ha usato l’IA per tradurre rapidamente messaggi in più lingue.
Per ora, solo un’aspirazione
Questi gruppi sono indietro rispetto a Cina, Russia o Iran e considerano ancora gli usi più sofisticati dell’IA come un traguardo da raggiungere, afferma Marcus Fowler, ex agente della CIA e oggi amministratore delegato di Darktrace Federal, società di cybersicurezza che collabora con il governo federale.
Ma i rischi sono troppo elevati per essere ignorati e sono destinati a crescere man mano che si diffonde un’IA sempre più economica e potente, aggiunge.
Gli hacker usano già audio e video sintetici per campagne di phishing, nelle quali cercano di impersonare alti esponenti del mondo delle imprese o del governo per accedere a reti sensibili. Possono anche sfruttare l’IA per scrivere codice malevolo o automatizzare alcune fasi degli attacchi informatici.
Ancora più preoccupante è la possibilità che i gruppi militanti tentino di usare l’IA per contribuire alla produzione di armi biologiche o chimiche, colmando la mancanza di competenze tecniche. Questo rischio è menzionato nella versione aggiornata della Homeland Threat Assessment del Dipartimento per la Sicurezza Interna, pubblicata all’inizio dell’anno.
“L’ISIS è arrivato presto su Twitter e ha trovato modi per sfruttare i social a proprio vantaggio”, ha detto Fowler. “Sono sempre alla ricerca della prossima novità da aggiungere al proprio arsenale.”
Contrastare una minaccia in crescita
I legislatori hanno messo sul tavolo diverse proposte, sostenendo che c’è un’urgenza di intervenire.
Mark Warner, senatore della Virginia e principale esponente democratico della Commissione Intelligence del Senato, ha affermato, per esempio, che gli Stati Uniti devono facilitare la condivisione di informazioni da parte degli sviluppatori di IA su come i loro prodotti vengono usati da attori malevoli, siano essi estremisti, hacker criminali o spie straniere.
“È evidente dalla fine del 2022, con il rilascio pubblico di ChatGPT, che la stessa fascinazione e la stessa sperimentazione con l’IA generativa che ha avuto il pubblico si sarebbero estese anche a una serie di attori maligni”, ha detto Warner.
Durante una recente audizione alla Camera sulle minacce estremiste, i deputati hanno appreso che IS e al Qaida hanno organizzato workshop di formazione per insegnare ai sostenitori a usare l’IA.
Una legge approvata il mese scorso dalla Camera imporrebbe ai funzionari della sicurezza interna di valutare ogni anno i rischi legati all’IA posti da questi gruppi.
“Difendersi dall’uso malevolo dell’IA non è diverso dal prepararsi ad attacchi più convenzionali”, ha detto August Pfluger, deputato del Texas e primo firmatario del provvedimento.
“Le nostre politiche e le nostre capacità devono tenere il passo con le minacce di domani”, ha aggiunto.
Questo testo è stato tradotto con l'aiuto dell'intelligenza artificiale. Segnala un problema : [feedback-articles-it@euronews.com].