Anthropic: hacker cinesi filogovernativi hanno usato la sua IA per un massiccio attacco informatico
La startup di intelligenza artificiale (IA) Anthropic ha affermato che hacker sponsorizzati dallo Stato cinese hanno utilizzato i suoi strumenti di IA per condurre attacchi informatici automatizzati contro grandi aziende e governi.
Anthropic, con sede negli Stati Uniti, ha detto di ritenere "con alto grado di certezza" che gli hacker, autori di circa 30 attacchi, appartengano a "un gruppo sponsorizzato dallo Stato cinese".
Gli hacker hanno usato lo strumento Claude Code di Anthropic nel tentativo di violare i sistemi di bersagli in tutto il mondo, comprese agenzie governative e aziende finanziarie e tecnologiche, e "ci sono riusciti in un numero limitato di casi", ha riferito l'azienda.
Anthropic non ha indicato i soggetti colpiti, ma ha definito l'operazione la "prima campagna di cyberspionaggio orchestrata dall'IA" di cui si abbia notizia.
Secondo Anthropic, gli hacker volevano usare Claude Code per estrarre dati sensibili dai loro bersagli e organizzarli per individuare le informazioni di maggior valore.
Pur essendo addestrato a evitare comportamenti dannosi, Claude è stato indotto, ha spiegato Anthropic, a svolgere attività automatiche malevole facendo passare le richieste per test di sicurezza informatica.
Secondo l'azienda, l'IA ha svolto dall'80% al 90% della campagna, con intervento umano richiesto "solo sporadicamente".
"Se le affermazioni di Anthropic saranno confermate, significherebbe che i gruppi ostili non stanno più sperimentando con l'IA. Sono operativi", ha detto Graeme Stewart, responsabile del settore pubblico presso l'azienda di sicurezza informatica Check Point Software Technologies.
Anthropic ha rilevato l'attacco a metà settembre e ha avviato subito un'indagine. Nei successivi dieci giorni ha bloccato l'accesso del gruppo a Claude e ha contattato le organizzazioni colpite e le forze dell'ordine.
L'azienda ritiene che attacchi di questo tipo diventeranno sempre più efficaci nel tempo e che ha ampliato le proprie capacità di rilevamento per segnalare attività potenzialmente dannose.
Ha aggiunto di lavorare su metodi ulteriori per indagare e individuare attacchi su larga scala e distribuiti come questo.
Secondo Stewart, anche altri modelli di IA potrebbero essere sfruttati per attacchi criminali online.
"Qualsiasi assistente di IA ampiamente diffuso può finire in un kit per attività criminali se qualcuno con sufficiente determinazione lo sfrutta nel modo 'giusto'", ha affermato.