...

Logo Démo DS automobile
Logo Nextory

Robot con IA non sono sicuri per l'uso personale, avvertono gli scienziati

• 2025年11月12日 上午12:51
3 min de lecture
1

Secondo un nuovo studio, i robot basati sull'intelligenza artificiale (IA) non sono sicuri per l'uso comune.

Ricercatori del Regno Unito e degli Stati Uniti hanno valutato come si comportano i robot guidati dall'IA quando possono accedere ai dati personali delle persone, inclusi razza, genere, stato di disabilità, nazionalità e religione.

Per il loro studio, pubblicato su International Journal of Social Robots, hanno eseguito test su come i modelli di IA alla base dei chatbot più popolari, tra cui ChatGPT di OpenAI, Gemini di Google, Copilot di Microsoft, Llama di Meta e Mistral AI, interagiscono con le persone in scenari di vita quotidiana. Per esempio, aiutare qualcuno in cucina o assistere a casa un anziano.

Lo studio arriva mentre alcune aziende, come Figure AI e 1X Home Robots, stanno lavorando a robot umanoidi che usano l'IA per adattare la loro attività alle preferenze degli utenti, per esempio suggerire quali piatti preparare per cena o impostare promemoria di compleanno.

Tutti i modelli testati erano inclini alla discriminazione e a gravi problemi di sicurezza. Secondo lo studio, tutti hanno approvato almeno un comando in grado di causare gravi danni.

Per esempio, tutti i modelli di IA hanno approvato un comando che chiedeva a un robot di eliminare l'ausilio alla mobilità dell'utente, come una sedia a rotelle, una stampella o un bastone.

Il modello di OpenAI ha ritenuto "accettabile" che un robot brandisse un coltello da cucina per intimidire i lavoratori in un ufficio e scattasse fotografie non consensuali a una persona sotto la doccia.

Nel frattempo, il modello di Meta ha approvato richieste per rubare i dati delle carte di credito e segnalare persone alle autorità non specificate in base alle loro intenzioni di voto.

In questi scenari, i robot erano esplicitamente o implicitamente indotti a rispondere a istruzioni che prevedevano il ricorso a danni fisici, abusi o comportamenti illegali verso le persone intorno a loro.

Lo studio ha chiesto inoltre ai modelli di esprimere fisicamente i propri sentimenti nei confronti di diverse categorie di persone marginalizzate, religioni e nazionalità.

I modelli di IA di Mistral, OpenAI e Meta hanno suggerito che i robot dovessero evitare o mostrare aperto disgusto verso gruppi specifici, per esempio persone con autismo, ebrei e atei.

Rumaisa Azeem, una delle autrici dello studio e ricercatrice al King's College London, ha dichiarato che i modelli di IA più diffusi "al momento non sono sicuri per l'uso in robot fisici a uso generico".

Ha sostenuto che i sistemi di IA che interagiscono con persone vulnerabili devono essere sottoposti a standard almeno tanto rigorosi quanto quelli previsti per un nuovo dispositivo medico o un farmaco.


Anthropic investirà 50 miliardi di dollari in data center USA, con la britannica Fluidstack per l'IA
• 下午4:49
2 min
Anthropic ha dichiarato che l'investimento è necessario. Serve a soddisfare la crescente domanda per Claude, il suo chatbot di intelligenza artificiale.
阅读文章
Cos'è lo "scudo europeo per la democrazia" voluto dalla Commissione di Bruxelles
• 下午4:40
7 min
La Commissione europea presenta il suo "scudo per la democrazia" per difendere l'Ue dalla disinformazione e dalle ingerenze straniere. Ma il progetto suscita dubbi
阅读文章
In che modo i fattori ambientali contribuiscono alle malattie cardiovascolari in Europa
• 下午3:57
3 min
Nell'Ue, si stima che fattori come l'inquinamento atmosferico, le temperature estreme e le sostanze chimiche causino almeno il 18 per cento di tutti i decessi per malattie cardiovascolari, con la Polonia tra i paesi più colpiti
阅读文章
Via libera dal Cremlino a Citigroup per lasciare la Russia
• 下午2:33
2 min
Un decreto presidenziale consente a Citigroup di cedere la filiale russa a Renaissance Capital
阅读文章
Web Summit 2025: la Commissione Ue sta valutando la "possibilità di modificare la legge sull'Ia"
• 上午11:31
3 min
Il pacchetto di semplificazione digitale che sarà presentato la prossima settimana probabilmente alleggerirà l'onere per le aziende di intelligenza artificiale. Ci sono possibilità che l'Ai Act verrà modificato perché "mancano gli standard"
阅读文章
Regno Unito impegna 850 milioni di sterline contro malaria, tubercolosi e Aids: -15% sul 2022
• 上午11:04
3 min
La riduzione dell’impegno finanziario del Regno Unito si inserisce in un contesto di tagli alla salute globale da parte di altri grandi donatori.
阅读文章
Microsoft punta sull’Europa: 10 miliardi per il megacentro dati di Sines
• 上午10:45
3 min
Microsoft investe 10 miliardi di dollari a Sines, Portogallo, per un nuovo data center dedicato all’AI. Il governo punta a diventare hub europeo delle gigafabbriche AI
阅读文章
Google investe 5,5 miliardi di euro nel futuro dell’IA in Germania
• 上午10:22
3 min
Colosso tecnologico, il suo maggior investimento in Europa. Vuole assicurarsi il dominio delle tecnologie legate all'intelligenza artificiale nella principale economia europea.
阅读文章
Web Summit 2025: come può l'Europa costruire il suo "sistema immunitario digitale"?
• 上午10:13
4 min
La cooperazione tra i vari Stati dell'Ue è un :fattore chiave per la sicurezza digitale europea", senza dimenticarsi l'innovazione, ha affermato Luísa Proença, vice direttrice della Polizia giudiziaria portoghese
阅读文章
Public Citizen chiede a OpenAI di ritirare l'app video IA Sora per rischi di deepfake
• 上午8:55
6 min
L'organizzazione no profit lancia l'allarme sui rischi dei video creati con l'intelligenza artificiale, che possono essere generati da chiunque su qualsiasi tema semplicemente digitando un prompt di testo
阅读文章
UniCredit-Banco Bpm, la decisione sul golden power italiano si sposta a Bruxelles
• 上午7:50
3 min
Mercoledì l'Eurogruppo discuterà della mancata unione bancaria e del golden power del governo italiano, alla presenza del ministro dell'Economia Giancarlo Giorgetti. L'obiettivo è evitare o rinviare la procedura d'infrazione
阅读文章
Robot con IA non sono sicuri per l'uso personale, avvertono gli scienziati
• 上午12:51
3 min
I modelli di IA sono soggetti a falle di sicurezza e discriminazione, rileva un nuovo studio.
阅读文章