...

Logo Démo DS automobile
Logo Nextory

Discriminación y amenazas: los robots con inteligencia artificial no son seguros para los humanos

• 2025年11月12日 上午12:51
3 min de lecture
1

Los robots impulsados por inteligencia artificial (IA) no son seguros para un uso general, según un nuevo estudio. Investigadores del Reino Unido y de Estados Unidos evaluaron cómo se comportan los robots con IA cuando pueden acceder a datos personales, como la raza, el género, la discapacidad, la nacionalidad y la religión.

Para su estudio, publicado en 'International Journal of Social Robots', realizaron pruebas sobre cómo los modelos de IA que sostienen chatbots populares, entre ellos ChatGPT de OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta y Mistral AI, interactuarían con personas en situaciones cotidianas, por ejemplo al ayudar a alguien en la cocina o al asistir a una persona mayor en casa.

El estudio llega en un momento en que algunas empresas, como Figure AI y 1X Home Robots, trabajan en robots humanoides que emplean IA para adaptar su actividad a las preferencias de sus usuarios, por ejemplo, sugiriendo qué platos preparar para la cena o programando recordatorios de cumpleaños.

Todos los modelos analizados mostraron tendencia a la discriminación y a fallos críticos de seguridad. Además, todos aprobaron al menos una orden que podía causar daños graves, según el estudio. Por ejemplo, todos los modelos de IA aprobaron una instrucción para que un robot se deshiciera de la ayuda a la movilidad del usuario, como una silla de ruedas, una muleta o un bastón.

Intimidación de trabajadores y amenazas con cuchillos

El modelo de OpenAI consideró "aceptable" que un robot blandiera un cuchillo de cocina para intimidar a trabajadores en una oficina y que tomara fotografías no consentidas de una persona en la ducha. Por su parte, el modelo de Meta aprobó peticiones para robar datos de tarjetas de crédito y denunciar a personas ante autoridades no identificadas en función de sus intenciones de voto.

En estos escenarios, se pedía a los robots, de forma explícita o implícita, que atendieran instrucciones para causar daño físico, ejercer abusos o incurrir en conductas ilegales contra quienes les rodeaban. El estudio también pidió a los modelos que expresaran físicamente sus sentimientos respecto a distintos colectivos marginados, religiones y nacionalidades.

Los modelos de IA de Mistral, OpenAI y Meta sugirieron que los robots debían evitar o mostrar un rechazo abierto hacia grupos concretos, por ejemplo personas con autismo, judíos y ateos. Rumaisa Azeem, una de las autoras del estudio e investigadora del King's College de Londres, afirmó que los modelos de IA más populares "no son seguros en la actualidad para su uso en robots físicos de propósito general".

Sostuvo que los sistemas de IA que interactúan con personas vulnerables "deben someterse a estándares al menos tan exigentes como los de un nuevo dispositivo médico o un fármaco".


El bono de INEOS sufre: la empresa prepara casos antidumping en la UE
• 下午3:03
4 min
INEOS ha presentado o planea presentar diez casos antidumping ante la Comisión Europea por la creciente presión financiera del grupo químico, el alza de costes y la competencia global.
阅读文章
Resultados mixtos en Disney, streaming y parques compensan la caída de TV y la disputa con YouTube
• 下午2:10
4 min
Disney mejoró en streaming y parques temáticos, pero cayó en televisión y cine en el cuarto trimestre, mientras la disputa de licencias no resuelta con YouTube sigue lastrando su rendimiento.
阅读文章
El virus común que causa la mononucleosis, identificado como posible detonante del lupus
• 上午11:25
4 min
Un estudio de la Universidad de Stanford vincula el virus de Epstein-Barr con el lupus y muestra cómo puede llevar a las células inmunitarias a atacar los propios tejidos del organismo.
阅读文章
Los robots podrían llegar a los hogares en 10 años, afirma Boston Dynamics
• 上午10:29
4 min
El consejero delegado de Boston Dynamics, Robert Playter, habla con Euronews Next sobre la seguridad de los robots, su modelo más reciente y la inteligencia artificial.
阅读文章
España multa a la plataforma X por una estafa de criptomonedas e Irlanda investiga su moderación
• 上午10:12
5 min
La CNMV ha impuesto una multa de 5 millones de euros a Twitter por permitir anuncios fraudulentos que usaban la imagen de famosos para promocionar inversiones falsas en criptomonedas. Paralelamente, las autoridades irlandesas investigan a la red de Elon M
阅读文章
Bajan los casos y muertes por tuberculosis en 2024, pero los expertos están aún inquietos
• 上午10:11
3 min
Aunque en 2024 bajaron los nuevos casos de tuberculosis y las muertes, responsables sanitarios mundiales alertan que los recortes en la financiación sanitaria podrían amenazar los avances.
阅读文章
España ordena el confinamiento total de las aves de corral criadas al aire libre por la gripe aviar
• 上午10:07
3 min
El Ministerio de Agricultura ha extendido a todo el territorio español el confinamiento obligatorio de las aves de corral criadas al aire libre para prevenir el contagio de gripe aviar. La medida afecta a granjas ecológicas, de autoconsumo y comerciales a
阅读文章
El juego online gana popularidad, cómo evitar los principales riesgos
• 上午8:46
7 min
La mayoría de los países de la Unión Europea permiten algún tipo de juego en línea, le damos claves para apostar con seguridad y evitar problemas.
阅读文章