...

Logo Yotel Air CDG
in partnership with
Logo Nextory

IA y poder: El debate mundial en torno a la tecnología más poderosa del planeta

• Nov 23, 2025, 2:01 AM
22 min de lecture
1

2025 encuentra al mundo en uno de los momentos más críticos de la historia tecnológica. La inteligencia artificial ya no es una promesa o una vaga amenaza de futuro. Ya está aquí, remodelando las economías, alterando los equilibrios de poder, influyendo en las elecciones y planteando cuestiones sobre los límites de la responsabilidad humana. El debate ya no es "si" la IA lo cambiará todo, sino quién determinará cómo.

Gobiernos, reguladores, gigantes tecnológicos y destacados investigadores se enfrentan por la arquitectura de la regulación: qué normas se establecerán, a quién se aplicarán, a quién se protegerá y quién tendrá el poder de interrumpir o certificar un potente modelo de IA.

Una persona escribe en un teclado
Una persona escribe en un teclado Jenny Kane/Copyright 2024 The AP. All rights reserved.

Europa avanza con la Ley de IA, Estados Unidos intenta construir un modelo más flexible impulsado por la innovación, mientras China busca combinar el liderazgo tecnológico con un estricto control estatal. Y mientras tanto, voces como Jeffrey Hinton, Joshua Benzio, Stuart Russell y Timinit Gebru dan la voz de alarma. El resultado es una batalla multifacética por el futuro. Y 2025 es el año en que todo empieza a cristalizar.

El fragmentado panorama de la regulación mundial

La Unión Europea: El enfoque más ambicioso y riguroso

La Unión Europea es la primera región del mundo que ha decidido que la IA necesita un marco institucional completo. La Ley de IA, buque insignia de la política digital europea, intenta introducir una única categorización de los riesgos:

  • Riesgo inaceptable
  • Riesgo alto
  • Riesgo limitado
  • Riesgo bajo

La lógica es clara: Proteger al ciudadano, los derechos fundamentales, evitar abusos en ámbitos críticos como la sanidad, la justicia, la educación, la administración pública. Pero el diablo está en los detalles. En el centro de la preocupación europea está la idea de que la IA no puede dejarse a la completa libertad del mercado, sino que debe operar en un entorno seguro.

Margarete Vestager ha declarado: "No podemos dejar que la IA se desarrolle sin control. Proteger a los ciudadanos es un requisito previo para la innovación". Y la presidenta del Parlamento Europeo**, Roberta Metsola**, añadió: "La IA puede transformar Europa, pero sólo si hay normas que garanticen que está al servicio de los humanos".

Europa intenta convertirse en el "modelo regulador" del planeta, pero se enfrenta a un problema colosal: no cuenta con sus propios gigantes tecnológicos para aplicar su estrategia a escala. Las empresas tecnológicas temen que la regulación frene la innovación, mientras que muchas PYME están preocupadas por el coste del cumplimiento de la normativa.

Por otro lado, las organizaciones de defensa de los derechos de las tecnológicas sostienen que la normativa no es lo suficientemente estricta para los sistemas más potentes, los llamados modelos frontera.

 Loona Petbot
Loona Petbot John Locher/Copyright 2025 The AP. All rights reserved.

Estados Unidos: regulación por la puerta de atrás

EE.UU. no tiene una ley uniforme como la Ley de Inteligencia Artificial europea. En su lugar, utilizan

  • Órdenes Ejecutivas,
  • directrices para las agencias federales,
  • iniciativas legislativas a nivel estatal,
  • y controles a la exportación de chips avanzados.

Washington adopta un principio: no ahogar la innovación.El modelo estadounidense quiere dar a las empresas margen para crecer. Pero, al mismo tiempo, la Administración intenta limitar la difusión de tecnologías estratégicas a China mediante el control de las exportaciones.

l logotipo de OpenAI en un teléfono móvil frente a la pantalla de un ordenador.
l logotipo de OpenAI en un teléfono móvil frente a la pantalla de un ordenador. Michael Dwyer/Copyright 2023 The AP. All rights reserved

Se crea así un "doble mundo" en el que las mismas empresas operan con normas diferentes según la zona geográfica.

China: Control, velocidad y superioridad estratégica

China ha adoptado una de las normativas más estrictas y rápidas del mundo. A partir de 2022 cuenta con

  • Regulación sobre algoritmos,
  • normas para 'deepfakes',
  • regulaciones para modelos genéticos,
  • y un sofisticado sistema de licencias estatales.

La filosofía se basa en la supervisión estatal: La IA es una infraestructura estratégica y debe ser coherente con los intereses del Estado. El enfoque chino permite una adopción muy rápida de nuevas tecnologías a gran escala. Pero es criticado por su falta de transparencia, ausencia de control independiente y restricciones a la libertad de uso.

Joshua Benzio: "Los modelos más potentes no deben quedar sin regulación"

Benzio, uno de los "tres padres" del aprendizaje profundo, se ha convertido en la voz más firme a favor de regular los modelos fronterizos, sistemas enormes que pueden adquirir capacidades impredecibles.

Joshua Benzio
Joshua Benzio Michel Euler/Copyright 2025 The AP. All rights reserved.

Según él: "No podemos dejar que las empresas definan los límites de la seguridad por su cuenta. Necesitamos una estructura institucional internacional".

Sugiere

  • pruebas de seguridad independientes,
  • transparencia obligatoria de los datos de formación
  • y una coordinación internacional similar a la de la energía nuclear.

Jeffrey Hinton: "Temo a mi propia creación"

Hinton, que dejó Google para poder hablar con libertad, es quizá la figura más emblemática del debate. En sus charlas explica que los modelos a gran escala desarrollan comportamientos impredecibles: "No sabemos cómo funcionan internamente. Eso en sí mismo es motivo para ser cautelosos".

Jeffrey Hinton
Jeffrey Hinton Yui Mok/PA Wire/PA Images

Insiste en que es necesaria

  • La cooperación internacional,
  • límites a la autonomía de los sistemas,
  • y una transición gradual hacia arquitecturas seguras.

Stuart Russell: "Construimos máquinas que no sabemos controlar"

Russell, uno de los académicos más respetados en materia de seguridad de la IA, sostiene que el error más fundamental es el diseño tradicional de sistemas que maximizan un objetivo. Como él mismo afirma: "Los sistemas deben tener dudas sobre sus objetivos. Sólo así pueden ser corregidos por los humanos". Propone una nueva arquitectura: "Sistemas de IA que difieren de los humanos".

Timnit Gebru: La voz de la ética y la responsabilidad

Gembrou, que fue apartado de Google debido a la polémica en torno a la ética de la IA, subraya que el debate no puede ser sólo sobre seguridad; también debe ser sobre equidad: "No podemos construir IA para el mundo y entrenarla sólo con datos de los poderosos." Destaca los riesgos de discriminación, parcialidad y desigualdad social.

Icono de la aplicación Chat GPT en la pantalla de un smartphone
Icono de la aplicación Chat GPT en la pantalla de un smartphone Kiichiro Sato/Copyright 2025 The AP. All rights reserved

Las grandes rupturas de la conversación global

¿Quién establecerá las normas?

La UE, EE.UU. y China tienen tres modelos de regulación completamente distintos. El resultado es que las empresas operan como "multinacionales en tres mundos". La pregunta es cada vez más frecuente: ¿Puede regularse la IA sólo a nivel nacional? La mayoría de los expertos creen que no.

El dilema de la transparencia

Los grandes modelos son "cajas negras". Ni siquiera sus creadores pueden explicar del todo por qué producen respuestas concretas. La opacidad se convierte en el principal enemigo de la confianza pública.

Modelos fronterizos y el agujero negro del poder

Los modelos de frontera de los próximos dos años tendrán miles de veces más parámetros que los modelos actuales. Serán capaces de:

  • Generar código de forma autónoma,
  • realizar investigaciones científicas,
  • gestionar crisis,
  • realizar tareas complejas sin supervisión humana.

¿Quién los certificará? ¿Quién decidirá si son seguros? Este es el tema de debate más candente.

Hacia una nueva arquitectura reguladora internacional

Los expertos que participan en iniciativas internacionales (G7, OCDE, Consejo Asesor de la ONU sobre Inteligencia Artificial, etc.) proponen un nuevo modelo de cooperación mundial. Esta arquitectura incluye:

Autoridad Internacional de Certificación de IA Fronteriza

Un organismo internacional que:

  • Probará los modelos antes de su lanzamiento,
  • evaluará capacidades, riesgos y vulnerabilidades,
  • emitirá certificados vinculantes.

Una especie de "OIEA de la IA".

Registro de educación y transparencia

Divulgación obligatoria:

  • de los recursos de formación,
  • potencia de cálculo,
  • y principios básicos de funcionamiento del modelo.

No significa revelación de secretos comerciales, sino responsabilidad democrática.

Pruebas de seguridad obligatorias

Las pruebas de seguridad examinarán

  • capacidad de desinformar,
  • capacidad de generar código malicioso,
  • manipulación,
  • capacidades emergentes no deseadas.

Derechos civiles en la era de la IA

Privacidad, derecho a la explicación, derecho a no ser perfilado sin consentimiento, derecho a la supervisión humana.

Incentivos económicos para la innovación segura

Subvenciones para modelos seguros, incentivos fiscales para la aplicación de normas, financiación de pequeños laboratorios para que la innovación no sea monopolizada por gigantes.

Acuerdo global sobre AGI e IA de frontera

Un tratado internacional que establezca límites al desarrollo de modelos que superen determinadas capacidades computacionales. Muchos científicos creen que esto debe hacerse antes de que surjan sistemas con inteligencia general de nivel humano.

l logotipo de OpenAI en un teléfono móvil frente a la pantalla de un ordenador.
l logotipo de OpenAI en un teléfono móvil frente a la pantalla de un ordenador. Kiichiro Sato/Copyright 2025 The AP. All rights reserved

¿Quién ganará la batalla?

La batalla para regular la IA no es sólo institucional. También lo es:

  • Económica (quién liderará la industria),
  • geopolítica (quién establecerá las normas mundiales),
  • social (quién estará protegido),
  • democrática (quién controlará la información).

La gran pregunta sigue siendo:

¿La IA servirá a la sociedad o la definirá? La respuesta depende de las decisiones que se tomen en los próximos dos años. La ventana no permanecerá abierta mucho tiempo.


Yesterday

Educación: Líderes globales alertan de que la IA no debe sustituir el aprendizaje humano
• 3:30 PM
9 min
La educación avanza a remolque de la tecnología, y los líderes reunidos en Doha alertan de que las aulas cambian más rápido de lo que los sistemas pueden asumir.
Read the article
OpenAI confirma una brecha de datos por un fallo en Mixpanel: qué información se vio afectada
• 11:54 AM
3 min
OpenAI ha confirmado oficialmente una brecha de seguridad que implica a un proveedor de servicios de analítica de datos de terceros, denominado Mixpanel.
Read the article
CATL y Stellantis inician las obras de su 'megaplanta' de baterías para coches eléctricos en Aragón
• 11:07 AM
3 min
Stellantis, segundo fabricante de automóviles de Europa, y CATL, gigante chino de baterías para vehículos eléctricos, han comenzado a construir una planta de baterías de 4.100 millones de euros en el noreste de España, con la que se prevé crear 4.000 empl
Read the article
Los países de la UE llegan a un esperado acuerdo sobre la detección de abusos infantiles en internet
• 10:44 AM
4 min
Los Estados miembros han llegado a un acuerdo para luchar contra los abusos a menores en internet obligando a las plataformas a eliminar los contenidos ilegales, aunque se ha suprimido el escaneado obligatorio de los mensajes privados.
Read the article
Las acciones de Puma se disparan tras un informe, Anta Sports de China podría pujar por la marca
• 10:08 AM
4 min
La marca de material deportivo vio cómo sus acciones se dispararon en Fráncfort el jueves, tras las fuertes pérdidas sufridas a comienzos de este año.
Read the article
"Make Amazon Pay", huelgas globales en el Black Friday, trabajadores de más de 30 países se unen
• 6:30 AM
9 min
La campaña Make Amazon Pay, que cumple su sexto año, apunta a las prácticas laborales de Amazon, su influencia política, así como su impacto ambiental.
Read the article
¿Quiere dormir bien? Un estudio muestra que el taichí es tan eficaz como la psicoterapia
• 6:01 AM
2 min
El taichí, un ejercicio de mente y cuerpo practicado en China, es tan eficaz como la psicoterapia para mejorar el sueño, según un estudio reciente.
Read the article
¿Qué esperar del informe de empleo de EE.UU. tras el prolongado apagón de datos?
• 1:32 AM
6 min
Los economistas prevén que en septiembre se contrataron 50.000 empleados, lo que supone una lenta mejora con respecto a agosto. El informe sobre el empleo será la última actualización mensual completa antes de la decisión de la Reserva Federal sobre los t
Read the article