¿Convertirá la normativa a la UE en la potencia más fiable en cuanto a IA?

Para ayudar a aplicar esta legislación a partir del año que viene, la UE creó un Código de conducta voluntario, pero algunas empresas afirman que adherirse a él obstaculizaría la innovación.
La UE invita a las empresas que crean chatbots generativos como ChatGPT, Mistral, Gemini y Claude a firmar un Código de conducta voluntario sobre IA de propósito general.
Al firmar el código y cumplir con sus normas, se considera que estas empresas cumplen la Ley de IA, una ley de la UE que entró en vigor en 2024 y define cuatro niveles de riesgo para el uso de la IA, desde mínimo hasta inaceptable.
Las empresas que se nieguen a firmar el código pueden enfrentarse a inspecciones y cargas administrativas más estrictas. Grandes actores como OpenAI y Anthropic apoyan el código, mientras que otros, como Meta, se niegan a firmarlo.
"Desde que se inició el proceso de redacción el pasado septiembre, Meta se ha mostrado muy crítica con el código, alegando que ahoga la innovación", declaró Cynthia Kroet, periodista especializada en política tecnológica de 'Euronews'.
"Han puesto en marcha algunas herramientas que no pueden utilizar plenamente en Europa, también debido a las normas de protección de datos. Al final, no importa demasiado si lo firman o no, porque la Ley de IA prevalecerá de todos modos", añadió.
La Ley de IA se aplicará progresivamente hasta 2027. Este mes entrarán en vigor las normas para los modelos de IA de propósito general, como los chatbots generativos mencionados, y las empresas tendrán dos años para adaptarse.
Sin embargo, los futuros modelos que entren en el mercado deberán cumplir la ley de inmediato y, en caso de infracción, la Comisión podrá imponer una sanción de hasta 15 millones de euros.
¿Normativa e inversión están reñidas?
El Código de conducta establece recomendaciones sobre cómo respetar los derechos de autor, normas para evitar los riesgos sistémicos de los modelos avanzados de la IA y consejos para rellenar un formulario que fomente la transparencia en el cumplimiento de la Ley de IA.
Algunos analistas sostienen que la UE está utilizando la normativa para posicionarse estratégicamente como el proveedor de IA más fiable a escala mundial. Estados Unidos y China tienen planteamientos normativos menos exhaustivos y se centran sobre todo en atraer grandes inversiones al sector.
Sin embargo, Laura Lázaro Cabrera, asesora del Centro para la democracia y la tecnología, afirma que ambos deben ir de la mano.
"La UE ha dado grandes pasos para reforzar el apoyo financiero que presta al desarrollo de la IA en Europa. Sólo este año, se han anunciado más de 200.000 millones de euros para inversiones en IA", señaló Laura Lázaro Cabrera.
"La financiación es una parte importante de la ecuación, y sin duda es importante que la UE mantenga un papel de liderazgo en el desarrollo de la IA, pero creemos que ese liderazgo debe ir acompañado de un sólido marco de seguridad que promueva los derechos fundamentales y fomente sistemas de IA centrados en las personas", añadió la asesora.
Los ultrafalsos, el robo de datos confidenciales y los suicidios vinculados al uso de chatbots son algunos ejemplos de los riesgos de la IA generativa.
Laura Lázaro Cabrera confía en que las obligaciones relacionadas con la alfabetización de las empresas en IA también den lugar a campañas y formación a escala de la UE para los ciudadanos, que les ayuden a conocer las ventajas y los riesgos de esta tecnología revolucionaria.
¡Mira aquí el vídeo!
Periodista: Isabel Marques da Silva
Producción de contenido: Pilar Montero López
Producción de vídeo: Zacharia Vigneron
Grafismo: Loredana Dumitru
Coordinación editorial: Ana Lázaro Bosch y Jeremy Fleming-Jones
Today