Skip to main content

La Ley de Inteligencia Artificial de la Unión Europea, entrada en vigor el 1 de agosto de 2024 y con plena aplicación prevista para el 2 de agosto de 2026, representa un esfuerzo pionero por normar los sistemas de IA de forma segura, transparente y respetuosa con los derechos fundamentales. Aunque establece sanciones firmes para incumplimientos, su éxito dependerá en buena medida del apoyo voluntario de las grandes empresas tecnológicas.

Un modelo híbrido para incentivar la adhesión

Bruselas plantea un sistema híbrido: la normativa es obligatoria, pero un “código voluntario” complementario incentivará la adhesión de las plataformas. Quienes lo firmen obtendrán “apoyo en su aplicación”, junto a una gestión de costes y cargas administrativas más ligera. Firmar ese código se interpreta como un gesto de buena voluntad hacia Bruselas.

Las tecnológicas, entre la cautela y la crítica

No obstante, el sector tecnológico ha respondido con cautela. A través de organizaciones como CCIA Europe (que agrupa a Alphabet, Meta y Apple), se ha solicitado aplasar la activación de ciertas disposiciones, citando incertidumbre operacional y la falta de directrices técnicas claras. Según datos de Reuters, más del 66 % de las empresas europeas declara problemas para entender sus nuevas obligaciones.

Innovación en riesgo: alertas desde el sector

En paralelo, voces académicas y de think‑tanks subrayan el dilema regulatorio: si bien la soberanía digital y los derechos del usuario son prioritarios, existe el riesgo de que una regulación excesivamente rígida disuada la innovación. Un informe de Bruegel citaba que “Microsoft y Google han desarrollado nuevos modelos que en Europa no están disponibles porque cumplir con nuestras regulaciones es demasiado difícil y costoso”. Otros expertos advierten de que menos del 20 % de los proyectos piloto de IA llegan a producción, debido a trámites complejos.

Iniciativas públicas en juego

Este pulso normativo forma parte de la estrategia más amplia de soberanía digital europea, que incluye iniciativas como las siete “factorías” de IA, entre ellas el Centro Nacional de Supercomputación de Barcelona, y modelos públicos como Alia. Sin embargo, figuras como Mateo Valero, director del Barcelona Supercomputing Center, advierten de que Europa aún carece de autonomía en hardware y que la regulación avanza más rápido que el desarrollo tecnológico.

Bruselas insiste en su calendario

A nivel institucional, la Comisión Europea mantiene firme su calendario de implementación. Henna Virkkunen, comisaria de política digital, descartó una moratoria: “Quiero aplicarlo de forma muy favorable a la innovación… la preocupación principal de algunos actores es que esto frena el desarrollo”.

Un estándar global en disputa

Bruselas apuesta por un enfoque gradual: tras la entrada en vigor en agosto de 2024, un desfase de 12 a 36 meses según categorías, permitirá que las empresas adapten sus sistemas de uso general, de alto riesgo o de impacto social.

Si las grandes tecnológicas finalmente firman el código y colaboran, la UE podría establecer un estándar global de regulación responsable de IA, en línea con el «Brussels Effect». Pero si persiste la resistencia, Europa se arriesga a quedar al margen de la innovación y depender de versiones diluidas del mercado anglosajón o chino.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario