Skip to main content

La Comisión Europea ha publicado las directrices que definen el riesgo sistémico en modelos de IA de propósito general y fijan las obligaciones técnicas y de transparencia que la Ley de IA (AI Act) que se exigirá a partir del 2 de agosto de 2025

El documento, publicado el 18 de julio de 2025, son unas pautas que aclaran qué modelos se consideran de propósito general (GPAI) y en qué casos el proveedor pasa a ser responsable de cumplir el Capítulo V de la Ley de IA. Introduce criterios técnicos simples, distingue entre modificaciones “menores” y “significativas” y precisa las exenciones aplicables al código abierto, con el fin de “promover la transparencia y la innovación”.

Plazos de cumplimiento escalonados

Las obligaciones para GPAI nuevos se aplican a partir del 2 de agosto de 2025. Un año después, el 2 de agosto de 2026, la Comisión activará sanciones para su incumplimiento. Los modelos puestos en el mercado antes de 2025 dispondrán de dos años adicionales, hasta el 2 de agosto de 2027, para alinearse con los requisitos. Las multas por incumplimiento van de 7,5 millones € o 1,5 % de la facturación global, hasta 35 millones € o 7 % de ingresos, según la gravedad de la infracción.

Evaluaciones de riesgo y transparencia reforzada

Los modelos catalogados como “de riesgo sistémico” por su potencia computacional y posible impacto social deberán realizar evaluaciones internas, ensayos de adversario, reportes de incidentes graves y asegurar ciberseguridad frente a robo o uso indebido. Para todos los GPAI se exige documentación técnica, políticas de copyright y resúmenes detallados de los datos empleados en el entrenamiento.

“Con estas directrices, la Comisión respalda la aplicación fluida y efectiva de la Ley de IA”, declaró la comisaria europea de Tecnología, Henna Virkkunen (Reuters).

Código de buenas prácticas y apoyo institucional

El nuevo Código de Buenas Prácticas GPAI, publicado el 10 de julio, ofrece un camino voluntario para adelantar el cumplimiento. Los signatarios contarán con acompañamiento de la Oficina de IA —punto de contacto para notificar modelos de riesgo sistémico— y podrán beneficiarse de orientación técnica continua. Aunque no vinculante, la Comisión evaluará su adecuación en las próximas semanas y podría incorporarlo como referencia en futuros actos de ejecución.

Impacto previsto para el ecosistema

Gigantes como Google, OpenAI, Meta, Anthropic y Mistral —cuyos modelos fundacionales dominan el mercado— deberán adaptarse en menos de trece meses o afrontar sanciones considerables. Al mismo tiempo, las aclaraciones sobre código abierto y mejoras “menores” reducen la carga para startups y comunidades de investigación, que ganan certeza sobre cuándo les afectan las reglas. Observadores del sector señalan que el enfoque europeo pretende conciliar competitividad e innovación con un alto nivel de protección de derechos fundamentales.

Las directrices GPAI llegan a tiempo para que el sector ajuste procesos y gobernanza antes del calendario de la Ley de IA. Su seguimiento será clave para medir si la UE logra un equilibrio duradero entre liderazgo tecnológico y confianza pública en la inteligencia artificial.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Cristina Mont Castro

Directora de Lavinia AI

Dejar un comentario