Skip to main content

A partir de 2026, todos los anuncios generados con inteligencia artificial en Corea del Sur deberán llevar una etiqueta visible que lo indique. Así lo ha anunciado el gobierno tras detectar un aumento preocupante de contenidos engañosos con rostros que no existen, expertos inventados y celebridades clonadas que promocionan desde cremas milagrosas hasta suplementos médicos sin control. La medida apunta directamente a la zona gris del marketing digital, donde la frontera entre lo real y lo sintético se ha vuelto demasiado difusa.

Qué implica la norma para anunciantes y plataformas

El gobierno reformará la ley de telecomunicaciones y otras normativas para obligar a etiquetar todo contenido publicitario creado o alterado por IA. No bastará con marcarlo en los créditos, la advertencia debe ser clara, visible y mantenerse durante toda la duración del anuncio.

Tanto los anunciantes como las plataformas que difundan estos contenidos estarán obligados a garantizar que la etiqueta no se elimine ni se modifique. Si no lo hacen, se exponen a sanciones económicas que podrían multiplicar por cinco el daño causado. También se prevé que ciertos anuncios ilegales se retiren en menos de 24 horas.

Un aumento de fraudes digitales que acelera la respuesta

El detonante ha sido una avalancha de fraudes digitales. En 2024, el Ministerio de Seguridad Alimentaria y Medicamentos detectó más de 96.000 anuncios ilegales relacionados con productos alimenticios y farmacéuticos. En 2025, antes incluso de cerrar septiembre, la cifra superaba los 68.000.

Muchas de estas campañas usaban imágenes generadas por IA para simular opiniones, médicos o resultados. Las víctimas más frecuentes, según el gobierno, son personas mayores, más propensas a creer en una autoridad visual fabricada.

Corea del Sur se adelanta en el tablero regulador

La medida forma parte de un paquete más amplio de directrices que Corea del Sur ha ido desplegando desde 2023 para regular el uso de IA generativa. En agosto de 2025, ya recomendó marcar con “watermarks” o señales visibles los contenidos sintéticos difíciles de distinguir de los reales.

En paralelo, otras regiones están tomando caminos similares. El Reglamento Europeo de Inteligencia Artificial obliga desde agosto de 2026 a etiquetar todos los textos, imágenes o audios creados por IA si pueden inducir a error. Pero Corea del Sur da un paso más rápido y específico, centrando el foco en la publicidad, el lugar donde el engaño tiene consecuencias más directas.

Qué interrogantes deja abierta la medida

El marco legal está en construcción, y eso deja preguntas abiertas. ¿Qué cuenta como contenido generado por IA? ¿Hasta qué punto un anuncio retocado con herramientas automáticas deberá etiquetarse? También se cuestiona la capacidad de las plataformas para aplicar filtros efectivos. Si el sistema depende solo de la autorregulación o de la vigilancia manual, la norma podría quedar en papel mojado.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario