Skip to main content

Spotify ha actualizado su política para frenar los contenidos generados con inteligencia artificial. No lo hace para prohibirlos, sino para clasificarlos, controlarlos y, sobre todo, evitar que el sistema de regalías se convierta en un coladero.

Un filtro contra la repetición y el ruido útil

Lo llaman “slop” y no es un género musical. Es el término que Spotify usa para designar las canciones artificiales creadas en masa, pistas casi idénticas, subidas sin pausa, diseñadas para colarse en las recomendaciones del algoritmo. En el último año, la plataforma afirma haber eliminado 75 millones de pistas por prácticas así.

La nueva política incorpora un filtro antispam que detecta repeticiones, cuentas abusivas y canciones demasiado cortas. No las elimina directamente, pero sí reduce su visibilidad en los sistemas de recomendación. Es una primera barrera para evitar que el catálogo se llene de ruido rentable, canciones hechas para superar los 30 segundos y cobrar por cada reproducción.

Clonar una voz también tiene reglas

Otra novedad es que han prohibido suplantar voces sin permiso. Spotify endurece su postura frente a los deepfakes vocales. Si alguien sube una canción con una voz que imita a un artista real sin su consentimiento, será retirada. También se vigilarán los llamados “profile mismatches”, cuando alguien publica música bajo el perfil de otro.

No es solo un tema de identidad. En una industria que reparte ingresos por número de reproducciones, cada pista falsa desplaza a otra legítima. Y cada clic robado se convierte en dinero que no llega a quien corresponde.

La IA puede estar, pero hay que decirlo

Spotify no quiere cerrar la puerta a la inteligencia artificial. De hecho, muchas canciones actuales ya usan herramientas automáticas en la mezcla, la instrumentación o los coros. Lo que cambia es la exigencia de transparencia.

La empresa trabaja con DDEX, una organización que define estándares de metadatos, para que cada canción incluya información sobre si usó IA y en qué parte del proceso creativo. La etiqueta no penaliza ni es visible para el público por ahora. Pero servirá para que plataformas, sellos y distribuidores sepan qué hay detrás de cada pista.

El dilema: ¿puede un algoritmo detectar la trampa?

Spotify insiste en que no bajará una canción solo por usar IA. Lo importante es cómo y con qué intención. Pero el filtro antispam —como todo sistema automático— no es infalible. Detectar el abuso sin dañar a creadores legítimos será el reto principal.

Los artistas independientes podrían ser los más vulnerables. Sin el respaldo de un sello o distribuidor fuerte, una canción etiquetada por error podría perder visibilidad sin que nadie lo advierta. Spotify no ha detallado cómo se podrá reclamar en estos casos.

¿Una medida aislada? No del todo

Spotify no está solo. Deezer y otras plataformas ya han empezado a etiquetar contenidos generados por IA o a limitar su visibilidad. La industria se mueve hacia una interoperabilidad de metadatos, y el modelo DDEX podría convertirse en un estándar global.

Pero cada empresa ajusta el umbral según su modelo de negocio. Ahí está el matiz, Spotify ha sido criticado en el pasado por insertar artistas falsos o genéricos para reducir el pago de regalías. Ahora promete lo contrario, proteger lo real frente a lo automático.

Una frontera que se mueve

El anuncio de Spotify no resuelve el debate, pero lo vuelve visible. La música generada con IA no es un problema por sí misma. Lo es cuando se usa para saturar el sistema, desplazar a creadores o engañar a oyentes. En un catálogo que ya supera los 100 millones de canciones, saber quién canta, cómo y por qué importa más que nunca.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario