La Agencia Española de Protección de Datos exige a World que demuestre la necesidad y proporcionalidad del tratamiento del iris, uno de los datos biométricos más sensibles y permanentes del cuerpo humano.
La empresa Tools for Humanity, responsable del proyecto World —anteriormente conocido como Worldcoin—, ha paralizado nuevamente su actividad de escaneo de iris en España tras recibir una advertencia formal de la Agencia Española de Protección de Datos (AEPD). La decisión marca un nuevo capítulo en el conflicto entre uno de los proyectos más ambiciosos de identidad digital basada en biometría y las autoridades europeas encargadas de proteger los derechos fundamentales de privacidad.
La suspensión se produce apenas días después de que la compañía hubiera reanudado sus operaciones en Barcelona, donde había abierto un espacio físico para registrar usuarios mediante sus dispositivos de escaneo ocular. El aviso de la AEPD ha obligado a la empresa a detener el despliegue mientras revisa su sistema de tratamiento de datos biométricos y evalúa posibles ajustes para cumplir con el Reglamento General de Protección de Datos (RGPD).
La base documental de este caso procede de la comunicación oficial de la Agencia Española de Protección de Datos y de la respuesta pública de Tools for Humanity, así como de resoluciones previas de autoridades europeas de protección de datos, entre ellas la BayLDA alemana y la Audiencia Nacional española.
Un aviso preventivo que paraliza el despliegue
La advertencia de la AEPD no es una sanción ni una prohibición definitiva, sino un mecanismo preventivo previsto en el RGPD. Su función es alertar a las empresas cuando las actividades previstas pueden implicar riesgos significativos para los derechos y libertades de las personas.
En este caso, la agencia considera que el modelo de World implica el tratamiento de datos biométricos de alta sensibilidad, concretamente el patrón del iris, que permite identificar de forma única a un individuo. Según la AEPD, la empresa debe demostrar que ese tratamiento es necesario, proporcional y seguro, y que existen medidas eficaces para mitigar los riesgos durante todo el ciclo de vida de los datos.
El organismo ha exigido a la compañía que documente estos aspectos en una Evaluación de Impacto en Protección de Datos, un requisito obligatorio cuando se manejan datos de alto riesgo. Este análisis debe justificar por qué el escaneo del iris es imprescindible para el objetivo del sistema y qué garantías existen para evitar usos indebidos, accesos no autorizados o vulneraciones de derechos.
Ante este escenario, Tools for Humanity ha comunicado que suspenderá temporalmente sus operaciones en España mientras revisa los aspectos señalados por la autoridad reguladora.
El iris: el identificador biométrico más preciso y permanente
El núcleo del conflicto reside en la naturaleza del dato que World pretende utilizar. El patrón del iris es uno de los identificadores biométricos más precisos conocidos. A diferencia de una contraseña o incluso de una huella dactilar, el iris no cambia con el tiempo y es extremadamente difícil de falsificar.
Esta característica lo convierte en una herramienta poderosa para la autenticación digital, pero también en un elemento de alto riesgo desde el punto de vista de la privacidad.
Si la plantilla biométrica del iris de una persona es comprometida, no puede cambiarse como una contraseña. La pérdida de control sobre ese dato puede tener consecuencias permanentes, ya que permite la identificación inequívoca de un individuo en múltiples sistemas.
Por este motivo, el RGPD considera los datos biométricos como una categoría especialmente protegida, sujeta a requisitos más estrictos que otros datos personales.
Un modelo basado en escaneo ocular y recompensa económica
El proyecto World se basa en un dispositivo llamado Orb, una esfera metálica equipada con sensores ópticos capaces de capturar imágenes del iris y del rostro. Este escaneo genera una plantilla biométrica única, que el sistema utiliza para verificar que una persona es real y única.
A cambio de someterse al escaneo, los usuarios reciben una recompensa en forma de criptomoneda, inicialmente valorada en torno a 80 euros.
El objetivo declarado del proyecto es crear una infraestructura global de verificación de humanidad, capaz de distinguir personas reales de bots en un entorno digital cada vez más dominado por la inteligencia artificial.
El sistema genera una credencial digital llamada World ID, que permite demostrar que un usuario es humano sin revelar su identidad personal.
Sin embargo, este modelo ha generado controversia desde su lanzamiento debido al uso de biometría a cambio de incentivos económicos, especialmente en poblaciones vulnerables.
Un historial de conflictos regulatorios en España y Europa
La suspensión actual no es el primer enfrentamiento entre World y las autoridades españolas. En 2024, la AEPD ya había ordenado la paralización cautelar del proyecto tras recibir múltiples denuncias.
Entre las preocupaciones planteadas figuraban:
- Información insuficiente a los usuarios sobre el tratamiento de sus datos
- Posible captación de datos de menores
- Dificultades para retirar el consentimiento
- Falta de garantías claras sobre la eliminación de los datos
En ese momento, la Audiencia Nacional respaldó la decisión de la AEPD, afirmando que la protección de los derechos fundamentales debía prevalecer sobre los intereses comerciales de la empresa.
Según datos oficiales, antes de la suspensión inicial, aproximadamente 400.000 personas en España ya habían escaneado su iris.
El papel de las autoridades europeas y el caso alemán
El conflicto también ha tenido repercusiones a nivel europeo. Tools for Humanity designó Alemania como su establecimiento principal en Europa, lo que trasladó la supervisión principal a la autoridad bávara de protección de datos, la BayLDA.
Esta autoridad concluyó que el proyecto había infringido varios artículos del RGPD y ordenó medidas correctivas, incluyendo:
- Eliminación de códigos biométricos almacenados sin garantías suficientes
- Introducción del derecho efectivo de supresión de datos
- Implementación de controles para evitar el escaneo de menores
Estas resoluciones han reforzado el escrutinio sobre el proyecto y han establecido precedentes regulatorios relevantes.
Identidad digital, inteligencia artificial y el problema de la confianza
El proyecto World surge en un contexto en el que la verificación de identidad se está convirtiendo en un problema central de la economía digital.
La proliferación de bots, cuentas falsas e identidades sintéticas impulsadas por inteligencia artificial está erosionando la confianza en los sistemas digitales.
La propuesta de World es crear una infraestructura global de verificación de humanidad, que permita distinguir entre humanos y sistemas automatizados sin revelar información personal.
Esta capacidad podría tener aplicaciones en redes sociales, plataformas financieras, sistemas electorales digitales y entornos virtuales.
Pero el uso de biometría permanente como base de esta infraestructura plantea preguntas fundamentales sobre privacidad, consentimiento y poder tecnológico.
El dilema estructural: seguridad digital frente a derechos fundamentales
El caso de World refleja un dilema estructural de la era digital.
Por un lado, existe una necesidad creciente de sistemas robustos de verificación de identidad.
Por otro, los mecanismos más eficaces para lograrlo implican el uso de datos altamente sensibles.
El RGPD establece que el tratamiento de estos datos solo es legítimo si es necesario, proporcional y seguro.
La carga de la prueba recae en la empresa, que debe demostrar que no existe una alternativa menos invasiva.
Este principio es el núcleo del conflicto actual.
España como campo de prueba de la gobernanza biométrica
España se ha convertido en uno de los escenarios más relevantes en Europa para el debate sobre identidad biométrica.
Las decisiones de la AEPD están siendo observadas por reguladores de todo el mundo, ya que establecen precedentes sobre los límites del uso de biometría en servicios digitales.
El resultado de este caso podría influir en el desarrollo de sistemas similares en otros países.
Un punto de inflexión en la relación entre tecnología y privacidad
La suspensión del proyecto World no es solo un episodio aislado.
Forma parte de una tensión más amplia entre innovación tecnológica y protección de derechos fundamentales.
La identidad digital basada en biometría podría convertirse en una infraestructura clave del futuro digital.
Pero su adopción dependerá de la capacidad de las empresas para demostrar que pueden proteger los derechos de los usuarios.
La advertencia de la AEPD envía un mensaje claro: la innovación tecnológica no puede avanzar sin cumplir las garantías legales y éticas establecidas.
El futuro de la identidad digital no dependerá solo de la tecnología.
Dependerá de la confianza.
Y esa confianza se construye con transparencia, proporcionalidad y respeto a los derechos fundamentales.