Skip to main content

Meta estudió activar reconocimiento facial en sus Ray-Ban “cuando los defensores de la privacidad estén distraídos”, según un documento interno citado por The New York Times.

Durante meses, Meta ha logrado algo que parecía improbable: que unas gafas inteligentes vuelvan a ser deseables. Las Ray-Ban Meta funcionan, no parecen un prototipo extraño y, por primera vez en esta categoría, la estética no delata al dispositivo. Esa “normalidad” es precisamente su superpoder. Y también, como advierte The Verge, la razón por la que pueden acabar siendo socialmente tóxicas: son lo bastante discretas como para grabar sin que nadie lo note.

El diagnóstico no es técnico, sino cultural: el producto puede ser bueno, incluso brillante, pero la empresa que lo comercializa arrastra una reputación tan mala en privacidad que cualquier avance se interpreta como amenaza. Y el temor no nace de paranoia abstracta: nace de incentivos, precedentes y señales recientes.

El “catch-22” de las gafas inteligentes: cuanto mejor se integran, peor se sienten

Los evangelistas de las smart glasses suelen responder lo mismo: “Tu móvil también tiene cámara, ya estás rodeado de CCTV y el reconocimiento facial lo usa el Estado”. Es cierto: vivimos grabados. Pero el salto cualitativo está en la fricción. Sacar el móvil implica un gesto visible; unas gafas, no. En la columna, Victoria Song lo resume con un punto incómodo: la invisibilidad es el objetivo, porque el dispositivo pretende parecer unas Ray-Ban normales.

Ese diseño “invisible” crea una paradoja: Meta ha encontrado el formato que hace que las gafas funcionen… y al mismo tiempo ha creado un objeto perfecto para el monitoreo cotidiano. No hace falta que el usuario tenga intención de espiar; basta con que el entorno no pueda distinguir cuándo está siendo capturado. Ahí entra un detalle aparentemente menor, pero decisivo: el indicador luminoso de grabación.

El LED de privacidad: un símbolo débil para una promesa enorme

Las Ray-Ban Meta incorporan una luz que debería avisar cuando se graba. El problema, según la columna, es doble: es poco visible y no es inviolable. Song cita un reportaje de 404 Media sobre una modificación barata —en el entorno de los 60 dólares— capaz de desactivar el LED y convertir la gafa en una cámara aún más opaca.

El debate sobre el LED no es un tecnicismo: es la diferencia entre “dispositivo socialmente tolerable” y “herramienta de vigilancia portátil”. Los indicadores solo funcionan cuando el resto de la sociedad confía en que son fiables y difíciles de manipular. Si el propio mercado demuestra que se pueden desactivar, el aviso deja de ser aviso y pasa a ser un adorno.

Esa fragilidad se vuelve más relevante porque las gafas son, por diseño, pequeñas, discretas y fáciles de confundir con un accesorio normal. No es casual que la columna conecte esta discreción con la sensación de “ser un espía” al llevarlas puestas: no porque el portador quiera serlo, sino porque el objeto está optimizado para que nadie lo perciba.

“Manfluencers”, grabaciones sin consentimiento y la respuesta mínima de Meta

La privacidad no se rompe solo por ingeniería; se rompe por usos reales. The Verge recopila informes de hombres que graban a mujeres sin su consentimiento para contenidos en redes, y critica que Meta no haya reaccionado con contundencia, limitándose a señalar términos de servicio y el LED como salvaguarda.

Ese patrón —respuesta corporativa estándar, énfasis en “uso responsable”, poca fricción para el abuso— es crucial. Porque las gafas amplifican el clásico problema de la plataforma: si tu sistema hace fácil lo problemático, el “buen comportamiento” se convierte en una recomendación inocua. Y el salto a reconocimiento facial, si llega, multiplicaría el daño: ya no sería solo grabar, sino identificar.

El punto de no retorno: reconocimiento facial “cuando estemos distraídos”

Aquí está la frase que condensa el miedo. En otra pieza de The Verge, Emma Roth informa de un documento interno —revisado por The New York Times— donde Meta contemplaba lanzar una función de reconocimiento facial en un “entorno político dinámico” porque organizaciones críticas estarían centradas en otras batallas.

Según ese mismo texto, la función se habría denominado “Name Tag” y permitiría identificar a personas mediante el asistente de IA integrado, con exploraciones que irían desde reconocer contactos del usuario en plataformas de Meta hasta, potencialmente, personas con perfiles públicos (por ejemplo, en Instagram).

Meta, siempre en esa frontera, también tiene el antecedente de haber usado reconocimiento facial en Facebook y de haberlo descontinuado en 2021 tras controversias y presión legal y social, algo que The Verge recuerda en la cobertura.

El problema no es solo la tecnología: es el timing y el argumento táctico. Si una empresa admite —aunque sea en un documento interno— que su estrategia pasa por aprovechar la saturación informativa para introducir una capacidad sensible, el mensaje que envía es devastador: “sabemos que esto genera rechazo; buscamos el momento en que no podáis reaccionar”.

De la IA “con cámara” a la IA “para entrenar”: el incentivo de capturar más

El debate se agrava por cómo Meta ha ido ajustando políticas para alimentar su IA. En 2025, The Verge explicó cambios en la política de privacidad de las gafas que, en la práctica, refuerzan el papel de la cámara como fuente de datos: Meta AI “con cámara” permanece habilitada por defecto salvo que el usuario desactive el comando de activación (“Hey Meta”), y también se eliminaron opciones de exclusión relacionadas con el almacenamiento de grabaciones de voz, con retención que puede llegar hasta un año para mejorar productos.

Esto no implica que las gafas graben continuamente, pero sí aclara el marco: la cámara y el audio no son solo funciones; son materia prima para modelos. En un mercado donde “ver” es la ventaja competitiva —IA multimodal, contexto, asistentes que entienden el entorno— el incentivo natural es capturar más, conservar más y analizar más. Y ese incentivo choca frontalmente con la expectativa social de no ser grabado de manera invisible en espacios cotidianos.

La reputación como limitación técnica: el “hardware cool” que no se compra

La columna de Song abre con un comentario que se repite cada vez que se habla de Ray-Ban Meta: “Buen hardware, pero paso; esperaré a alguien que no sea Meta”. Ese es el gran obstáculo: no basta con que el producto sea útil; tiene que ser legítimo. Y Meta llega a la categoría con una mochila de desconfianza: Cambridge Analytica como mito fundador de la era moderna de escándalos de datos, decisiones públicas controvertidas y una larga historia de “moverse rápido y pedir perdón después”, que la autora usa como contexto para explicar por qué, con Meta, incluso un LED se siente insuficiente.

Cuando una compañía parte de la desconfianza, cada nueva capacidad se interpreta como explotación potencial: si la gafa puede identificar, entonces “doxxea”; si puede grabar, entonces “acecha”; si puede escuchar, entonces “espía”. Y el mercado de wearables es especialmente vulnerable a esa percepción porque se lleva encima, se integra en el cuerpo y opera en la frontera entre lo privado y lo público.

Lo que las gafas sí pueden aportar: accesibilidad real, dilema real

Hay un matiz importante: el reconocimiento facial puede ser útil para personas ciegas o con baja visión, y Song recoge testimonios de usuarios y defensores de accesibilidad que ven en estas gafas un antes y un después. El dilema no es “tecnología mala”; es “tecnología poderosa sin límites claros”.

También The Verge recuerda un precedente inquietante: en 2024, dos estudiantes demostraron una forma de identificar a desconocidos usando Ray-Ban Meta y bases de datos públicas. Ese tipo de experimentos evidencia que, incluso sin una función oficial de Meta, la combinación “cámara discreta + IA + bases de datos” tiende hacia la identificación. Si Meta lo productiza, lo masifica; si lo masifica, cambia normas sociales.

El contexto social importa: cuando grabar deja de ser un gesto y pasa a ser ambiente

El artículo conecta este miedo con una realidad paralela: ya estamos rodeados de cámaras domésticas y vigilancia privada que, de forma ocasional, terminan en manos de autoridades. El caso Guthrie citado en The Verge —sobre recuperación de metraje de un timbre/cámara— ilustra cómo se expanden los perímetros de acceso y las expectativas de disponibilidad de imágenes.

Las gafas añaden un ingrediente nuevo: no es la cámara fija de una puerta; es la cámara móvil de cualquiera, con un formato que no activa alarmas sociales. Y ahí se juega el futuro de esta “renacencia” de las smart glasses: basta con unos cuantos episodios virales de abuso y una respuesta corporativa tibia para que el péndulo vuelva a la era “glasshole” y al rechazo frontal, como ocurrió con Google Glass.

Qué tendría que cambiar para que Meta no “arruine” sus propias gafas

Si la tesis de The Verge es que Meta puede matar la categoría por ser Meta, la salida no pasa por más marketing, sino por arquitectura de confianza:

  • Indicadores físicos fuertes y verificables (LED realmente visible, a prueba de manipulación; obturador físico; alertas auditivas opcionales). El problema del mod de 60 dólares existe porque la señal es fácil de debilitar.
  • Políticas “pro-privacidad” por defecto, no “pro-captura”: si la IA con cámara está siempre habilitada salvo que el usuario la apague, el diseño de incentivos va en contra de la confianza.
  • Límites explícitos a reconocimiento facial: si alguna vez llega, debería ser opt-in estricto, con casos de uso acotados (por ejemplo, contactos que el usuario ha registrado activamente), sin búsqueda de “perfiles públicos” y con auditorías externas. El propio debate de “Name Tag” demuestra lo inflamable del tema.
  • Respuesta pública contundente ante usos abusivos, no solo “TOS y LED”: cuando el abuso se convierte en tendencia, la empresa tiene que mostrar fricción real (bloqueos, enforcement visible, cooperación regulatoria).

Meta puede tener el mejor diseño del mercado, pero si insiste en jugar al borde —y si la percepción social es que lo hace calculando el momento político para minimizar críticas— el resultado será previsible: un producto técnicamente excelente y socialmente inaceptable.

Dejar un comentario