Ya no hace falta decir “Hey Meta” cada vez. Ni repetir lo mismo con otras palabras. Las gafas con inteligencia artificial de Meta han aprendido a escuchar con atención. En su última actualización, el dispositivo ahora es capaz de seguir el hilo de una charla, entender referencias previas y reaccionar como quien no solo oye, sino que recuerda. El movimiento puede parecer técnico, pero se acerca una IA que no interrumpe la realidad, sino que la habita. Que no aparece cuando se la invoca, sino que ya está.
Del comando al hilo conversacional
Hasta ahora, hablar con una IA era como lanzar una piedra al agua un gesto breve, una respuesta inmediata, y luego el silencio. Las nuevas gafas cambian esa dinámica. Con la función multiturn voice, ya no es necesario empezar de cero con cada pregunta. El sistema entiende el contexto, reconoce lo que se dijo antes y responde en consecuencia.
Por ejemplo, si en medio de una conversación alguien dice “Y cómo se llama ese museo que mencionaste?”, la IA puede conectar esa frase con lo dicho minutos antes y contestar sin pedir precisiones. La interacción se vuelve menos comando y más diálogo.
Decir y que suene: la música entra en juego
Otra novedad es la integración directa con Spotify. Ya no hace falta abrir ninguna app ni sacar el teléfono. Basta con decir “pon algo tranquilo” o “quiero lo nuevo de SZA” para que la música empiece a sonar desde las gafas. La voz se convierte en interfaz, la acción en consecuencia inmediata. Como si la tecnología escuchara de verdad, sin hacer preguntas de más.
Qué datos se usan para que funcione
Para sostener estas interacciones, las gafas analizan fragmentos de voz y, en algunos casos, contexto visual. Meta afirma que el procesamiento ocurre en el dispositivo siempre que es posible, y que solo se conecta con la nube para respuestas complejas. No graba conversaciones completas, pero escucha en tiempo real y recuerda a corto plazo lo que se dice. Un LED indica si el sistema está activo. Y la función puede desactivarse en cualquier momento.
Cuanto más natural, más presente
La mejora en la fluidez de la IA tiene un efecto doble. La hace más útil, pero también más invisible. Ya no hace falta invocar, activar, confirmar. Basta con hablar. Y eso puede volverla más difícil de detectar, más incrustada en lo cotidiano. Las gafas no graban todo, pero sí escuchan activamente mientras están en uso. Y eso desplaza los límites entre ayuda y vigilancia, entre interfaz y presencia.
Una IA que se pone en la cara
Mientras Apple explora visores inmersivos y Amazon mejora sus altavoces, Meta apuesta por el formato gafas. Firmadas por Ray-Ban, diseñadas para no parecer tecnológicas. Pero ahora escuchan, entienden y reaccionan.
Lo nuevo no está en lo que hacen, sino en cómo lo hacen de forma continua, silenciosa, situada en el rostro de quien las lleva. No proyectan mundos, pero escuchan el nuestro.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.