Mientras otras empresas exploran gafas inteligentes o pantallas plegables, OpenAI está trabajando en algo menos visible: una interfaz de voz que funcione como puerta de entrada a sus modelos de inteligencia artificial, según The Information. En los últimos meses, la compañía ha reestructurado equipos, acelerado desarrollos y afinado su tecnología de audio. Todo apunta a un lanzamiento en 2026 de un dispositivo centrado en la voz.
Conversar con una máquina sin que se note
El objetivo es que hablar con una IA resulte tan fluido como una conversación entre personas. Para lograrlo, OpenAI ha reunido a sus equipos de ingeniería, producto e investigación en una sola unidad centrada en audio. El reto no es solo que la máquina entienda lo que se dice, sino que lo haga con interrupciones, matices, preguntas a medias o silencios cómodos. En resumen, con todo lo que hace que una conversación sea humana.
El dispositivo: sin pantalla, pero con muchas posibilidades
Aunque OpenAI no ha confirmado oficialmente el producto, diversas filtraciones y movimientos internos apuntan hacia un gadget sin pantalla, posiblemente un wearable o un bolígrafo inteligente. Diseñado en colaboración con Jony Ive, exdirector de diseño de Apple, el dispositivo sería multimodal, capaz de recibir y generar audio, texto y quizás imagen, según declaraciones del propio CFO de la compañía.
La voz como puerta de entrada a la IA
El movimiento no es aislado. OpenAI busca adelantarse a un posible cambio de paradigma, de interfaces táctiles a interfaces conversacionales. En este modelo, el usuario no necesita mirar una pantalla ni teclear, sino simplemente hablar. En contextos como el trabajo en movilidad, la asistencia a personas mayores o la creación de contenido en tiempo real, la voz puede ofrecer una experiencia más cómoda, rápida y natural.
Datos, privacidad y otros dilemas abiertos
Para funcionar con fluidez, estos sistemas necesitan procesar audio en tiempo real, a menudo en la nube, lo que plantea dudas sobre privacidad y seguridad. OpenAI no ha detallado cómo gestionará estos datos ni qué parte del procesamiento se hará localmente. La tensión entre funcionalidad y privacidad, ya presente en asistentes como Siri o Alexa, se mantendrá también en este nuevo formato.
Silicon Valley escucha
El interés por el audio como interfaz no es exclusivo de OpenAI. Startups como Humane o Rewind también han presentado dispositivos basados en la voz. Apple y Meta trabajan en experiencias más naturales para sus asistentes. La diferencia es que OpenAI controla también el motor de lenguaje, su modelo GPT-4. Con ello, puede ofrecer una experiencia integrada y, potencialmente, más sofisticada.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.