OpenAI trabaja en un altavoz inteligente con cámara y reconocimiento facial que podría permitir compras, con un precio estimado de 200 a 300 dólares.
OpenAI quiere que ChatGPT deje de ser “una app” y empiece a parecerse a una presencia permanente en casa. Según la información adelantada por The Information y recogida por Reuters y The Verge, la compañía está desarrollando su primer dispositivo de consumo: un altavoz inteligente con cámara, con un precio orientativo de 200 a 300 dólares, capaz de interpretar lo que ocurre a su alrededor —desde “objetos en una mesa cercana” hasta “conversaciones en las proximidades”— y con un sistema de reconocimiento facial estilo Face ID pensado, entre otras cosas, para habilitar compras.
La jugada marca un cambio de etapa: si en los últimos años OpenAI ha peleado por ser el motor conversacional dominante, ahora explora cómo se materializa esa inteligencia en hardware y, sobre todo, qué interfaz la hace cotidiana. No es casual que el primer formato sea un altavoz. Es el dispositivo que mejor encaja con la idea de “IA ambiental”: siempre disponible, manos libres y colocado en el centro del hogar. Lo diferencial —y también lo más sensible— es la cámara y el salto a la percepción del entorno.
El “ChatGPT del hogar” y el poder de ver
El concepto recuerda a los altavoces inteligentes que ya normalizaron Amazon y Google, pero con una ambición distinta: no solo responder preguntas, sino comprender contexto físico. El informe señala que el dispositivo podría reconocer elementos del entorno y conversaciones cercanas para ajustar respuestas, acciones y sugerencias.
En teoría, eso permite experiencias más fluidas: pedir que recuerde qué medicamentos hay sobre la mesa, que identifique un producto para reponerlo o que ayude a organizar tareas domésticas a partir de señales visuales. Pero el mismo mecanismo abre una cuestión inevitable: ¿qué significa meter una cámara “para entenderte” en el salón? La industria ya ha vivido la fricción. Amazon, por ejemplo, probó formatos con cámara (Echo Show, Ring) y aprendió que el usuario acepta mejor la cámara cuando entiende claramente para qué sirve (videollamadas, seguridad) y cuando percibe controles físicos y transparencia.
OpenAI, además, añade un elemento que eleva el riesgo reputacional: el informe habla de un sistema de identificación facial que permitiría comprar. En otras palabras, no sería un simple asistente, sino una pieza de infraestructura para transacciones. Eso implica seguridad, cumplimiento normativo y confianza, pero también una pregunta estratégica: ¿quiere OpenAI competir en pagos, “commerce” y verificación de identidad desde el hogar?
El factor Jony Ive: diseño como ventaja… y como mensaje
Detrás del salto al hardware está la alianza con Jony Ive. OpenAI anunció en 2025 su relación con Ive y el equipo de io Products, con integración del equipo y responsabilidades de diseño y creatividad asociadas a LoveFrom. Aquel movimiento se interpretó como una forma de comprar algo escaso en el sector: lenguaje industrial, obsesión por los detalles de producto y capacidad para definir una categoría, no solo un aparato.
El mercado de “gadgets de IA” está lleno de advertencias recientes: dispositivos con promesas grandilocuentes que han quedado atrapados entre limitaciones técnicas, baterías, latencia, conectividad y expectativas irreales. Por eso, empezar con un altavoz (enchufado, conectado, doméstico) suena pragmático. Menos fricción energética, menos dependencia del móvil, más margen para sensores y computación local. También es el tipo de producto donde el diseño puede hacer que una cámara resulte “aceptable” o, por el contrario, inquietante.
Calendario y madurez: nada antes de 2027
El informe también enfría la euforia: el lanzamiento no sería inminente. The Verge sitúa que no llegaría a clientes antes de marzo de 2027, mientras Reuters indica que no estaría disponible antes de febrero de 2027. Más allá de la discrepancia de un mes, el mensaje es claro: OpenAI se toma tiempo para industrializar, iterar prototipos y construir una cadena de suministro a escala.
Además, el mismo paquete de filtraciones introduce otros formatos —gafas y lámpara inteligente— pero con todavía más incertidumbre. Las gafas no entrarían en producción masiva hasta 2028 y la lámpara aparece como prototipo en fases tempranas, sin confirmación de lanzamiento. Esto sugiere que OpenAI está explorando varias “carcasas” para la IA, pero que el altavoz con cámara es el candidato más realista para inaugurar la línea.
Una carrera más grande: Apple, Meta y el “post-smartphone”
OpenAI no se mueve en vacío. Meta ha encontrado tracción con sus gafas inteligentes, y Apple —según Bloomberg— acelera una trifecta de wearables para la era IA: gafas, un “pendant” tipo colgante o pin y AirPods con cámaras, todos alrededor de un Siri que use contexto visual. En paralelo, la filtración de OpenAI menciona también gafas y lámpara, como si el sector estuviera convergiendo en una idea compartida: la IA necesita ojos, no solo voz.
En ese tablero, el altavoz con cámara puede ser una forma de ganar terreno sin chocar frontalmente con el iPhone o con un ecosistema móvil cerrado. Pero también plantea un dilema competitivo: Apple, Google y Amazon llevan años integrando asistentes en el hogar, y controlan sistemas operativos, tiendas y servicios. OpenAI, en cambio, parte de su fortaleza: el modelo y la experiencia conversacional. La pregunta es si esa ventaja basta para que el usuario cambie de dispositivo, o si el altavoz será un “punto de entrada” para un ecosistema propio de servicios y suscripciones.
Privacidad y gobernanza: el tema que decidirá el producto
Si hay un elemento que decidirá el destino del gadget, será la gestión de la privacidad. Una cámara “ambiental” y un micrófono “siempre listo” obligan a controles contundentes: obturador físico, indicadores de grabación inequívocos, procesamiento en el dispositivo cuando sea posible, borrados verificables, perfiles por usuario y separación estricta entre funciones. La filtración habla de reconocimiento facial para compras; eso requiere no solo precisión, sino garantías: ¿se almacena el “embedding” localmente?, ¿cómo se evita la suplantación?, ¿qué pasa con invitados o menores?, ¿se puede operar sin biometría?
No es un detalle técnico: es el núcleo del contrato con el usuario. La industria ya sabe que, en el hogar, la confianza pesa más que la novedad. OpenAI, además, arrastra un escrutinio estructural por ser el proveedor de un modelo generalista que se integra en múltiples plataformas. Convertirse también en fabricante de hardware significa que la compañía pasaría a gestionar datos sensoriales de primer orden.
¿Por qué una lámpara?
Que aparezca una “smart lamp” como prototipo suena extraño, pero encaja con una intuición: la próxima interfaz de la IA quizá no sea una pantalla, sino un objeto cotidiano con presencia “calmada”. La lámpara permite algo que el altavoz no: dirección y ambiente. Puede orientar luz hacia donde miras, señalar objetos, comunicar estados sin notificaciones agresivas, y convertirse en un “ancla” doméstica para una IA que observa el entorno. Pero, precisamente por ser tan doméstica, también exige una integración estética impecable y un propósito claro; de ahí que el informe insista en que su salida es incierta.
Lo que realmente está en juego
Más que un altavoz, OpenAI está tanteando una tesis: la IA como plataforma de interacción diaria. Si la empresa consigue que ChatGPT sea útil sin abrir el móvil —y si lo hace sin romper la confianza— habrá dado un paso hacia el “post-smartphone”, esa idea recurrente de que la informática se dispersa en objetos. Si falla, se sumará a la lista de gadgets de IA que no lograron justificar su existencia frente a un teléfono que ya lo hace todo.
De momento, lo verificable es esto: hay un equipo dedicado, un primer dispositivo plausible (altavoz con cámara), un rango de precio pensado para consumo masivo y un calendario que apunta a 2027. El resto —gafas y lámpara— suena a laboratorio de formatos. Y esa fase, en tecnología, suele ser la más reveladora: cuando una compañía deja de preguntar “qué puede hacer la IA” y empieza a preguntarse “dónde vive”.