Los AirPods con cámaras han llegado a una fase avanzada de pruebas, con diseño y funciones casi cerrados, y apuntan a convertirse en el primer dispositivo de Apple pensado desde el inicio para que la IA vea el entorno del usuario.
Apple está preparando una nueva generación de AirPods que puede marcar un giro profundo en su estrategia de inteligencia artificial. Según Bloomberg, los auriculares con cámaras integradas han alcanzado una fase avanzada de pruebas en la que el diseño y las funciones están ya prácticamente finalizados antes de pasar a producción. Si el proyecto se mantiene en los plazos previstos, estos AirPods podrían convertirse en el primer wearable de Apple concebido específicamente para la era de la IA: un dispositivo que no se limita a reproducir música, cancelar ruido o atender llamadas, sino que aspira a captar información del entorno para que los sistemas inteligentes de la compañía entiendan mejor lo que rodea al usuario.
La idea puede parecer extraña de entrada: unos auriculares con cámaras. Pero el objetivo no sería tomar fotografías ni grabar vídeo convencional, sino dotar a los AirPods de una especie de percepción ambiental. Las cámaras permitirían detectar elementos del espacio cercano, interpretar contexto visual y alimentar funciones de inteligencia artificial vinculadas al iPhone, Siri, Apple Intelligence y, eventualmente, otros dispositivos del ecosistema. Bloomberg señala que los prototipos ya tienen un diseño y unas capacidades casi definitivas, una señal de que Apple ha superado la fase de exploración conceptual y se acerca a una etapa de producto.
El movimiento encaja con una tendencia más amplia: la IA necesita ojos, oídos y contexto. Durante la primera etapa de la inteligencia artificial generativa, la interacción se produjo sobre todo en pantallas: el usuario escribía una pregunta, subía una imagen o pedía una respuesta. Pero la siguiente fase apunta a sistemas más ambientales, capaces de captar señales del mundo real y responder sin que el usuario tenga que describirlo todo. En ese marco, los AirPods con cámaras pueden convertirse en una pieza clave: son pequeños, se llevan puestos durante horas, ya están asociados a voz y audio, y forman parte de uno de los productos más exitosos de Apple.
El reto para Apple es doble. Por un lado, debe demostrar que existe una utilidad real para colocar cámaras en unos auriculares. Por otro, debe recuperar credibilidad en inteligencia artificial después de una etapa en la que Apple Intelligence ha avanzado con más cautela que las propuestas de OpenAI, Google, Meta o Anthropic. Frente a rivales que han convertido los chatbots, los agentes y los modelos multimodales en el centro de su estrategia, Apple parece buscar una vía propia: IA integrada en hardware, en privacidad local y en una experiencia de usuario menos explícitamente conversacional.
Los AirPods con cámaras pueden ser el primer gran intento de esa vía. No serían unas gafas inteligentes, pero sí podrían cumplir parte de su función sin obligar al usuario a llevar una montura en la cara. Ese detalle importa. Meta ha demostrado con sus Ray-Ban Meta que las gafas con cámara, voz e IA tienen un mercado emergente, pero también arrastran barreras sociales: no todo el mundo quiere llevar gafas, no todos los entornos aceptan cámaras visibles y no todos los usuarios quieren un dispositivo que parezca diseñado para grabar. Los AirPods, en cambio, ya están normalizados como accesorio cotidiano.
La diferencia es que unos auriculares con cámaras plantean preguntas técnicas muy complejas. ¿Dónde se sitúan exactamente las cámaras? ¿Qué campo de visión ofrecen desde la oreja? ¿Cómo evitan captar imágenes inútiles o mal encuadradas? ¿Qué tipo de sensor se utiliza? ¿Cómo se gestiona el consumo energético? ¿Qué procesamiento se hace en el dispositivo, en el iPhone o en la nube? ¿Cómo se informa a terceros de que el dispositivo puede estar captando información visual? La promesa de un wearable de IA no se sostiene solo en el diseño: exige una arquitectura de privacidad, batería, procesamiento y utilidad muy afinada.
Desde 2024, varios analistas habían anticipado que Apple estudiaba integrar cámaras infrarrojas en futuros AirPods. Ming-Chi Kuo señaló entonces que estos sensores podrían abrir la puerta a formas de control gestual en el aire y a una mejor integración con experiencias espaciales, especialmente relacionadas con Vision Pro. Informaciones posteriores apuntaron a una posible producción en 2026 o 2027, aunque los detalles han variado según las filtraciones. MacRumors recogía recientemente que Gurman no esperaba soporte para gestos en el aire en esta versión, pese a que esa había sido una de las hipótesis iniciales.
Ese matiz cambia la interpretación del producto. Si las cámaras no están pensadas principalmente para gestos, el foco se desplaza hacia la inteligencia visual. Los AirPods podrían ayudar a Siri o a Apple Intelligence a entender qué está mirando o dónde se encuentra el usuario, aunque de una forma distinta a unas gafas. Podrían servir para describir objetos cercanos, orientar al usuario en un espacio, detectar señales visuales, complementar instrucciones de navegación o mejorar experiencias de realidad espacial. También podrían aportar contexto a funciones de accesibilidad, un terreno donde Apple ha construido históricamente una reputación sólida.
La accesibilidad puede ser una de las aplicaciones más potentes. Unos AirPods capaces de captar señales visuales podrían ayudar a personas con baja visión a identificar objetos, puertas, textos, obstáculos o situaciones del entorno, siempre que el sistema logre suficiente precisión y privacidad. Apple ya ha demostrado interés en funciones como reconocimiento de sonidos, detección de puertas, lectura de texto o asistencia visual desde el iPhone. Llevar parte de esa percepción a unos auriculares permitiría una experiencia más discreta y continua.
Pero la utilidad no se limita a accesibilidad. Un wearable de IA con audio y visión ambiental podría actuar como asistente contextual en situaciones cotidianas: recordar dónde se ha dejado un objeto, ayudar a interpretar una señal en un aeropuerto, identificar un producto, traducir un cartel, guiar una reparación doméstica o apoyar una compra. La clave no estaría en que los AirPods “vean” por sí solos, sino en que capturen suficiente contexto para que el iPhone y los modelos de IA puedan responder con más precisión.
La relación con Siri será decisiva. Apple lleva años prometiendo una Siri más inteligente, capaz de entender contexto personal, operar entre aplicaciones y responder de manera más útil. Unos AirPods con cámaras solo tendrían sentido si esa capa de inteligencia está lista. Sin un asistente robusto, las cámaras serían una curiosidad de hardware. Con un asistente verdaderamente contextual, podrían convertirse en una interfaz nueva: el usuario pregunta por voz y el sistema responde teniendo en cuenta lo que el dispositivo percibe.
Esa es la diferencia entre un accesorio y un wearable de IA. Un accesorio añade una función. Un wearable de IA cambia la relación entre persona, entorno y sistema operativo. Apple ya tiene piezas de ese puzzle: AirPods, Apple Watch, iPhone, Vision Pro, Apple Intelligence, Siri, chips propios y un ecosistema cerrado. Lo que le falta es conectar todo eso en una experiencia que parezca inevitable, no forzada.
El contexto competitivo presiona. Meta ha tomado ventaja en gafas inteligentes con Ray-Ban Meta y trabaja en dispositivos más avanzados. Google ha renovado su apuesta por Android XR y asistentes multimodales. OpenAI y otros laboratorios empujan hacia interfaces de voz, cámara y agentes. Humane fracasó con su AI Pin, pero su fracaso no eliminó la idea de un asistente ambiental; más bien demostró que el producto debe ser útil, rápido y socialmente aceptable. Apple, fiel a su estilo, parece apostar por una entrada más gradual: no un nuevo dispositivo extraño, sino una evolución de un producto ya masivo.
Bloomberg también ha informado de que Apple trabaja en otros wearables de IA, como gafas inteligentes y un colgante o dispositivo tipo pin con cámaras, aunque el desarrollo de ese accesorio iría por detrás de los AirPods con cámaras. MacRumors recogía el 7 de mayo de 2026 que el supuesto “pendant” podría lanzarse como pronto el próximo año, pero que los AirPods con cámaras están más avanzados.
Esta cartera de proyectos sugiere que Apple no ha elegido todavía una única forma para la IA ambiental. Gafas, auriculares, colgantes y relojes podrían cumplir funciones distintas. Las gafas ven mejor. Los auriculares escuchan y hablan mejor. El reloj mide el cuerpo y acompaña todo el día. El iPhone coordina potencia, pantalla y conectividad. El desafío consiste en decidir qué sensor pertenece a cada dispositivo y qué experiencia merece cada formato.
Los AirPods tienen una ventaja comercial evidente: son un producto probado. Apple no necesita convencer al usuario de llevar algo nuevo, sino de actualizar algo que ya usa. La incorporación de cámaras, si se presenta como herramienta de IA y no como simple captura visual, podría justificar una nueva categoría premium: unos AirPods Ultra o Pro avanzados, más caros y orientados a quienes quieren funciones inteligentes más allá del audio. MacRumors ya ha recogido rumores sobre unos posibles “AirPods Ultra” con cámaras infrarrojas y funciones vinculadas a Apple Intelligence.
La denominación final no está confirmada. Tampoco lo están el precio, la fecha exacta de lanzamiento o el modelo concreto dentro de la familia AirPods. Pero el hecho de que Bloomberg hable de fase avanzada de pruebas y de diseño casi cerrado indica que el proyecto ha pasado de rumor recurrente a producto plausible. En Apple, sin embargo, incluso los productos avanzados pueden cancelarse o retrasarse si no cumplen estándares internos. La compañía ya ha abandonado proyectos costosos, como su coche eléctrico, y ha ralentizado otros cuando la experiencia no estaba lista.
La privacidad será el punto más delicado. Apple ha construido su marca alrededor de la protección de datos y tendrá que explicar muy bien qué captan esas cámaras, cuándo se activan, si almacenan imágenes, si procesan localmente, qué indicadores visuales habrá y cómo se evita la vigilancia involuntaria. En unas gafas, la cámara es visible en la cara. En unos auriculares, puede ser menos obvia para terceros. Eso puede ser una ventaja estética, pero un problema social. Apple tendrá que diseñar señales claras para evitar una reacción parecida a la que sufrió Google Glass hace más de una década.
También habrá que ver si la calidad del ángulo visual basta para casos de uso convincentes. Un auricular no apunta exactamente hacia donde mira el ojo. Está en el lateral de la cabeza y puede captar una perspectiva diferente. Quizá por eso las cámaras sean infrarrojas o estén pensadas para profundidad, detección espacial o apoyo contextual, más que para imagen convencional. Si el objetivo es entender el entorno y no grabarlo, Apple puede reducir parte de la tensión social y técnica.
La conexión con Vision Pro es otra pieza relevante. AirPods ya se integran con audio espacial y experiencias inmersivas. Unos sensores adicionales podrían mejorar la comprensión del espacio, la orientación o la interacción entre dispositivos. Aunque Vision Pro sigue siendo un producto caro y de adopción limitada, Apple puede estar construyendo una familia de sensores distribuidos para experiencias espaciales futuras. Los AirPods con cámaras podrían ser tanto un wearable de IA como un componente del ecosistema espacial de Apple.
El calendario llega en un momento crítico para la compañía. Apple ha sido criticada por ir por detrás en IA generativa, especialmente tras retrasos en funciones avanzadas de Siri. Al mismo tiempo, su fortaleza histórica no ha sido lanzar primero, sino integrar tarde pero con una experiencia más pulida. Si los AirPods con cámaras funcionan, Apple podría cambiar el relato: no competir solo en chatbots, sino en dispositivos personales que hacen útil la IA en el mundo físico.
Ese enfoque encaja con la cultura de Apple. La compañía rara vez vende tecnología en abstracto. Vende experiencias: escuchar música, hacer fotos, medir salud, pagar, desbloquear, encontrar objetos, comunicarse. La pregunta para estos AirPods será qué experiencia concreta justifica la cámara. Si la respuesta es vaga —“más IA”—, el producto puede parecer innecesario. Si la respuesta es clara —“pregunta por lo que te rodea y obtén ayuda inmediata”—, puede abrir una nueva categoría.
El riesgo es que Apple llegue a un punto intermedio: un producto técnicamente sofisticado pero sin caso de uso cotidiano suficientemente fuerte. La historia reciente de los wearables de IA demuestra que el mercado no perdona la ambigüedad. El AI Pin de Humane prometió un futuro sin pantallas, pero fue criticado por lentitud, precio, calor, falta de utilidad y dependencia de casos de uso poco claros. Los usuarios no compran una visión tecnológica; compran una solución a problemas concretos.
Apple tiene una ventaja: puede apoyarse en el iPhone. No necesita que los AirPods hagan todo solos. Pueden ser sensores y micrófonos avanzados conectados a un cerebro más potente. Esa arquitectura reduce consumo, mejora procesamiento y permite mostrar información en pantalla cuando la voz no basta. El futuro de la IA personal probablemente no será un único dispositivo, sino una red de dispositivos coordinados: auriculares para escuchar y hablar, reloj para cuerpo y contexto, iPhone para pantalla y computación, gafas para visión directa.
Los AirPods con cámaras también pueden redefinir el concepto de “auricular”. Hasta ahora, la categoría ha evolucionado de audio a salud auditiva, cancelación de ruido, traducción y sensores corporales. El siguiente salto sería convertirlos en sensores ambientales. Dejarían de ser un accesorio de sonido para convertirse en un nodo perceptivo del ecosistema Apple.
La reacción del mercado dependerá de cómo Apple comunique el producto. Si lo presenta como cámaras en los oídos, generará dudas. Si lo presenta como inteligencia visual privada, accesible y contextual, puede cambiar la conversación. La diferencia será narrativa, pero también técnica: indicadores de privacidad, procesamiento local, baja latencia, integración con Siri y casos de uso demostrables.
En definitiva, los AirPods con cámaras apuntan a una de las grandes preguntas de la próxima etapa tecnológica: cómo llevar la IA del chat al mundo real. La pantalla y el teclado han sido la puerta de entrada inicial. La voz y la visión serán la siguiente frontera. Apple quiere entrar en esa frontera no desde un chatbot, sino desde un objeto que millones de personas ya llevan en los oídos.
Si el proyecto llega finalmente al mercado, no será solo una nueva versión de AirPods. Será una declaración de estrategia: Apple quiere que la IA no sea una aplicación, sino una capa perceptiva distribuida por sus dispositivos. Y el primer paso podría estar más cerca de la oreja que de los ojos.