Skip to main content

Apple trabaja en la mayor transformación de Siri desde su estreno hace 15 años: una interfaz integrada en la Dynamic Island, una experiencia de chatbot, una app propia y nuevas funciones de búsqueda y acción capaces de competir con ChatGPT, Gemini y Claude.

Apple prepara una reconstrucción profunda de Siri que puede marcar un antes y un después en su estrategia de inteligencia artificial. Según Bloomberg, la compañía planea convertir su asistente en una pieza mucho más visible, conversacional y activa dentro de iOS 27, con integración en la Dynamic Island, una nueva interfaz tipo chatbot, una aplicación independiente de Siri y una función de búsqueda o consulta en todo el sistema. La promesa es ambiciosa: transformar un asistente de voz que durante años ha sido percibido como limitado en un agente capaz de entender contexto, mantener conversaciones y ejecutar acciones dentro del iPhone.

La filtración, firmada por Mark Gurman, llega en un momento crítico para Apple. La compañía ha sido criticada por llegar tarde a la nueva ola de IA generativa, por retrasar funciones prometidas de Apple Intelligence y por mantener a Siri lejos de la fluidez de ChatGPT, Gemini o Claude. La presión competitiva es enorme: OpenAI ha convertido ChatGPT en un asistente multimodal cada vez más integrado; Google empuja Gemini dentro de Android; Microsoft ha situado Copilot en Windows y Office; y Anthropic ha hecho de Claude una herramienta de trabajo sofisticada. Apple necesita demostrar que Siri puede dejar de ser un comando de voz rígido para convertirse en una interfaz inteligente real.

La novedad más visible será la integración con la Dynamic Island. Siri pasaría a vivir de forma más natural en esa zona superior del iPhone, que Apple introdujo para convertir el recorte de cámara y sensores en un espacio interactivo. La idea tiene sentido: en lugar de aparecer como una esfera flotante o una animación aislada, Siri podría convertirse en una presencia persistente y contextual, capaz de mostrar respuestas, escuchar, sugerir acciones o mantenerse activa sin invadir toda la pantalla. MacRumors recoge que Siri “vivirá en gran medida” en la Dynamic Island en iOS 27, aunque también contará por primera vez con una app dedicada.

Ese cambio de ubicación no es solo estético. La Dynamic Island puede convertirse en el lugar natural para un asistente que acompaña la actividad del usuario sin interrumpirla. Una llamada, una ruta, una canción o un temporizador ya pueden ocupar ese espacio. Si Siri se integra allí, Apple puede transformar el asistente en una capa más ambiental: menos “abrir Siri” y más “Siri está disponible mientras hago otra cosa”. Es una forma de acercarse a la IA contextual sin copiar exactamente la interfaz de chat dominante.

El segundo gran cambio será la experiencia de chatbot. Bloomberg señala que Apple está rediseñando Siri para mantener conversaciones de ida y vuelta con una interfaz más parecida a ChatGPT, Gemini o Claude. Esto es crucial porque Siri nació en 2011 como asistente de voz, no como interlocutor conversacional. Durante años funcionó razonablemente bien para tareas breves —poner alarmas, consultar el tiempo, llamar a alguien, activar ajustes—, pero quedó muy por detrás cuando los usuarios empezaron a esperar diálogo, memoria, razonamiento y respuestas largas. Bloomberg Línea resume el cambio así: Siri dejaría de ser solo un asistente de voz para convertirse en un agente siempre activo capaz de acceder a datos personales y realizar acciones en todas las aplicaciones.

La interfaz de chatbot resolvería una carencia histórica. La voz es útil para tareas rápidas, pero no siempre es adecuada para conversaciones largas, revisión de información, comparación de resultados o trabajo con texto. Un Siri con modo chat permitiría mantener hilos, revisar respuestas anteriores, corregir instrucciones y combinar texto con voz. Esto acercaría el asistente de Apple a los hábitos que los usuarios ya han adquirido con ChatGPT: preguntar, repreguntar, matizar, pedir versiones alternativas y continuar una conversación.

El tercer elemento es una app independiente de Siri. Según Bloomberg y las coberturas posteriores, Apple prueba una aplicación propia que permitiría acceder al asistente como si fuera un chatbot completo, consultar conversaciones anteriores y usarlo fuera del gesto tradicional de invocación. Esta idea ya había aparecido en filtraciones previas de marzo, cuando Bloomberg informó de que Apple estaba probando una app independiente de Siri y una función “Ask Siri” integrada en el software de la compañía.

La existencia de una app dedicada sería un giro simbólico. Durante años, Siri fue invisible como producto: estaba en el botón lateral, en el comando “Oye Siri” o en pequeñas respuestas del sistema. ChatGPT, en cambio, ganó fuerza como destino: una aplicación a la que el usuario acude para pensar, escribir, preguntar o resolver. Apple parece dispuesta a aceptar que el asistente también necesita un espacio propio. No basta con estar integrado en todas partes; también debe ser accesible como herramienta central.

El cuarto cambio es la búsqueda en todo el sistema. 9to5Mac informa de que iOS 27 incluiría un nuevo gesto para invocar una función “Search or Ask”, con una barra de búsqueda desde la que el usuario podría alternar entre Siri y servicios de terceros como ChatGPT o Gemini. El diseño permitiría buscar archivos, contenidos, respuestas o acciones desde una única entrada, con opción de activar la voz mediante un icono de micrófono.

Este punto puede ser uno de los más importantes. La búsqueda del sistema operativo ha sido durante años una función relativamente mecánica: encontrar apps, contactos, correos, ajustes o documentos. La IA puede convertirla en algo más parecido a una capa de intención. El usuario no solo busca “calendario”; puede pedir “encuentra el correo donde me confirmaron la reunión y añade la dirección al evento”. No solo busca una foto; puede preguntar “muéstrame las imágenes del viaje donde aparece el cartel del restaurante”. No solo busca una app; puede pedir una acción combinada entre varias.

Si Apple consigue que Siri entienda contexto personal y actúe entre aplicaciones, la diferencia con la Siri actual sería enorme. La promesa original de Apple Intelligence ya apuntaba a eso: un asistente capaz de conocer datos personales, entender lo que aparece en pantalla y ejecutar tareas en apps. El problema fue que muchas de esas funciones se retrasaron, generando frustración y dudas sobre la capacidad de Apple para competir en IA generativa. Reuters informó en enero de que Apple trabajaba en una Siri renovada como chatbot integrado, bajo el nombre interno “Campos”, apoyada en una versión personalizada de tecnología de Google comparable a Gemini, aunque Apple no confirmó públicamente esos detalles.

El retraso de Siri no ha sido un asunto menor. Apple llegó a aceptar un acuerdo de 250 millones de dólares en una demanda colectiva en Estados Unidos por funciones de IA prometidas que no llegaron en los plazos esperados, según informó TechRadar. La controversia afectó especialmente a compradores de iPhone compatibles con Apple Intelligence que consideraron que la compañía había publicitado capacidades no disponibles en el lanzamiento.

Ese contexto explica por qué el rediseño de Siri es más que una actualización estética. Apple necesita reconstruir confianza. Durante años, la compañía se benefició de una reputación de integración impecable: quizá no lanzaba primero, pero cuando llegaba, lo hacía con una experiencia pulida. En IA, esa narrativa se ha debilitado. Siri fue pionera en asistentes móviles, pero quedó rezagada frente a modelos conversacionales. Ahora Apple intenta recuperar terreno no solo con más inteligencia, sino con una interfaz que haga visible ese cambio.

La integración con modelos de terceros añade otra capa. Apple ya abrió la puerta a ChatGPT dentro de Apple Intelligence y las filtraciones apuntan a una Siri capaz de alternar o conectarse con servicios como ChatGPT o Gemini. Esto supone un giro pragmático: Apple reconoce que no puede depender únicamente de sus modelos internos si quiere ofrecer respuestas competitivas en todas las áreas. Pero también plantea una tensión estratégica: ¿hasta qué punto Siri será realmente de Apple si una parte de su inteligencia depende de proveedores externos?

La respuesta probablemente será híbrida. Apple intentará mantener en su terreno lo que mejor sabe hacer: privacidad, datos personales, acciones dentro del dispositivo, integración entre apps y experiencia de usuario. Para conocimiento general, razonamiento amplio o respuestas complejas, puede apoyarse en modelos externos. Esa arquitectura permitiría a Apple preservar su narrativa de privacidad mientras evita quedarse atrás en capacidades. Pero exigirá transparencia: el usuario debe saber cuándo responde Siri, cuándo entra ChatGPT, cuándo se consulta Gemini y qué datos se comparten.

El diseño también será decisivo. TechRadar resume las filtraciones como una Siri 2.0 con integración en Dynamic Island, nueva interfaz de chat, búsqueda en el sistema y funciones de imagen mejoradas. El objetivo no es solo que Siri responda mejor, sino que se sienta más moderna. La interfaz actual de Siri arrastra una carga simbólica: representa la etapa anterior de los asistentes, basada en comandos breves y respuestas limitadas. Una experiencia de chat puede cambiar esa percepción.

La transformación de Siri también puede afectar al ecosistema de aplicaciones. Si el asistente puede ejecutar acciones dentro de apps, los desarrolladores tendrán que adaptar funciones, permisos y flujos. Esto puede abrir una nueva etapa para App Intents, los mecanismos de Apple que permiten exponer acciones de apps al sistema. En lugar de abrir manualmente una aplicación, el usuario podría pedir a Siri que modifique una reserva, compare un documento, envíe un archivo, organice fotos o complete una tarea. La app seguiría siendo importante, pero el asistente se convertiría en una capa de acceso transversal.

Ese modelo puede cambiar la economía de la atención en iOS. Hasta ahora, las aplicaciones compiten por iconos, notificaciones y tiempo de pantalla. Si Siri se convierte en intermediario, algunas interacciones podrían ocurrir sin abrir la app. Esto beneficia al usuario si reduce fricción, pero puede preocupar a desarrolladores que dependen de la interfaz propia para mostrar valor, marca o monetización. Apple tendrá que equilibrar automatización y ecosistema.

La cámara también aparece en el informe de Bloomberg como parte de iOS 27, con una app completamente personalizable y un nuevo modo Siri vinculado a inteligencia visual. The Verge recogió que la app Cámara podría permitir reorganizar controles mediante widgets y añadir una experiencia “Siri” apoyada en funciones visuales. Esto conecta con la evolución de Siri hacia una IA multimodal: no solo escuchar y leer, sino también entender imágenes, objetos y contexto visual.

La inteligencia visual puede ser una de las claves del futuro de Siri. Un asistente moderno no puede limitarse al texto y la voz. Debe poder interpretar lo que aparece en pantalla, lo que capta la cámara, lo que hay en una foto o lo que contiene un documento. Apple ya ha introducido funciones de Visual Intelligence, pero una Siri reconstruida podría integrarlas mejor: preguntar por un objeto, traducir un cartel, identificar una planta, extraer información de una imagen o actuar sobre una captura de pantalla.

La llegada de AirPods con cámaras, también filtrada por Bloomberg, encaja en esta estrategia más amplia. Si Apple trabaja en wearables capaces de captar contexto visual, Siri necesitará ser el cerebro que interprete ese contexto. La reconstrucción del asistente no es solo una cuestión de iPhone; puede ser la base de una nueva generación de dispositivos de IA ambiental. Un Siri realmente competente sería clave para AirPods inteligentes, Apple Watch, Vision Pro, futuras gafas y dispositivos domésticos.

Pero el desafío técnico es enorme. Para que Siri actúe como agente necesita varias capacidades simultáneas: comprensión del lenguaje natural, acceso seguro a datos personales, memoria contextual, ejecución de acciones, razonamiento sobre pasos múltiples, integración con apps, control de permisos y recuperación ante errores. Un chatbot puede equivocarse en una respuesta; un agente que actúa en el sistema puede borrar algo, enviar un mensaje equivocado o modificar una reserva. La exigencia de fiabilidad es mucho mayor.

Por eso Apple probablemente avanzará con cautela. La compañía no puede permitirse una Siri que actúe de forma imprevisible. Su base de usuarios es masiva, heterogénea y poco tolerante a fallos graves en funciones del sistema. Una cosa es que una app externa dé una mala respuesta; otra muy distinta es que el asistente integrado del iPhone ejecute mal una acción personal. Apple tendrá que diseñar confirmaciones, permisos granulares, historial de acciones y mecanismos de deshacer.

La privacidad será otro eje central. Un Siri más inteligente necesita contexto: correos, mensajes, calendario, fotos, archivos, ubicación, pantalla, hábitos. Apple intentará procesar tanto como sea posible en el dispositivo o en su infraestructura privada de computación, pero la integración con modelos externos puede complicar el relato. El usuario deberá confiar en que la comodidad no implica vigilancia. En IA personal, la confianza será tan importante como la potencia.

El rediseño de Siri también llega en un momento de transición generacional en el uso de interfaces. Los usuarios más jóvenes se han acostumbrado a conversar con chatbots, generar contenido con IA y pedir respuestas complejas de forma natural. Para ellos, Siri puede parecer una reliquia si no cambia. Los usuarios menos técnicos, en cambio, pueden valorar la simplicidad de voz y acciones directas. Apple debe construir una Siri capaz de servir a ambos grupos: chatbot avanzado para quien lo quiera, asistente discreto para quien solo necesite tareas rápidas.

La Dynamic Island puede ayudar a resolver esa dualidad. Permite una presencia ligera para acciones breves y, al mismo tiempo, puede abrir una interfaz más completa cuando el usuario necesita conversación. La app de Siri serviría para sesiones largas. La búsqueda del sistema para consultas contextuales. El botón lateral o la voz para comandos rápidos. En lugar de una sola entrada, Apple podría convertir Siri en una red de interfaces adaptadas a cada situación.

El mayor riesgo es que el rediseño prometa más de lo que entrega. Apple ya sufrió el coste de anunciar capacidades de Siri que tardaron en llegar. Si iOS 27 vuelve a presentar una gran reconstrucción sin funciones sólidas desde el primer día, el golpe reputacional puede ser fuerte. Por eso será importante distinguir entre lo que se muestre en WWDC, lo que llegue en la primera versión de iOS 27 y lo que quede escalonado para actualizaciones posteriores.

La fecha será relevante. Google I/O y WWDC de 2026 llegan en un contexto donde la IA ha pasado de novedad a infraestructura. Los usuarios ya no se impresionan solo por ver un chatbot. Quieren utilidad real: escribir mejor, encontrar cosas, hacer trámites, organizar su vida, comprender información y ahorrar tiempo. Siri tendrá que demostrar que no es un envoltorio bonito para respuestas mediocres, sino un agente que funciona dentro del ecosistema Apple con precisión.

La oportunidad, sin embargo, es enorme. Apple tiene una ventaja que OpenAI, Anthropic o incluso Google no poseen de la misma forma: controla el dispositivo, el sistema operativo, muchas apps, chips, seguridad biométrica, sensores y ecosistema. Si Siri se reconstruye bien, puede hacer cosas que un chatbot externo no puede hacer fácilmente: entender datos personales protegidos, actuar entre apps, respetar permisos del sistema, integrarse con hardware y ofrecer una experiencia continua entre iPhone, Mac, iPad, Watch, AirPods y Vision Pro.

La pregunta es si Apple conseguirá convertir esa ventaja estructural en producto. Hasta ahora, la compañía ha tenido las piezas, pero no la ejecución. Siri fue pionera, pero no lideró la segunda ola. Apple Intelligence prometió mucho, pero avanzó con lentitud. iOS 27 puede ser el intento de corregir ese desfase. La reconstrucción del asistente no será solo un rediseño; será una prueba de credibilidad.

En el fondo, el futuro de Siri decidirá si Apple puede seguir definiendo la interfaz personal de la tecnología. Durante años, el iPhone fue el centro de la vida digital porque concentró pantalla táctil, apps, cámara, sensores y servicios. La IA amenaza con cambiar ese centro: la interacción puede desplazarse hacia agentes que entienden intención y ejecutan tareas. Si Apple no controla esa capa, corre el riesgo de que el iPhone siga siendo hardware excelente, pero con una inteligencia prestada por otros.

El nuevo Siri es la respuesta a ese riesgo. Integrado en la Dynamic Island, con app propia, interfaz de chatbot, búsqueda sistémica y posible conexión con modelos externos, representa la mayor apuesta de Apple por recuperar protagonismo en IA conversacional. Todavía falta ver si las filtraciones se confirman, cómo se implementan y qué funciones llegan realmente a los usuarios. Pero la dirección es clara: Siri ya no puede ser solo una voz. Tiene que convertirse en el sistema nervioso inteligente del iPhone.

Dejar un comentario