La novedad no es solo que los bots respondan más deprisa: es que Telegram ha abierto a todos los chatbots una interacción progresiva, más parecida a ChatGPT, que puede alterar cómo se diseñan asistentes, agentes y servicios conversacionales dentro de la plataforma.
Telegram ha activado una mejora que, a primera vista, puede parecer menor y casi cosmética, pero que en realidad tiene bastante más profundidad de producto de la que su anuncio sugiere. Pavel Durov resumió la novedad en una frase muy simple: “All Telegram chatbots can now stream responses to users in real time — great for AI assistants”. Es decir, todos los chatbots de Telegram ya pueden mostrar sus respuestas de forma progresiva mientras se generan, en lugar de obligar al usuario a esperar a que llegue el mensaje completo de una sola vez. Detrás de esa frase hay un cambio importante en la experiencia de uso de los bots y, sobre todo, una señal clara de hacia dónde quiere llevar Telegram su ecosistema conversacional.
La clave técnica está en la evolución reciente de la Bot API. El changelog oficial de Telegram muestra que el método sendMessageDraft, que permite enviar mensajes parciales mientras se generan, apareció en Bot API 9.3 el 31 de diciembre de 2025, descrito expresamente como un mecanismo para que los bots puedan “stream partial messages to a user while being generated”. Dos meses después, en Bot API 9.5, fechada el 1 de marzo de 2026, Telegram amplió esa capacidad y “allowed all bots to use the method sendMessageDraft”. En otras palabras, lo que inicialmente era una capacidad introducida en el ecosistema bot ha pasado ahora a estar disponible de forma general para todos los bots, y esa generalización es la que Durov ha querido subrayar públicamente.
Conviene recordar que Telegram ya había dado una pista de esta dirección meses antes. En su blog oficial del 10 de octubre de 2025, al presentar nuevas funciones para bots, la compañía ya explicaba que, en vez de esperar respuestas completas, los chatbots podían empezar a mostrar el texto “as they’re generated”, una característica pensada de forma explícita para bots de IA y grandes modelos de lenguaje. Aquella formulación sugería una fase más acotada o especialmente orientada a bots de IA; el cambio de marzo de 2026 apunta a una apertura más amplia, con una capacidad que ahora se presenta como disponible para “all chatbots”. Esa transición es relevante porque indica que Telegram no ve el streaming como una función experimental de nicho, sino como una pieza estructural de su interfaz conversacional.
¿Por qué importa tanto algo que, en apariencia, solo cambia la forma en que aparece el texto en pantalla? Porque en la economía actual de la IA conversacional la percepción de inmediatez es parte del producto. Un asistente que escribe mientras “piensa” no solo parece más rápido: reduce la fricción psicológica de la espera, transmite actividad, permite al usuario anticipar por dónde va la respuesta y aproxima la interacción al estándar que han fijado ChatGPT, Claude o Gemini. El retraso silencioso —ese tiempo muerto en el que el usuario ve un indicador de escritura o nada en absoluto— se ha convertido en uno de los grandes defectos de los bots tradicionales cuando se conectan a modelos de lenguaje. Telegram acaba de eliminar buena parte de esa desventaja de interfaz.
Eso tiene consecuencias directas para los desarrolladores de asistentes de IA. Hasta ahora, muchos bots de Telegram basados en LLM debían esperar a tener una respuesta completa para enviarla, o recurrir a estrategias menos elegantes, como mandar un texto provisional y editarlo varias veces. El soporte oficial de sendMessageDraft cambia ese patrón, porque incorpora de manera nativa la posibilidad de mostrar mensajes parciales durante la generación. Para un bot de preguntas y respuestas, un tutor, un asistente de soporte o un copiloto de productividad, eso significa una experiencia mucho más natural. El usuario deja de sentir que ha lanzado una petición a una caja negra y empieza a ver, en tiempo real, que el sistema está trabajando.
Pero sería un error reducir el cambio a una mejora estética. En realidad, el streaming modifica la lógica de diseño de los propios bots. Cuando una respuesta se muestra progresivamente, el desarrollador puede estructurar la salida de otra forma: adelantar primero la idea principal, luego los matices, después los detalles; dividir una tarea en pasos visibles; confirmar antes de terminar una acción larga; o convertir la generación en una interacción más guiada. Eso es particularmente valioso en bots de IA porque los modelos generativos funcionan mejor, desde el punto de vista de la percepción del usuario, cuando parecen colaborar en tiempo real en vez de entregar un bloque monolítico al final. Telegram, con este movimiento, acerca su capa bot a esa gramática conversacional moderna.
La frase de Durov sobre que esto es “great for AI assistants” no es casual. Telegram lleva tiempo construyendo un entorno cada vez más favorable para bots avanzados, Mini Apps, monetización y automatización de servicios. El propio changelog de la Bot API muestra en los últimos dieciocho meses una sucesión de capacidades orientadas a hacer de los bots algo más que respuestas automáticas simples: suscripciones pagadas con Stars, gestión de cuentas business, integración con historias, listas de tareas, mensajes directos en canales, temas en chats privados, herramientas para perfiles y más. El streaming en tiempo real encaja en esa misma estrategia: si Telegram quiere que su plataforma aloje asistentes realmente útiles, necesitaba darles una interfaz de salida más fluida.
En este punto aparece una lectura de negocio más amplia. La batalla de la IA conversacional ya no se libra solo en el modelo, sino también en la superficie de distribución. Tener un buen modelo importa, pero también importa dónde vive ese modelo, cómo se entrega al usuario y qué coste de fricción tiene cada interacción. Telegram cuenta con una ventaja nada menor: es una aplicación de mensajería ya instalada en el hábito cotidiano de cientos de millones de personas, con una cultura de bots antigua y madura. Al permitir ahora que cualquier chatbot transmita sus respuestas en streaming, reduce la distancia entre una app de mensajería y una interfaz nativa de IA. No convierte Telegram en ChatGPT, claro, pero sí acorta bastante ese camino funcional.
También hay que mirar este movimiento desde la perspectiva de los agentes. Un bot que responde en tiempo real no solo mejora la UX de un asistente de consulta. También facilita el diseño de agentes conversacionales que ejecutan procesos largos o de varios pasos: reservar algo, consultar datos, sintetizar documentos, revisar código, generar contenido, guiar una compra o resolver incidencias. En todos esos casos, poder mostrar avance parcial cambia la relación con el usuario. Ya no hay que esperar al final para entender si el bot está bloqueado, va por buen camino o ha entendido la tarea. En productos complejos, esa visibilidad parcial reduce ansiedad, mejora confianza y puede incluso disminuir abandonos de sesión.
Otra derivada importante es la competitividad del ecosistema bot de Telegram frente a otras plataformas de mensajería y trabajo. Slack y Discord han ganado terreno como espacios para bots y agentes en entornos más técnicos o profesionales. WhatsApp, por su parte, sigue siendo fortísimo en volumen, pero más limitado en apertura y cultura desarrolladora. Telegram juega una partida distinta: quiere ser una plataforma conversacional programable, con bots, canales, Mini Apps, pagos, suscripciones y ahora una experiencia más afinada para IA. La habilitación general del streaming refuerza justamente ese posicionamiento. No es una función aislada; es una mejora de infraestructura que hace más atractiva la plataforma para construir asistentes con aspiraciones serias.
Hay, además, un elemento de estandarización de expectativas. Desde que los grandes asistentes populares acostumbraron al usuario a ver respuestas que se despliegan gradualmente, la ausencia de esa función empieza a percibirse como una carencia. El usuario interpreta el flujo en tiempo real como una señal de inteligencia activa, aunque técnicamente pueda ser simplemente una forma distinta de entregar la misma respuesta. Esto tiene un valor psicológico enorme. Telegram lo entiende y, en vez de dejar esa experiencia solo para unos pocos bots o para soluciones improvisadas, la lleva a la Bot API oficial. En términos de producto, eso significa que el estándar visual y conversacional de la IA pasa a formar parte del lenguaje nativo de Telegram.
Sin embargo, la novedad también abre preguntas prácticas. El streaming en tiempo real mejora la sensación de inmediatez, sí, pero obliga a los desarrolladores a pensar con más cuidado la salida parcial del modelo. Un bot que empiece a mostrar texto antes de haber estabilizado bien su respuesta puede exponer correcciones, titubeos o estructuras mal planteadas. En otros términos: hacer streaming no es solo activar una función, sino rediseñar el modo de redactar, resumir y secuenciar la información. Para asistentes de IA esto es especialmente delicado, porque un modelo puede empezar por una línea que luego matizaría o incluso corregiría. La ventaja de experiencia viene acompañada de una exigencia mayor en diseño conversacional. Esta conclusión es una inferencia razonable a partir del soporte técnico oficial y del tipo de producto al que Durov alude, no una advertencia formulada por Telegram en esos términos.
La cuestión monetaria tampoco es menor. Telegram lleva meses ampliando las capacidades comerciales de los bots, desde suscripciones con Stars hasta gestión de cuentas business y herramientas para mensajes directos o contenidos premium. En ese contexto, el streaming puede ser un multiplicador del valor percibido de bots de pago, asistentes especializados o servicios con capas premium. Un usuario está más dispuesto a considerar “inteligente” y útil un bot que responde de forma progresiva, acompaña el proceso y da sensación de presencia. La economía del software conversacional depende mucho de esa impresión de calidad. Telegram, al mejorar la capa de interacción, mejora indirectamente la capacidad de monetización de muchos desarrolladores y negocios dentro de su ecosistema.
También hay una lectura cultural. Telegram fue durante años un refugio para bots funcionales, automatizaciones, canales y comunidades técnicas, pero no siempre había logrado traducir esa potencia en experiencias lo bastante pulidas para el gran público. El streaming en tiempo real es una de esas mejoras que acercan la potencia técnica al usuario común sin obligarle a entender nada del stack. No necesita saber qué es sendMessageDraft; simplemente nota que el bot responde de una forma más viva, menos tosca y más parecida a los asistentes líderes del momento. En productos de masas, esa clase de refinamiento suele marcar diferencias más grandes de lo que parece desde fuera.
Todo esto ayuda a entender por qué el mensaje de Durov, tan breve, es más importante de lo que aparenta. No está anunciando un modelo nuevo, ni una alianza espectacular, ni un salto de capacidades cognitivas. Está anunciando algo más humilde y, quizá por eso, más significativo: una mejora de la interfaz bot que puede cambiar la forma en que se sienten y se diseñan miles de asistentes dentro de Telegram. El software conversacional no avanza solo con más inteligencia; avanza también con mejores ritmos de interacción, mejores señales de actividad y menos tiempo muerto entre intención y respuesta. En ese sentido, el streaming en tiempo real para todos los chatbots no es una simple comodidad. Es una pieza de infraestructura conversacional.
La implicación estratégica es clara. Si Telegram sigue afinando la experiencia de los bots mientras amplía monetización, herramientas de negocio y capacidades de integración, su plataforma puede consolidarse como uno de los entornos más fértiles para desplegar asistentes de IA fuera de las aplicaciones propietarias de los grandes laboratorios. En vez de obligar al usuario a instalar una app específica de IA, el asistente puede vivir donde ya conversa, compra, sigue canales y participa en comunidades. Ese es un cambio importante de distribución. Y la distribución, en esta etapa del mercado, vale casi tanto como el propio modelo.
Visto así, el anuncio de Durov funciona como síntoma de una tendencia mayor: la IA ya no solo se está integrando en aplicaciones, sino en infraestructuras de comunicación cotidianas. Cuando una plataforma de mensajería convierte el streaming de respuestas en una capacidad general para todos sus chatbots, está diciendo algo muy concreto sobre el futuro inmediato: que espera más asistentes, más agentes y más software conversacional dentro de su red. Telegram no ha presentado una gran narrativa sobre ello. Ha hecho algo más efectivo: ha puesto una pieza técnica en su sitio. Y a veces los giros más importantes del producto empiezan exactamente así.