La startup china DeepSeek, con sede en Hangzhou, ha dado un nuevo paso en su carrera por liderar el desarrollo de modelos de lenguaje al presentar su nueva versión experimental: DeepSeek-V3.2-Exp. Esta iteración, calificada por la empresa como una «etapa intermedia» hacia su arquitectura de próxima generación, incorpora mejoras clave que apuntan a reducir los costos computacionales y aumentar la eficiencia, especialmente en el procesamiento de secuencias de texto largas.
A través de una publicación en la plataforma Hugging Face, DeepSeek destacó la introducción de una técnica llamada Sparse Attention, que busca optimizar el uso de recursos al disminuir la densidad de los cálculos requeridos sin sacrificar precisión en las tareas del modelo. Esta innovación, según la compañía, permite una ejecución más económica y, en algunos casos, un rendimiento superior frente a sus versiones anteriores.
El lanzamiento ocurre tras el impacto generado por modelos previos como DeepSeek V3 y R1, que sorprendieron al ecosistema tecnológico más allá de China, incluida Silicon Valley. Aquellos modelos demostraron que una startup asiática podía competir directamente con gigantes como OpenAI y Anthropic, a menudo con presupuestos mucho más ajustados. Aunque esta nueva versión no pretende revolucionar el mercado como lo hicieron sus predecesores, sí refuerza la estrategia de DeepSeek de mantenerse en la vanguardia tecnológica mientras reduce barreras de entrada mediante precios más bajos: la empresa anunció en X (antes Twitter) una reducción de más del 50% en sus precios de API.
Este movimiento también parece estar dirigido a tensar la competencia dentro del ecosistema chino de IA, donde otros actores relevantes como Alibaba y su modelo Qwen buscan consolidar su posición. De replicar el éxito de V3 y R1, DeepSeek podría consolidar su presencia internacional y acelerar la adopción de su infraestructura por parte de desarrolladores externos.
El ritmo de innovación en DeepSeek refleja una estrategia de iteración rápida, con lanzamientos consecutivos que prueban nuevas capacidades antes de consolidarlas en una arquitectura más robusta. La compañía aún no ha detallado cuándo llegará esta «próxima generación», pero con el despliegue de V3.2-Exp, prepara el terreno técnico y comercial para un lanzamiento más ambicioso en 2026.
En un contexto geopolítico donde la inteligencia artificial es tanto una herramienta de innovación como un activo estratégico, el progreso de DeepSeek refuerza el posicionamiento de China como potencia tecnológica. Si logra mantener su ventaja en costos y rendimiento, podría no solo influir en el mercado de LLMs, sino también reconfigurar las dinámicas de poder entre desarrolladores de IA a nivel global.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.