En un rincón del CES, la feria tecnológica de Las Vegas, donde cada año se repite la promesa de máquinas más potentes y ligeras, una startup ha presentado un dispositivo que parece más conjuro que computador. Tiiny AI, una empresa estadounidense enfocada en hardware para inteligencia artificial, ha revelado su Pocket Lab, un mini‑PC del tamaño de un banco de energía que, según sus creadores, puede ejecutar modelos de lenguaje artificial de hasta 120 mil millones de parámetros sin depender de la nube.
Un mini‑PC, ¿o una supercomputadora portátil?
El Pocket Lab no parece un ordenador tradicional. Con unas dimensiones de apenas 14,2 x 8 x 2,53 centímetros y un peso cercano a los 300 gramos, el dispositivo cabe en la palma de la mano. Su diseño recuerda al de un disco duro externo o a una batería portátil más que al de una torre o una laptop.
En su interior late un procesador ARM basado en la arquitectura ARMv9.2 de 12 núcleos, acompañado de una unidad de procesamiento neuronal (NPU) y una configuración de memoria y almacenamiento fuera de lo común para un equipo tan compacto: 80 GB de memoria LPDDR5X y un SSD de 1 TB.
Este conjunto, según la empresa, es capaz de entregar alrededor de 190 TOPS de potencia de cálculo para tareas de IA —un término que mide cuántas operaciones puede ejecutar el hardware por segundo cuando está procesando redes neuronales— y opera con un consumo energético relativamente contenido, rondando 65 W en uso típico.
¿Qué significa ejecutar IA “local”?
Tradicionalmente, grandes modelos de lenguaje, como los que impulsan asistentes virtuales y sistemas de generación de texto, se ejecutan en centros de datos equipados con GPUs especializadas. Estos equipos están interconectados por internet con el dispositivo del usuario, que actúa solo como terminal.
El Pocket Lab rompe con esa idea, permite que el procesamiento se realice completamente en el propio dispositivo, sin enviar solicitudes a servidores externos. Eso implica que toda la información que se utilice para generar respuestas, analizar documentos o realizar predicciones queda almacenada y procesada localmente. En teoría, esto reduce la latencia y minimiza la necesidad de intercambiar datos sensibles con servicios remotos.
El tamaño del modelo importa… y también cómo se ejecuta
Tiiny AI ha diseñado su sistema para que pueda manejar modelos desde decenas hasta 120 mil millones de parámetros, una escala que suele asociarse con infraestructuras de servidor. Para lograrlo, la compañía ha incorporado software y técnicas específicas que optimizan cómo se distribuyen las tareas de inferencia entre la CPU y la NPU. Entre ellas destacan TurboSparse, que gestiona la activación de neuronas para hacer más eficiente el cálculo, y PowerInfer, un motor de inferencia de código abierto que reparte dinámicamente las cargas de trabajo.
Además, el sistema soporta la instalación con un solo clic de modelos de código abierto populares, como GPT‑OSS, Llama, Qwen, DeepSeek, Mistral y Phi, junto con frameworks de agentes de IA.
Privacidad y autonomía frente a la nube
Una de las narrativas que rodea al Pocket Lab tiene que ver con la dependencia de la nube. En los últimos años, muchos servicios de IA se han desarrollado como plataformas basadas en servidores remotos, lo que plantea preocupaciones sobre privacidad, control de datos y consumo energético.
Al operar sin conexión a internet y con almacenamiento cifrado localmente, el Pocket Lab propone dar al usuario un control más directo sobre su información y resultados. Esta independencia también está alineada con tendencias emergentes en el sector de la computación perimetral o edge computing, donde se prefiere procesar cerca del punto de uso final.
¿Un verdadero mini‑centro de datos en tu mano?
Oficialmente, la Guinness World Records ha reconocido al Pocket Lab como el «mini‑PC más pequeño capaz de ejecutar localmente un LLM de 100 mil millones de parámetros», lo que subraya el carácter diferencial del equipo dentro del ecosistema tecnológico.
Sin embargo, aunque las especificaciones y las promesas son espectaculares, aún no existe un amplio consenso independiente sobre cómo se desempeñará este hardware en escenarios reales, especialmente frente a sistemas tradicionales de CPUs y GPUs consumiendo cientos o miles de vatios en centros de datos.
Una nueva era de IA portátil
Con la presentación del Pocket Lab, Tiiny AI pone sobre la mesa un dispositivo que desafía la idea de que la inteligencia artificial “grande” solo puede correr en servidores remotos. Su apuesta es llevar la capacidad de modelos complejos a un aparato portátil, eficiente energéticamente y centrado en la privacidad del usuario. Queda por verse cómo evolucionará este enfoque y si dispositivos similares llegarán a un público más amplio cuando el CES 2026 abra sus puertas y las primeras unidades comiencen a circular.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.