Skip to main content

En 2025, Google no lanzó un gran producto de inteligencia artificial. Lanzó sesenta. La cifra, redonda y rotunda, funciona como resumen del año y como declaración de intenciones para integrar la IA en cada rincón de su ecosistema, desde el buscador hasta los chips que lo hacen posible. Ellos mismos han resumido lo que han lanzado entorno a la IA durante este año.

Enero y febrero: modelos en marcha, herramientas en prueba

El año empezó con una actualización discreta pero significativa. Gemini, el modelo de lenguaje central de Google, llegó a productos como Android, Google TV y el entorno educativo. También se lanzaron versiones tempranas de Code Assist, una herramienta para programadores, y funciones que proponían profesiones a partir del perfil del usuario.

En febrero, Gemini 2.0 se expandió a más regiones y dispositivos. Google comenzaba a cumplir una promesa, que su modelo estrella estuviera disponible, no solo para desarrolladores o grandes empresas, sino para usuarios cotidianos.

Marzo y abril: IA en la búsqueda y en la creación

Marzo marcó el debut de AI Mode en el buscador. No era solo una mejora visual, sino una nueva capa de interpretación que contextualiza los resultados y permite interactuar con ellos. Junto con esta función llegaron Gemini 2.5 y Gemma 3, modelos más eficientes que pueden ejecutarse en un solo chip.

En abril, el foco se desplazó a la generación audiovisual. Google presentó Veo 2, una herramienta para crear video a partir de texto, y publicó colaboraciones curiosas como el proyecto de traducción de delfines, que combina IA y bioacústica. La compañía también anunció nueva generación de TPU, los chips que alimentan su IA.

Mayo: el escaparate de I/O

En su evento anual para desarrolladores, Google mostró IA aplicada a todo: mapas, fotografías, suscripciones por email. El buscador se reformuló con resúmenes generativos y Gemini se integró en Gmail y Docs para escribir, responder y organizar. Se presentó Flow, una herramienta para crear vídeos a partir de prompts, y Google AI Ultra, una suscripción que agrupa servicios avanzados.

En paralelo, apareció Nano Banana, un modelo para generar y editar imágenes de forma rápida e integrada. Más adelante llegaría Nano Banana Pro, con mayor resolución, coherencia visual y comprensión contextual, alimentado por Gemini 3 Pro.

Junio a agosto: menos titulares, más integración

Gemini CLI, una interfaz para desarrolladores basada en comandos, marcó junio. La IA también llegó a Android 16 y al modo en vivo de búsqueda, que interpreta preguntas habladas en tiempo real. En julio, Veo 3 mejoró las capacidades de generación de vídeo con soporte para formatos verticales, mayor resolución y clips más largos. En agosto, se lanzó Gemini 3 Flash, una versión ligera y rápida que se convirtió en el modelo por defecto en la app Gemini y en el buscador.

De septiembre a diciembre: cerrar el ciclo

El último trimestre consolidó el despliegue. Gemini 3 se convirtió en el motor central de la mayoría de productos y servicios, incluyendo versiones especializadas como Pro y Flash. Google reforzó la moderación de contenido generado con IA, amplió las guías de transparencia y extendió Gemini a nuevos idiomas y regiones. En diciembre, lanzó experimentos para aprendizaje autodirigido con Gemini y recordó su objetivo de base: una IA que asista sin reemplazar.

Un ecosistema con IA en cada esquina

Más que grandes titulares, 2025 fue el año de la extensión silenciosa. Google integró IA en todos sus productos: en el buscador, que ahora interpreta contextos complejos; en Android, con funciones personalizadas; en Gmail, que resume y responde; en Fotos, que anima y sugiere. Cada lanzamiento fue un paso hacia un mismo modelo: una IA ubicua, móvil y cotidiana.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario