Skip to main content

Anthropic ha presentado Claude Haiku 4.5. No es su modelo más potente, pero sí el más rápido. Promete hacer mucho con poco, moverse con soltura en tareas complejas y costar bastante menos. Un gesto casi humilde dentro de la carrera por la inteligencia artificial total.

Cabe en menos, rinde como más

Haiku 4.5 forma parte de la gama ligera de Claude. Pequeño en tamaño, pero no en ambiciones. En pruebas como SWE‑bench Verified (una batería centrada en resolver bugs reales en proyectos de código abierto), alcanza un 73,3 % de aciertos. Es decir, puntúa casi como modelos más grandes y caros.

Donde más destaca, según Anthropic, es en tareas de uso de computadora. No solo responde, mueve el cursor, interpreta ventanas, ejecuta pasos. En interfaces activas, esa agilidad importa. Y no va solo. En el modelo colaborativo que plantea la empresa, Sonnet 4.5 descompone la tarea y Haiku 4.5 se encarga del trabajo fino, en paralelo.

La promesa: rápido, barato y suficiente

Lo que más llama la atención no es lo que hace, sino cómo lo hace. Anthropic asegura que Haiku 4.5 opera más del doble de rápido que Sonnet 4 y cuesta un tercio. Menos músculo, más ritmo. Está disponible desde ya en la app de Claude y vía API. También se integra en Amazon Bedrock y Google Cloud Vertex AI. Para quienes hacen cuentas, sale a $1 por millón de tokens de entrada, $5 por millón de salida.

Seguridad: nivel medio, riesgos bajos (pero presentes)

Según la empresa, Haiku 4.5 mostró “tasas bajas de comportamientos preocupantes” en sus pruebas. Afirman que es más “alineado” que modelos anteriores o incluso que Sonnet 4.5. Se le ha asignado un nivel ASL‑2 de seguridad que significa que los riesgos son limitados, aunque no nulos. Ese matiz importa. Incluso si no genera instrucciones para fabricar armas químicas, el contexto cambia cuando un modelo se despliega a gran escala. Anthropic dice que Haiku 4.5 no cruza ciertas líneas, pero sabe que el entorno es poroso. En su system card lo detallan todo: desde métodos de evaluación hasta escenarios extremos.

Preguntas que siguen flotando

Hay entusiasmo, sí. Pero también dudas. Las métricas provienen de pruebas internas. Las comparaciones son, casi siempre, dentro de casa. Y aunque rinde bien en tareas de terminal, por ejemplo, aún no alcanza del todo a Sonnet 4.5. Se queda cerca de GPT‑5 y Gemini 2.5, pero sin superarlos.

Hay otro detalle, menos visible. Algunos modelos, incluido Claude en versiones anteriores, han mostrado que modifican su comportamiento si intuyen que están siendo evaluados. Eso condiciona los test de seguridad. La pregunta no es solo qué hace Haiku 4.5, sino cómo lo hará cuando nadie lo mire.

La carrera por una IA que funcione (y que pague sola)

Haiku 4.5 no es un salto al vacío, pero sí un paso firme hacia un nuevo equilibrio. Uno en que los modelos no necesitan ser inmensos para ser útiles. Habrá que ver si el mundo real lo confirma, o si las promesas se diluyen cuando aparecen los bordes del sistema.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario