Skip to main content

Claude Code era el compañero perfecto para quienes programan de sol a sol. Nunca se cansaba, siempre respondía, y por 200 dólares al mes podías tenerlo a tu lado las 24 horas. Pero en algún momento se pasó de listo. O sus usuarios lo hicieron. Anthropic ha decidido limitarlo, porque había quien exprimía tanto a la IA que el coste se iba a las nubes.

Código a cualquier hora

El plan Max de Anthropic ofrecía más velocidad, más capacidad, más IA por un precio plano. Claude Code, la herramienta estrella, escribía, revisaba y depuraba código con una facilidad que rozaba lo inquietante. En abril, la empresa lanzó dos niveles de suscripción: 100 y 200 dólares al mes. El segundo era para quienes no querían límites. O eso creían.

Hasta que apareció el cartel

Primero fueron mensajes sueltos en foros. “Claude ha alcanzado su límite de uso.” Luego más casos, más capturas, más quejas. Algunos usuarios eran bloqueados tras apenas unos cuantos mensajes. El plan más caro, el que se vendía como ilimitado en la práctica, estaba poniendo vallas. Anthropic no había dicho nada. Solo que estaban trabajando en la estabilidad del servicio.

Una semana con contador

La empresa confirmó que Claude tenía un tope. A partir del 28 de agosto, cada usuario del plan Max tendrá una cantidad de horas semanal. Sonnet 4 se podrá usar entre 240 y 480 horas. Opus 4, el más potente, entre 24 y 40. La letra pequeña aún no está clara —no se sabe si cuentan mensajes, tiempo real o tokens— pero el cambio es oficial.

¿Y por qué este frenazo?

Según Anthropic, un 5 % de los usuarios estaba consumiendo demasiado. Uno llegó a generar, él solo, un coste equivalente a “decenas de miles de dólares”. Pero no era solo cuestión de volumen. Algunos usuarios, según la compañía, estaban utilizando Claude de forma no conforme a sus políticas. Había automatización intensiva, sesiones ininterrumpidas e incluso indicios de cuentas compartidas, lo que multiplicaba el uso real por encima de lo previsto.

En una publicación en X, Anthropic añadió: “Estas medidas ayudan a garantizar que todos los usuarios tengan una experiencia estable y fiable con Claude.” Claude no descansaba. Pero los servidores sí tienen un límite. Y una factura.

Malestar en las trincheras

En los foros hay desconcierto. Gente que había adaptado su flujo de trabajo ahora se encuentra con cortes sin previo aviso. No saben cuánto podrán usar ni cómo se mide el uso. Algunos piden transparencia. Otros, que se reformule el plan. En el hilo oficial publicado por Anthropic en X, varios usuarios respondieron mostrando capturas de los bloqueos y quejándose por la falta de comunicación previa. La sensación general es que se prometió más de lo que podía cumplirse.

El equilibrio entre promesa y coste

Anthropic vendió acceso premium a una IA potente. Y muchos la usaron como tal. Pero entre lo que ofrecía el plan y lo que realmente cuesta operarlo, había un desfase. Ahora intentan ajustar. Ponerle reloj a algo que parecía no necesitarlo. Claude seguirá escribiendo código. Solo que ya no lo hará sin parar.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario