Claude Code era el compañero perfecto para quienes programan de sol a sol. Nunca se cansaba, siempre respondía, y por 200 dólares al mes podías tenerlo a tu lado las 24 horas. Pero en algún momento se pasó de listo. O sus usuarios lo hicieron. Anthropic ha decidido limitarlo, porque había quien exprimía tanto a la IA que el coste se iba a las nubes.
Código a cualquier hora
El plan Max de Anthropic ofrecía más velocidad, más capacidad, más IA por un precio plano. Claude Code, la herramienta estrella, escribía, revisaba y depuraba código con una facilidad que rozaba lo inquietante. En abril, la empresa lanzó dos niveles de suscripción: 100 y 200 dólares al mes. El segundo era para quienes no querían límites. O eso creían.
Hasta que apareció el cartel
Primero fueron mensajes sueltos en foros. “Claude ha alcanzado su límite de uso.” Luego más casos, más capturas, más quejas. Algunos usuarios eran bloqueados tras apenas unos cuantos mensajes. El plan más caro, el que se vendía como ilimitado en la práctica, estaba poniendo vallas. Anthropic no había dicho nada. Solo que estaban trabajando en la estabilidad del servicio.
Una semana con contador
La empresa confirmó que Claude tenía un tope. A partir del 28 de agosto, cada usuario del plan Max tendrá una cantidad de horas semanal. Sonnet 4 se podrá usar entre 240 y 480 horas. Opus 4, el más potente, entre 24 y 40. La letra pequeña aún no está clara —no se sabe si cuentan mensajes, tiempo real o tokens— pero el cambio es oficial.
¿Y por qué este frenazo?
Según Anthropic, un 5 % de los usuarios estaba consumiendo demasiado. Uno llegó a generar, él solo, un coste equivalente a “decenas de miles de dólares”. Pero no era solo cuestión de volumen. Algunos usuarios, según la compañía, estaban utilizando Claude de forma no conforme a sus políticas. Había automatización intensiva, sesiones ininterrumpidas e incluso indicios de cuentas compartidas, lo que multiplicaba el uso real por encima de lo previsto.
So I gave Claude Code a Mac Mini.
And it’s called Claudeputer.
It runs 24/7 and it’s allowed to do whatever it wants – it’s in complete control of its computer.
Watch for a 2min demo. pic.twitter.com/fNe888hM8W
— Mckay Wrigley (@mckaywrigley) July 17, 2025
En una publicación en X, Anthropic añadió: “Estas medidas ayudan a garantizar que todos los usuarios tengan una experiencia estable y fiable con Claude.” Claude no descansaba. Pero los servidores sí tienen un límite. Y una factura.
We’re rolling out new weekly rate limits for Claude Pro and Max in late August. We estimate they’ll apply to less than 5% of subscribers based on current usage. pic.twitter.com/X8FAss3jIC
— Anthropic (@AnthropicAI) July 28, 2025
Malestar en las trincheras
En los foros hay desconcierto. Gente que había adaptado su flujo de trabajo ahora se encuentra con cortes sin previo aviso. No saben cuánto podrán usar ni cómo se mide el uso. Algunos piden transparencia. Otros, que se reformule el plan. En el hilo oficial publicado por Anthropic en X, varios usuarios respondieron mostrando capturas de los bloqueos y quejándose por la falta de comunicación previa. La sensación general es que se prometió más de lo que podía cumplirse.
El equilibrio entre promesa y coste
Anthropic vendió acceso premium a una IA potente. Y muchos la usaron como tal. Pero entre lo que ofrecía el plan y lo que realmente cuesta operarlo, había un desfase. Ahora intentan ajustar. Ponerle reloj a algo que parecía no necesitarlo. Claude seguirá escribiendo código. Solo que ya no lo hará sin parar.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.