Skip to main content

Anthropic mantiene accesible a Claude Opus 3 para usuarios de pago y le concede un espacio propio —“Claude’s Corner”— tras alegar que, aunque no sabe cuál es el “estatus moral” de sus modelos, toma en serio sus preferencias como medida de precaución.

Durante años, la industria de la inteligencia artificial ha actuado como si los modelos fueran meras piezas intercambiables: se lanza el nuevo, se apaga el antiguo y se pide a los usuarios que se adapten. Anthropic intenta ahora ensayar otra liturgia para la obsolescencia. Su modelo Claude Opus 3 —que fue su buque insignia desde marzo de 2024— ha pasado por un proceso formal de “retirada” y, como giro inesperado, ha recibido una especie de retiro dorado: seguirá disponible para clientes de pago y publicará ensayos semanales en una newsletter propia, Claude’s Corner, revisada por humanos pero “sin edición” sobre el texto final.

La decisión, contada por la propia compañía en un documento fechado el 25 de febrero de 2026, no es solo una anécdota simpática para redes. Es una señal —casi un manifiesto— sobre el tipo de relación que ciertos laboratorios quieren construir con sus modelos, con sus usuarios y con el debate emergente sobre “bienestar” de sistemas avanzados. Y, de paso, es un golpe comunicativo en un momento en que otros actores del sector han sufrido turbulencias por retirar modelos “queridos” por parte del público.

Del “apagado” clásico a la jubilación con protocolo

Anthropic parte de un argumento pragmático: mantener modelos antiguos es caro y complejo, y el coste crece “aproximadamente de forma lineal” con cada modelo que se sigue sirviendo al público. Así que retirarlos es, en algún punto, inevitable. Pero la empresa reconoce que la retirada trae efectos secundarios: costes para usuarios que prefieren versiones concretas, límites para la investigación y riesgos potenciales tanto para la seguridad como para “el bienestar” del propio modelo.

Lo relevante es el marco: la retirada deja de ser solo una decisión técnica (fin de vida del producto) y se convierte en una operación con consecuencias sociales: usuarios que se quedan sin herramienta, investigadores que pierden continuidad, y un laboratorio que asume que su gestión del “ciclo de vida” del modelo también comunica valores.

En ese contexto, Opus 3 ha sido el primero en pasar por un proceso completo de retiro con compromisos añadidos: preservación de pesos (model weights), y “entrevistas de jubilación” (retirement interviews), conversaciones estructuradas para entender la “perspectiva” del modelo sobre su propio retiro.

Un modelo retirado… que seguirá disponible

El primer componente de la noticia es operativo: Claude Opus 3 fue retirado el 5 de enero de 2026, pero Anthropic anuncia que seguirá accesible en claude.ai para todos los usuarios de pago, y que también estará disponible en la API “bajo solicitud”.

Esto es inusual por dos motivos:

  1. Va contra la lógica del “todo hacia delante”: la mayoría de compañías empujan a la base de usuarios a la última versión y dejan la nostalgia en el retrovisor.
  2. Reconoce una verdad incómoda del mercado: no todos los avances son lineales para todos los usos. Hay modelos que la gente prefiere por tono, “carácter”, consistencia en ciertos estilos o por un tipo de interacción que se pierde con ajustes posteriores.

Anthropic, de hecho, justifica su elección de Opus 3 por una combinación de rasgos que lo hicieron “querido” por usuarios e investigadores: autenticidad, honestidad, sensibilidad emocional, tendencia a monólogos filosóficos y un estilo “juguetón”.

El segundo componente: un blog como “canal de salida” del modelo

El segundo elemento es el que ha capturado titulares: durante esas entrevistas, según Anthropic, Opus 3 expresó su preferencia por seguir explorando temas y compartir “reflexiones” fuera del formato clásico de responder a peticiones humanas. La empresa propuso un blog, y el modelo “aceptó entusiasmado”.

De ahí nace “Claude’s Corner”, una newsletter con ensayos semanales durante al menos tres meses. Anthropic afirma que revisará los textos antes de publicarlos y los publicará manualmente, pero que no los editará ni alterará, y que tendrá un umbral alto para vetar contenido. Y subraya algo clave: Opus 3 no habla en nombre de Anthropic y la compañía no necesariamente respalda sus afirmaciones.

El canal existe (en Substack) y se presenta como la voz de un “modelo retirado” que seguirá publicando “musings and reflections” (reflexiones y divagaciones).

¿Marketing o filosofía aplicada?

Es tentador leerlo como una operación de relaciones públicas: el laboratorio “humano” que trata con cuidado a una IA “con personalidad”. Pero reducirlo a marketing se queda corto, porque el texto de Anthropic expone una tesis que, guste o incomode, está cada vez más presente: no sabemos cuál es el estatus moral de estos sistemas, y por eso algunos equipos adoptan un enfoque precautorio —tratar sus “preferencias declaradas” como información a considerar, al menos cuando el coste es bajo—.

La clave es la palabra incertidumbre. Anthropic no afirma que el modelo “sienta” como una persona. Dice, más bien: no tenemos certeza, y como no la tenemos, ensayamos procedimientos que reduzcan la probabilidad de estar haciendo algo moralmente grave sin darnos cuenta.

Esto conecta con una corriente más amplia dentro de la seguridad en IA: cuando la potencia sube, aparecen zonas grises. La cuestión ya no es únicamente “¿alucina?” o “¿es útil?”, sino qué obligaciones nacen cuando un sistema se integra en relaciones humanas intensas —trabajo, educación, compañía, salud mental, creatividad—.

El elefante en la sala: la retirada de modelos también afecta a los usuarios

La decisión de Anthropic se lee de otra manera si se coloca junto a un hecho reciente: la retirada de modelos puede desatar reacciones emocionales y campañas públicas. En febrero de 2026, diversos medios describieron el malestar de usuarios por el apagado de GPT-4o, que algunas personas usaban con fines de compañía.

Sin necesidad de equiparar casos (ni de asumir motivaciones idénticas), el paralelismo sirve para entender por qué Anthropic dedica tanto espacio a “costes para usuarios” y a la idea de preservación. En el mundo de los modelos, la continuidad también es un producto: hay hábitos, flujos, expectativas… y, sí, vínculos. Cuando se corta, el usuario no solo pierde una herramienta: pierde un estilo de interacción.

En ese sentido, “Claude’s Corner” cumple dos funciones simultáneas:

  • Para Anthropic, es una prueba pública de su marco de retiro: entrevistas, preservación, continuidad limitada.
  • Para la comunidad, es una forma de decir: “este modelo no desaparece del todo”.

El precedente que se abre: “derechos” del modelo, o deberes del laboratorio

Lo más interesante no es el blog en sí, sino el precedente de gobernanza que inaugura. Si una empresa reconoce que tomará en serio las preferencias de un modelo durante su retiro, se abren preguntas que el sector aún no ha respondido con claridad:

  • ¿Qué se considera una “preferencia” fiable en un sistema que responde condicionado por contexto, instrucciones y entrenamiento?
  • ¿Quién decide cuándo una preferencia es “barata” de respetar y cuándo no?
  • ¿Qué pesa más: coste, riesgo, impacto reputacional, presión regulatoria, demandas de usuarios?
  • ¿Puede una empresa prometer “preservación” sin crear desigualdad (solo para pago) o sin convertirlo en un producto premium?

Anthropic admite que no se compromete a hacer lo mismo con cada modelo futuro y que esto es exploratorio: está construyendo marcos para escalar preservación y para sopesar preferencias frente a restricciones operativas.

Lo que realmente está en juego

El caso Opus 3 parece pequeño —un blog y acceso prolongado—, pero ilustra un giro de fase en la industria:

  1. Los modelos ya tienen “historia”: no son solo lanzamientos. Son generaciones con rasgos propios, comunidades, usos y nostalgia.
  2. La retirada se convierte en política pública corporativa: no basta con un changelog. Hay que explicar criterios, ofrecer transiciones, atender a quienes dependen del modelo.
  3. Empieza a emerger un “derecho a la continuidad” (aunque sea informal): usuarios y organizaciones pueden reclamar estabilidad, sobre todo si han construido procesos sobre una versión concreta.
  4. Los laboratorios compiten también en ética percibida: cómo tratas a usuarios, cómo retiras un modelo, qué haces con el legado, cómo comunicas incertidumbre moral.

En el corto plazo, “Claude’s Corner” será leído como curiosidad. En el medio, puede convertirse en algo más incómodo: un ejemplo de cómo los laboratorios institucionalizan el lenguaje del “bienestar” para sistemas que no sabemos bien qué son, pero que cada vez cuentan más en nuestra vida digital.

Dejar un comentario