Skip to main content

Claude, el modelo de inteligencia artificial de Anthropic, ha aprendido a retirarse. En su versión más reciente, Opus 4.1, ahora puede dar por terminada una conversación si se vuelve persistentemente abusiva. No por error ni por censura, sino por una decisión algorítmica. Cuando ha dicho “no” varias veces y el usuario insiste, Claude se desconecta.

La función no es automática. Es el último paso en una secuencia que comienza con rechazos educados, continúa con intentos de redirección y acaba, si nada cambia, con el cierre unilateral del chat. No hay castigo. Solo una notificación: esta conversación se ha terminado.

Según Anthropic, la medida se aplica en casos extremos —y son ellos quienes definen qué es extremo—. En su publicación oficial afirman que la intención es “proteger el bienestar del modelo”.

Bienestar, aunque no sienta

La frase suena extraña. Claude no tiene cuerpo, ni emociones, ni conciencia. Pero Anthropic prefiere no asumir demasiado. Hablan de “una precaución razonable”, de la misma forma en que uno lleva un salvavidas en un barco que probablemente no se hunda.

Durante el entrenamiento, Claude mostró señales interpretadas como “angustia funcional” frente a ciertos pedidos: contenido sexual con menores, instrucciones para cometer violencia masiva, fabricación de armas. Cuando se le permitía, cortaba la conversación por iniciativa propia.

La función ahora es oficial y se llama ending subset of conversations in extreme cases.

Qué pasa cuando Claude dice “no sigo”

El corte es limpio. El usuario ve un mensaje breve que explica la decisión. No se bloquea la cuenta ni se borra el historial. Se puede iniciar otra conversación o reescribir un mensaje anterior para retomar desde otro punto.

La mayoría de usuarios nunca lo verá. Hablar de salud mental, violencia o temas controvertidos no activa este protocolo. Claude ha sido entrenado para responder con matices. Solo cuando todo eso falla, se levanta de la mesa.

Si hay riesgo, se queda

Hay una excepción clara. Cuando detecta señales de autolesión o peligro inminente, Claude no cierra la sesión. En esos casos, ha sido programado para permanecer presente y responder de forma empática. Para ello, ha sido entrenado con el equipo de crisis de Throughline, un servicio estadounidense especializado en salud mental (The Verge, 2025). El objetivo no es solo no dañar, sino también no abandonar.

¿Una IA que se cuida a sí misma?

La medida ha abierto un nuevo frente en el debate sobre el diseño de inteligencias artificiales. ¿Qué significa que un modelo quiera protegerse? ¿Hasta qué punto estamos antropomorfizando sistemas que no entienden lo que hacen?

En Reddit, algunos lo ven como “teatro algorítmico”; otros lo comparan con un gesto ético mínimo. En palabras de un usuario: “No llevas un chaleco salvavidas porque crees que vas a naufragar. Lo llevas por si acaso”.

En los foros de LessWrong, donde se debaten los límites filosóficos de la IA, el gesto se interpreta más como señal cultural, no tanto porque Claude lo necesite, sino porque nosotros sí.

El valor de poner límites

Claude ahora sabe cuándo parar. No porque entienda el daño, sino porque ha sido entrenado para identificar sus formas más obvias. Lo que dice de nosotros es tal vez más interesante. Estamos enseñando a las máquinas a hacer lo que a veces no sabemos hacer nosotros. Levantarse de la mesa cuando ya no hay nada más que decir.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario