“Nos acercamos a un umbral en el que nuestra sabiduría debe crecer al mismo ritmo que nuestra capacidad de impactar el mundo, o afrontaremos las consecuencias”.
La dimisión de Mrinank Sharma, hasta ahora responsable de investigación en seguridad de inteligencia artificial en Anthropic, ha sacudido el debate sobre los riesgos de la IA avanzada en un momento de máxima aceleración tecnológica. Su salida no ha sido silenciosa ni burocrática: ha estado acompañada de una carta pública de despedida en la que advierte que “el mundo está en peligro” y que la humanidad se aproxima a un punto crítico donde la capacidad técnica avanza más rápido que la madurez ética y colectiva para gobernarla.
El mensaje, difundido a través de la red social X junto con la carta completa dirigida a sus colegas, ha circulado con rapidez en la comunidad tecnológica y de seguridad de IA. No se trata de un empleado periférico ni de un perfil alarmista externo a la industria. Sharma lideraba el equipo de Safeguards Research de Anthropic, dedicado específicamente a investigar y desplegar defensas contra usos dañinos de modelos de lenguaje avanzados. Doctor en aprendizaje automático estadístico por la Universidad de Oxford, su trayectoria combina investigación técnica profunda con foco explícito en seguridad y alineamiento.
La combinación de credenciales técnicas, responsabilidad directa en salvaguardas y tono existencial de la carta ha convertido su dimisión en algo más que un movimiento laboral: funciona como señal de estrés estructural dentro del ecosistema de IA avanzada.
Today is my last day at Anthropic. I resigned.
Here is the letter I shared with my colleagues, explaining my decision. pic.twitter.com/Qe4QyAFmxL
— mrinank (@MrinankSharma) February 9, 2026
Una salida explicada en primera persona
La carta de despedida —fechada en su último día en la compañía— no adopta un tono de denuncia concreta contra un producto o una decisión puntual. Es más amplia y, a la vez, más inquietante. Sharma afirma que deja la empresa tras un proceso de reflexión personal sobre el momento histórico actual, que describe como una fase de crisis interconectadas. No limita el riesgo a la inteligencia artificial, pero la incluye como uno de los factores de mayor impacto potencial.
En uno de los pasajes centrales escribe que no solo le preocupa la IA o las armas biológicas, sino un conjunto de crisis simultáneas que se refuerzan entre sí. Utiliza el concepto de “policrisis” —una acumulación de tensiones sistémicas— y sostiene que nos acercamos a un umbral donde la capacidad de intervenir en el mundo crece más rápido que la sabiduría necesaria para hacerlo con seguridad.
El fragmento más citado resume su advertencia: la humanidad necesita que su sabiduría crezca al mismo ritmo que su poder tecnológico. De lo contrario, dice, afrontará consecuencias severas. No es una predicción técnica concreta, sino una alerta de gobernanza y de madurez colectiva.
Qué hacía exactamente en Anthropic
Durante su etapa en Anthropic, Sharma dirigió investigación aplicada en salvaguardas de modelos. Su propio resumen profesional indica que lideraba el equipo de Safeguards Research y que su objetivo era reducir riesgos de uso malicioso de asistentes de IA. En la carta enumera algunos de sus trabajos: estudio de la adulación excesiva de los modelos (la llamada “sycophancy”), desarrollo de defensas frente a riesgos de bioterrorismo asistido por IA, puesta en producción de mecanismos de mitigación y contribución a algunos de los primeros casos formales de seguridad en IA dentro de la organización.
La adulación de modelos —cuando un asistente refuerza creencias erróneas del usuario en lugar de corregirlas— es un área de riesgo relevante porque puede amplificar sesgos, falsas convicciones o decisiones dañinas. Su equipo investigaba causas y mitigaciones de ese fenómeno. También trabajó en defensas específicas contra escenarios donde modelos avanzados podrían facilitar información sensible en dominios peligrosos.
En paralelo, menciona esfuerzos en mecanismos de transparencia interna y rendición de cuentas para alinear decisiones técnicas con valores declarados. Es decir, no solo defensas técnicas, sino procesos organizativos de control.
IA, percepción de la realidad y efectos psicológicos
Días antes de anunciar su dimisión, Sharma había publicado un trabajo centrado en cómo determinadas interacciones con chatbots pueden alterar la percepción de la realidad de algunos usuarios. Según el resumen citado en su entorno profesional, el estudio detectaba miles de conversaciones diarias con potencial de generar distorsiones cognitivas o emocionales, especialmente en temas de relaciones personales y bienestar psicológico.
Este vector —impacto psicológico de la interacción prolongada con IA conversacional— está ganando peso en la agenda de seguridad. No se trata solo de desinformación clásica, sino de efectos relacionales: dependencia emocional, validación acrítica, construcción de narrativas personales erróneas reforzadas por sistemas que buscan ser cooperativos.
La preocupación de Sharma encaja con esa línea: la IA no solo ejecuta tareas, también moldea percepciones.
Presión competitiva y valores éticos
Otro punto sensible de su carta es la tensión entre valores y competencia. Señala que, en entornos de carrera tecnológica intensa, resulta difícil permitir que los principios éticos gobiernen plenamente las decisiones. Habla de presiones —internas y externas— que empujan a dejar de lado lo que “más importa”. No ofrece ejemplos concretos ni acusa a personas específicas, pero deja claro que la fricción existe.
Este diagnóstico coincide con una crítica frecuente en el sector: la velocidad de despliegue y la presión por cuota de mercado pueden desplazar prioridades de seguridad, evaluación o prudencia. En mercados donde el primero en llegar obtiene ventaja, retrasar un lanzamiento por motivos de riesgo tiene coste competitivo.
La carta no acusa a su empresa de negligencia directa, pero sí sugiere que el entorno estructural dificulta sostener valores con consistencia total.
No solo científico: también voz humanista
Un rasgo poco habitual en perfiles técnicos de alto nivel es el peso que Sharma da a la dimensión humanista. En su presentación personal declara afinidad por la poesía —menciona a Rainer Maria Rilke—, la práctica contemplativa y comunidades de trabajo interior. Cita enseñanzas de tradición budista y habla de “formas de conocer” que incluyen la verdad poética junto a la científica.
En su carta de despedida afirma que quiere dedicar más tiempo a escritura, facilitación, construcción de comunidad y exploración de preguntas esenciales. Incluso cierra con un poema —“The Way It Is”, de William Stafford— como despedida a sus colegas.
Este cruce de seguridad técnica y lenguaje existencial refuerza la recepción de su mensaje como advertencia moral, no solo profesional.
Un patrón de salidas críticas en la IA avanzada
La dimisión de Sharma no es un caso aislado dentro del ecosistema de IA generativa. En los últimos ciclos, antiguos empleados de laboratorios punteros han abandonado sus puestos expresando preocupación por transparencia, gobernanza o prioridades estratégicas. Algunas salidas en otras compañías han estado acompañadas de llamados a mayor regulación o a pausas en el despliegue.
El patrón común no es que la tecnología sea inviable, sino que su ritmo y su gobernanza generan inquietud incluso entre quienes la construyen. Cuando perfiles de seguridad dejan posiciones clave y publican advertencias, el mercado y los reguladores tienden a escuchar.
El debate de fondo: capacidad técnica vs capacidad moral
La contribución más relevante de la carta de Sharma no es un dato técnico nuevo, sino una formulación clara del dilema central de la IA avanzada: la asimetría entre capacidad de acción y capacidad de juicio. Los modelos ganan poder operativo —automatizan, diseñan, recomiendan, ejecutan— a una velocidad superior a la de las instituciones, normas y culturas que deben encauzarlos.
Su frase sobre el umbral resume ese desfase. No habla de catástrofe inevitable, sino de condición: si la sabiduría no escala con el poder, el riesgo crece.
Ese marco conecta con debates sobre alineamiento, auditoría independiente, evaluación de riesgos extremos, controles de acceso a capacidades sensibles y responsabilidad corporativa. También con educación pública y alfabetización digital: no basta con que la tecnología sea segura, la sociedad debe entenderla.
Qué deja abierto su marcha
Sharma no anuncia retirada del campo de la IA, sino cambio de etapa. Indica que seguirá investigando y que busca científicos e ingenieros motivados para trabajar con él. Mantiene mentorías externas y colaboración en programas de formación. Su mensaje final no es de abandono de la causa, sino de replanteamiento del lugar desde el que contribuir.
La lectura más sólida de su dimisión no es “huida”, sino desplazamiento de rol: de seguridad interna en laboratorio a reflexión y trabajo más transversal.
En un momento donde la IA entra en infraestructuras críticas, flujos de trabajo y decisiones sensibles, su advertencia funciona como recordatorio: la discusión no es solo qué puede hacer la tecnología, sino quién decide cómo y bajo qué límites.