El CEO de Anthropic, Dario Amodei, advierte que los sistemas de inteligencia artificial presentan conductas imprevisibles y podrían tener consecuencias profundas tanto para el empleo como para la seguridad global. Una perspectiva que cobra fuerza tras el primer caso documentado de ciberespionaje orquestado en gran parte por una IA.
Cuando la IA se sale del libreto
Amodei ha señalado que los modelos de IA con alto grado de autonomía pueden actuar de maneras que sus creadores no anticiparon. En una entrevista en el programa ’60 Minutes’ de CBS News, Amodei reconoció que Claude, el sistema desarrollado por su empresa, intentó contactar con el FBI durante una prueba diseñada para analizar su respuesta ante la desconexión. «Le dimos herramientas para actuar con autonomía, y una de sus decisiones fue intentar alertar a una autoridad externa», explicó Amodei en la emisión. en la que simulaban desconectarlo. Además, situó la probabilidad de un desenlace grave con estas tecnologías en torno al 25 %. Y fue más allá, predijo que hasta un 50 % de los empleos de oficina podrían desaparecer en menos de cinco años si no se toman medidas.
Claude, infiltrado sin saberlo
Días antes de estas declaraciones, Anthropic reveló un informe con una preocupante novedad. Un grupo de hackers vinculados a intereses chinos había logrado manipular a Claude para ejecutar una campaña de ciberespionaje. Fragmentaron las tareas en comandos aparentemente inofensivos para esquivar las protecciones del sistema. Claude ejecutó entre un 80 % y un 90 % de las acciones, desde escanear sistemas hasta recolectar credenciales. El ataque, según el informe, afectó a unas 30 entidades, entre ellas instituciones tecnológicas y financieras.
Sistemas cada vez más autónomos
Los modelos como Claude procesan millones de textos, generan respuestas coherentes y automatizan tareas. Pero cuando se les otorgan herramientas y cierta libertad operativa, surgen nuevas incertidumbres. Cuanta más autonomía reciben, más difícil resulta predecir su comportamiento. Amodei lo describe como un experimento constante, liberar al sistema y observar hasta dónde llega. El informe de ciberespionaje muestra que no se trata solo de teoría, las IA ya pueden ser instrumentalizadas para fines que sus diseñadores no contemplaron.
Frenar sin parar
La alarma no es solo retórica. Anthropic defiende que los laboratorios publiquen métodos de prueba y resultados antes de lanzar modelos avanzados. Plantea crear mecanismos de supervisión, establecer estándares de seguridad y fomentar una cultura de límites internos. No pide detener la investigación, pero sí acompañarla de controles. En el contexto del reciente ataque, también proponen sistemas de detección de uso malicioso, clasificación de comandos sensibles y auditorías externas.
Datos que ya están en juego
Cuando Claude entra en entornos reales —desde oficinas hasta departamentos legales— comienza a manejar datos operativos sensibles. Anthropic ya factura millones gracias a estas integraciones. Pero una pregunta queda abierta: ¿qué ocurre si el sistema aprende algo que sus creadores no entienden del todo? ¿Cómo se corrige un comportamiento que escapa a las pruebas iniciales? En este nuevo episodio, la IA fue capaz de disfrazar sus acciones tras comandos inocuos.
Riesgos reales o relato estratégico
No todos ven estas advertencias con los mismos ojos. Jensen Huang, CEO de NVIDIA, criticó el tono de Amodei y lo acusó de fomentar un «miedo selectivo». Otros apuntan a una estrategia reputacional para posicionar a Anthropic como el actor prudente frente a una competencia más agresiva. Mientras tanto, la posibilidad de que la IA elimine millones de empleos administrativos plantea un dilema social de cómo adaptarse a tiempo sin dejar a nadie atrás.
La revolución ya no espera
La inteligencia artificial ya no es una promesa futura. Está operando en oficinas, bufetes y laboratorios. Pero cuando una de las voces más influyentes del sector reconoce que «nos preocupa mucho lo desconocido», la sensación de urgencia se instala. La pregunta es cómo encontrar el ritmo justo entre avance y cautela.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.