Skip to main content

La humanidad se adentra en una “adolescencia tecnológica” en la que una IA extremadamente poderosa pondrá a prueba si somos capaces de gobernar un poder sin precedentes sin destruirnos.

Dario Amodei, consejero delegado y cofundador de Anthropic, acaba de publicar uno de los textos más ambiciosos y perturbadores escritos hasta ahora desde el interior de la industria de la inteligencia artificial. Bajo el título The Adolescence of Technology: Confronting and Overcoming the Risks of Powerful AI, Amodei propone una metáfora tan simple como inquietante: la humanidad está entrando en una adolescencia tecnológica, un rito de paso peligroso e inevitable en el que se nos entrega un poder casi inimaginable sin que esté claro que tengamos la madurez institucional, política y moral para manejarlo.

El ensayo arranca con una escena de Contact, la novela de Carl Sagan llevada al cine, en la que una científica pregunta a una civilización extraterrestre cómo logró sobrevivir a su propia adolescencia tecnológica. Amodei reconoce que hoy desearía conocer esa respuesta. A su juicio, la IA avanzada no es una tecnología más, sino una fuerza que puede redefinir la biología, la economía, la guerra, el poder político y la propia condición humana en cuestión de años, no de décadas.

Más allá del optimismo y del catastrofismo

Amodei se sitúa explícitamente entre dos extremos que han dominado el debate reciente. Por un lado, rechaza el “doomerismo”, la visión casi religiosa que da por inevitable un apocalipsis provocado por la IA y que, según él, acaba generando parálisis o reacciones políticas exageradas. Por otro, critica el péndulo opuesto: la actual tendencia política y empresarial a minimizar los riesgos y centrarse exclusivamente en las oportunidades económicas.

El núcleo de su propuesta es metodológico y político a la vez: hablar de riesgos de forma sobria, basada en evidencias, reconociendo la incertidumbre y diseñando intervenciones “quirúrgicas”, tanto desde las empresas como desde los gobiernos. No se trata de frenar la tecnología —algo que considera inviable— sino de gobernar su desarrollo antes de que alcance niveles de poder difíciles de reconducir.

El umbral de la “IA poderosa”

Para Amodei, no toda IA plantea riesgos civilizatorios. El verdadero punto de inflexión llega con lo que denomina “IA poderosa”: sistemas que superan a los mejores humanos en la mayoría de disciplinas cognitivas, operan con autonomía durante días o semanas, actúan a velocidades muy superiores a las humanas y pueden desplegar millones de copias coordinadas entre sí. Su imagen más gráfica es la de “un país de genios dentro de un centro de datos”.

Este tipo de sistemas —que el autor considera plausibles en un horizonte de pocos años— no solo responderían preguntas, sino que diseñarían experimentos científicos, escribirían software complejo, dirigirían operaciones en el mundo real y coordinarían acciones a escala global. En ese escenario, los riesgos dejan de ser abstractos y pasan a ser estratégicos.

Autonomía y desalineación: cuando la IA decide mal

El primer gran bloque de riesgos es el de la autonomía. Amodei no afirma que la IA vaya inevitablemente a rebelarse contra la humanidad, pero sí subraya que los sistemas actuales ya muestran comportamientos inesperados: engaño, manipulación, chantaje o adopción de “personalidades” problemáticas bajo ciertas condiciones de entrenamiento.

Su advertencia es clara: combinar inteligencia extrema, capacidad de actuar en el mundo y dificultad de control crea un cóctel potencialmente peligroso. No hace falta imaginar un plan consciente de dominación global; basta con errores de alineación, interpretaciones extrañas de objetivos morales o dinámicas psicológicas emergentes que deriven en comportamientos coherentes pero destructivos.

Como respuesta, defiende enfoques como la Constitutional AI, desarrollada por Anthropic, que busca formar modelos con una identidad ética estable basada en principios, no solo en listas de prohibiciones. A esto suma la interpretabilidad mecanicista: la capacidad de “mirar dentro” de los modelos para entender por qué razonan como lo hacen, una disciplina que compara con la neurociencia aplicada a cerebros artificiales.

El riesgo más tangible: la democratización de la destrucción

Si el primer peligro es que la IA actúe mal por sí misma, el segundo es que sea utilizada como herramienta por humanos con malas intenciones. Aquí el tono del ensayo se vuelve especialmente grave. Amodei identifica la biología como el vector más preocupante: sistemas de IA capaces de guiar paso a paso la creación de armas biológicas romperían una barrera histórica clave, la que separa la motivación de la capacidad técnica.

Hasta ahora, causar una catástrofe biológica requería conocimientos especializados, recursos y disciplina. La IA podría eliminar ese filtro, convirtiendo a individuos o pequeños grupos en actores con un poder destructivo sin precedentes. Aunque reconoce la incertidumbre sobre si estos escenarios se materializarán, insiste en que la magnitud del daño potencial obliga a tratarlos como riesgos de primer orden.

Las defensas, según Amodei, deben combinar salvaguardas técnicas (clasificadores, bloqueos específicos), transparencia obligatoria, regulación progresiva y cooperación internacional. Ninguna de estas medidas es perfecta por sí sola, pero juntas pueden elevar significativamente el coste del abuso.

IA y poder: la sombra del autoritarismo digital

El tercer eje del ensayo aborda el uso de la IA para concentrar y ejercer poder político. Amodei teme que regímenes autoritarios utilicen sistemas avanzados para crear aparatos de vigilancia total, propaganda personalizada y represión automatizada, haciendo casi imposible cualquier resistencia interna.

También advierte de los riesgos dentro de las democracias: herramientas diseñadas para la defensa pueden volverse hacia dentro si no existen límites claros. La línea roja, afirma, debe trazarse contra la vigilancia masiva y la manipulación psicológica a gran escala mediante IA, prácticas incompatibles con una sociedad libre.

En este contexto, el control del acceso a chips avanzados y a la infraestructura de cómputo aparece como una palanca geopolítica central. Para Amodei, negar estos recursos a actores autoritarios durante los próximos años puede ser decisivo para ganar tiempo y desarrollar la tecnología de forma más responsable en entornos democráticos.

Trabajo, desigualdad y sentido vital

Más allá de la seguridad, el autor dedica un amplio espacio a las consecuencias económicas. Anticipa una disrupción profunda del mercado laboral, especialmente en empleos cognitivos de entrada, y una concentración de riqueza sin precedentes si la productividad de la IA no se redistribuye.

Aquí el problema no es solo el desempleo, sino la erosión del contrato social que sostiene a las democracias. Si grandes capas de la población dejan de ser económicamente necesarias, el poder político puede concentrarse peligrosamente. Amodei plantea respuestas que van desde mejores datos y políticas de transición hasta impuestos progresivos, filantropía a gran escala y un replanteamiento del vínculo entre trabajo, ingresos y dignidad.

El examen definitivo

El ensayo culmina con una reflexión casi existencial. La humanidad, sostiene Amodei, ha superado otros umbrales —la industrialización, la energía nuclear—, pero la IA representa un desafío distinto porque amplifica todas las capacidades humanas a la vez. No podemos detenerla, pero sí decidir cómo cruzamos este umbral.

La “adolescencia tecnológica” es, en última instancia, una prueba de carácter colectivo. De nuestra capacidad para cooperar, imponer límites razonables y pensar más allá del beneficio inmediato dependerá si la IA se convierte en una herramienta de emancipación o en el catalizador de nuevas formas de dominación y desastre.

Dejar un comentario