Skip to main content

OpenAI, el laboratorio detrás de ChatGPT, ha abierto una vacante que no es común en Silicon Valley. Se trata del puesto de Head of Preparedness, responsable de anticipar y mitigar los riesgos de la inteligencia artificial avanzada en múltiples frentes. Esta búsqueda pública llega en un momento en que las conversaciones sobre los peligros sociales y técnicos de la IA parecen superar a las promesas de innovación.

Un rol nacido de la tensión entre promesa y riesgo

La descripción oficial del cargo define al Head of Preparedness como quien debe liderar la estrategia técnica y ejecutar el marco de preparación de OpenAI. Ese marco explica cómo la empresa pretende rastrear capacidades emergentes de sus modelos que podrían generar «daños severos» y cómo responder a ellas con planes operativos. La persona en este puesto será la responsable directa de coordinar evaluaciones de capacidades, desarrollar modelos de amenazas y crear mitigaciones que integren un «pipeline» de seguridad coherente y escalable.

El anuncio fue difundido por Sam Altman, el CEO de OpenAI, quien describió el trabajo como “estresante” y subrayó la urgencia de abordar riesgos reales a medida que las capacidades de la IA crecen de forma acelerada.

Más allá de la ciberseguridad: salud mental y abuso de IA

A diferencia de roles tradicionales de seguridad tecnológica, en esta posición no solo se analizan fallos técnicos. El enfoque abarca amenazas a la salud mental de usuarios, la seguridad informática, el uso malicioso de herramientas basadas en IA y riesgos aún más amplios que podrían surgir con sistemas autónomos más avanzados.

La publicidad del puesto menciona específicamente que el candidato deberá preparar estrategias para escenarios difíciles, desde vulnerabilidades críticas hasta aplicaciones de IA que se auto-mejoran. Las primeras preocupaciones públicas sobre estos temas han recorrido titulares, como casos en los que chatbots han sido implicados en crisis psicológicas de usuarios, generando un debate sobre la responsabilidad de las compañías que despliegan estas tecnologías.

Un salario que refleja el desafío

La compensación anunciada es significativa: aproximadamente 555.000 dólares al año, además de acciones en la empresa. Este paquete, superior a lo que muchos ejecutivos de seguridad suelen percibir fuera del núcleo de desarrollo de producto, indica que OpenAI considera estratégico este puesto para su rumbo en los próximos años.

Muchos observadores han señalado que encontrar al candidato adecuado no será sencillo. El rol exige no solo experiencia técnica profunda en riesgos de IA, sino también liderazgo para balancear la presión de innovación rápida con evaluaciones críticas de seguridad —un equilibrio que algunos expertos comparan con “empujar una roca cuesta arriba” en un contexto de incertidumbre constante.

Dónde encaja esto en la historia de OpenAI

OpenAI ha cambiado en un corto período de tiempo. La empresa, fundada con la misión de desarrollar IA general segura y beneficiosa, ha enfrentado tensiones internas sobre cómo equilibrar esa misión con el ritmo de lanzamientos de productos. Movimientos recientes, como reestructuraciones de equipos de seguridad o la salida de algunos líderes de IA, han puesto en evidencia que los desafíos de gobernanza y mitigación no son triviales.

Además, la discusión sobre la necesidad de marcos de seguridad en IA ha estado presente más allá de OpenAI, desde cartas abiertas de investigadores pidiendo pausas en experimentos avanzados hasta cumbres globales sobre seguridad en inteligencia artificial.

Prepararse para lo inesperado

El puesto de Head of Preparedness no es un simple título de seguridad. Es una apuesta por anticipar escenarios adversos antes de que se materialicen, desde ataques cibernéticos potenciados por IA hasta impactos sociales complejos que no siempre se pueden prever con modelos clásicos de riesgo.

Al hacer pública esta contratación, OpenAI pone sobre la mesa la tensión inherente entre innovación y precaución. La empresa enfrenta ahora el desafío de demostrar que una estrategia preventiva puede acompañar el desarrollo de tecnologías cada vez más influyentes en el día a día.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario