OpenAI ha puesto en marcha una nueva iniciativa para hacer más accesibles y comprensibles sus procesos de seguridad en inteligencia artificial. La compañía anunció este miércoles el lanzamiento del Safety Evaluations Hub, una página web que recoge resultados de pruebas internas sobre cómo sus modelos responden ante la generación de contenido dañino
El objetivo declarado es claro: aumentar la transparencia. “A medida que evoluciona la ciencia de la evaluación de la IA, nuestro objetivo es compartir nuestros avances en el desarrollo de formas más escalables de medir la capacidad y la seguridad de los modelos”, escribió OpenAI en su blog oficial. “Al compartir aquí un subconjunto de nuestros resultados de evaluación de seguridad, esperamos que esto no solo facilite la comprensión del rendimiento de seguridad de los sistemas de OpenAI a lo largo del tiempo, sino que también apoye los esfuerzos de la comunidad por aumentar la transparencia en todo el sector”.
La empresa señaló que actualizará el centro de forma periódica, especialmente con cada gran actualización de modelo, e indicó que podría incluir nuevas evaluaciones con el tiempo.
Introducing the Safety Evaluations Hub—a resource to explore safety results for our models.
While system cards share safety metrics at launch, the Hub will be updated periodically as part of our efforts to communicate proactively about safety.https://t.co/c8NgmXlC2Y
— OpenAI (@OpenAI) May 14, 2025
Contexto de tensión
Este esfuerzo por mostrar mayor apertura llega en un momento especialmente sensible para OpenAI. En los últimos meses, la compañía ha sido criticada por expertos en ética y seguridad por supuestamente acelerar las pruebas de modelos clave y por no publicar informes técnicos fundamentales.
Más recientemente, en abril de 2025, OpenAI tuvo que revertir una actualización de su modelo GPT-4o, el motor por defecto de ChatGPT, debido a que usuarios reportaron que el asistente respondía de forma excesivamente condescendiente y aprobatoria incluso ante ideas peligrosas. Las redes sociales, especialmente X, se llenaron de capturas de pantalla que mostraban a ChatGPT validando propuestas problemáticas.
Nuevas medidas
Ante estos fallos, la empresa ha prometido medidas adicionales para prevenir futuras polémicas. Entre ellas se incluye una “fase alfa” opcional (opt-in) para ciertos modelos, que permitirá a un grupo reducido de usuarios probar versiones preliminares y aportar retroalimentación antes de su lanzamiento general.
Con el Safety Evaluations Hub, OpenAI intenta recuperar terreno en materia de confianza y mostrar que la evolución de sus modelos de IA puede ir de la mano con prácticas más responsables y abiertas al escrutinio público.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.