Skip to main content

El Instituto de Seguridad de IA del Reino Unido (AISI) ha sido instado a priorizar la creación de estándares globales para la prueba de inteligencia artificial, en lugar de intentar llevar a cabo todas las evaluaciones por sí mismo. Esta recomendación surge en un contexto en el que la rápida evolución de la IA plantea desafíos significativos en términos de seguridad y ética.

Marc Warner, CEO de Faculty AI, una empresa que colabora con el gobierno en el AISI, sugiere que el instituto debería liderar en la definición de estándares de prueba en lugar de asumir la responsabilidad de evaluar una amplia gama de modelos de IA, según informa The Guardian. La iniciativa del AISI, anunciada por Rishi Sunak, ha recibido el compromiso de grandes empresas tecnológicas para cooperar en la prueba de modelos avanzados de IA antes y después de su implementación.

El Instituto de Seguridad de IA del Reino Unido se enfoca en definir estándares globales, marcando el camino hacia una regulación internacional de la inteligencia artificial.

El Reino Unido juega un papel destacado en este acuerdo debido a su trabajo avanzado en seguridad de IA, subrayado por la creación del instituto. Warner, cuya empresa también trabaja para el NHS en temas de Covid y para el Ministerio del Interior en la lucha contra el extremismo, destacó que el AISI ha tenido un «gran comienzo» y que nunca ha visto algo en el gobierno moverse tan rápido.

Sin embargo, Warner también señaló que «la tecnología avanza rápidamente» y que el instituto debería establecer estándares que otros gobiernos y empresas puedan seguir. Esto incluye prácticas como el «red teaming«, donde especialistas simulan el mal uso de un modelo de IA, en lugar de asumir todo el trabajo internamente.

El AISI ha reconocido sus limitaciones de capacidad, optando por concentrarse en la prueba de los sistemas de IA más avanzados. Empresas importantes de IA están presionando al gobierno del Reino Unido para acelerar las evaluaciones de seguridad de los sistemas de IA.

Tanto el Reino Unido como Estados Unidos están estableciendo institutos de seguridad de IA, lo que subraya el movimiento internacional hacia el escrutinio de los modelos de IA. El departamento de ciencia, innovación y tecnología del Reino Unido afirma que los gobiernos de todo el mundo «deben desempeñar un papel clave» en la prueba de modelos de IA.

El AISI del Reino Unido se posiciona como un influenciador global en la política de seguridad de IA, con el objetivo de elevar la comprensión colectiva de la seguridad de la IA en todo el mundo. Su trabajo continuará ayudando a informar a los responsables políticos de todo el mundo sobre la seguridad de la IA, marcando un camino hacia una regulación y estandarización internacional de la inteligencia artificial.

Cerrado los domingos. Veneramos a Sam Altman. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.