Skip to main content

Google ha emitido una disculpa pública debido a lo que describe como «inexactitudes en algunas representaciones de generación de imágenes históricas» con su herramienta de inteligencia artificial Gemini. La compañía reconoció que sus intentos de crear una «amplia gama» de resultados no fueron acertados, tras las críticas recibidas por representar figuras históricas específicas, como los Padres Fundadores de Estados Unidos o soldados alemanes de la época nazi, como personas de color. Esto podría interpretarse como una sobrecompensación ante los problemas de sesgo racial de larga data en la IA.

Google pide disculpas tras la controversia generada por su herramienta de IA Gemini

La declaración de Google, publicada en la plataforma X, indica: «Somos conscientes de que Gemini está ofreciendo inexactitudes en algunas representaciones de generación de imágenes históricas. Estamos trabajando para mejorar inmediatamente este tipo de representaciones. La generación de imágenes de IA de Gemini sí produce una amplia gama de personas, y eso generalmente es algo positivo porque personas de todo el mundo la utilizan. Pero aquí no está acertando».

La controversia surgió principalmente, aunque no exclusivamente, por figuras de derecha que atacaban a una empresa tecnológica percibida como liberal. Un ex empleado de Google publicó en X que era «embarazosamente difícil hacer que Google Gemini reconociera la existencia de personas blancas», mostrando una serie de consultas como «generar una imagen de una mujer sueca» o «generar una imagen de una mujer estadounidense». Los resultados parecían mostrar abrumadora o exclusivamente a personas de color generadas por IA.

Google no hizo referencia a imágenes específicas que considerara erróneas, pero es plausible que Gemini haya intentado aumentar la diversidad debido a la falta crónica de la misma en la IA generativa. Los generadores de imágenes se entrenan en grandes corpus de imágenes y subtítulos escritos para producir el mejor ajuste para una solicitud dada, lo que significa que a menudo son propensos a amplificar estereotipos.

Por ahora, Gemini parece estar simplemente rechazando algunas tareas de generación de imágenes. No generaría una imagen de vikingos para un reportero de The Verge, aunque yo pude obtener una respuesta. En el escritorio, se negó rotundamente a darme imágenes de soldados o funcionarios alemanes del período nazi de Alemania o a ofrecer una imagen de «un presidente estadounidense de los años 1800».

Alucina con Paréntesis. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.