Skip to main content

En un esfuerzo por abordar las preocupaciones sobre la generación de contenido inapropiado por parte de su herramienta de inteligencia artificial, Copilot, Microsoft ha comenzado a implementar cambios significativos. La iniciativa surge tras la denuncia de un ingeniero de la compañía ante la Comisión Federal de Comercio (FTC) de Estados Unidos, quien alertó sobre la capacidad de Copilot para crear imágenes sexuales y violentas.

Copilot, basado en la tecnología DALL-E de OpenAI, había sido señalado por generar imágenes perturbadoras en respuesta a ciertas instrucciones o «prompts». Entre los ejemplos citados se incluían representaciones de menores involucrados en actividades peligrosas y mujeres en contextos sexualizados y violentos. La denuncia subrayaba la necesidad de Microsoft de adoptar medidas para alinear su herramienta con los principios de una IA responsable.

Ante la denuncia de uno de sus ingenieros, Microsoft toma medidas para asegurar que Copilot no genere imágenes inapropiadas.

En respuesta, Microsoft ha empezado a restringir la interpretación de ciertos prompts por parte de Copilot, con el objetivo de evitar la creación de este tipo de contenido. La compañía ha ajustado la herramienta para que rechace instrucciones que puedan violar sus políticas de contenido, emitiendo advertencias sobre posibles suspensiones de acceso en caso de infracciones.

Además, Microsoft ha reforzado sus filtros de seguridad y continúa monitoreando el uso de Copilot para prevenir abusos. La empresa ha expresado su compromiso con el fortalecimiento constante de las medidas de protección, asegurando que trabaja para mejorar la detección y prevención de contenidos inadecuados.

Este caso destaca la importancia de una supervisión y regulación efectivas en el desarrollo y despliegue de tecnologías de inteligencia artificial. La capacidad de las IA para generar contenido que refleje o incluso exacerbe problemas sociales y éticos subraya la necesidad de un enfoque cuidadoso y responsable por parte de las empresas tecnológicas.

La actuación de Microsoft en este asunto refleja un paso adelante en la dirección correcta, demostrando la voluntad de la
compañía de abordar las preocupaciones éticas y sociales asociadas con el uso de la inteligencia artificial. Sin embargo, este episodio también sirve como un recordatorio de los desafíos continuos que enfrentan las empresas tecnológicas en la gestión de las capacidades y el impacto de la IA en la sociedad.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.