Skip to main content

En un mundo cada vez más dominado por la inteligencia artificial (IA), la tecnología detrás de herramientas como ChatGPT ha comenzado a influir en aspectos fundamentales de la vida diaria, desde la selección de currículums hasta la asignación de viviendas y la atención médica. Sin embargo, esta omnipresencia de la IA ha venido acompañada de una preocupante falta de supervisión gubernamental, especialmente en lo que respecta a la discriminación sistémica que estas tecnologías pueden perpetuar.

Legisladores en al menos siete estados de EE. UU. están tomando medidas legislativas significativas para regular el sesgo en la inteligencia artificial, intentando llenar el vacío dejado por la inacción del Congreso. Estas propuestas representan los primeros pasos en una discusión que se extenderá por décadas sobre cómo equilibrar los beneficios de esta nueva tecnología con los riesgos documentados.

A medida que la inteligencia artificial se infiltra en la vida cotidiana, los estados de EE. UU. se apresuran a implementar regulaciones para combatir el sesgo y la discriminación.

La regulación de la IA presenta un desafío complejo para los legisladores, quienes deben navegar problemas intrincados mientras negocian con una industria valorada en cientos de miles de millones de dólares. El año pasado, solo una docena de los casi 200 proyectos de ley relacionados con la IA presentados en los estados fueron aprobados. Estos proyectos de ley, junto con los más de 400 que se debaten este año, se han centrado en regular aspectos específicos de la IA, como los deepfakes y los chatbots, para evitar que proporcionen instrucciones peligrosas o difundan contenido pornográfico falso.

Uno de los problemas más perversos y complejos de la IA es su tendencia a discriminar, favoreciendo ciertas razas, géneros o ingresos. Los sistemas de IA pueden aprender sesgos a través de los datos históricos en los que se entrenan, lo que puede incluir discriminaciones pasadas. Por ejemplo, Amazon tuvo que abandonar su proyecto de algoritmo de contratación después de descubrir que favorecía a los solicitantes masculinos, ya que estaba entrenado con currículums predominantemente masculinos.

Los proyectos de ley estatales que se están debatiendo, desde California hasta Connecticut, buscan regular la discriminación de la IA en todas las industrias. Estos proyectos requerirían que las empresas que utilizan herramientas de decisión automatizadas realicen «evaluaciones de impacto», incluyendo descripciones de cómo la IA influye en una decisión, los datos recopilados y un análisis de los riesgos de discriminación.

Aunque estas propuestas legislativas son un paso en la dirección correcta, la capacidad de estas evaluaciones para detectar sesgos sigue siendo vaga. Sin un acceso más amplio a los informes, es difícil saber si una persona ha sido discriminada por una IA. Una forma más intensiva pero precisa de identificar la discriminación sería requerir auditorías de sesgo y hacer públicos los resultados, algo a lo que la industria se opone, argumentando que expondría secretos comerciales.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.