Skip to main content

La inteligencia artificial (IA) ha permeado silenciosamente todos los aspectos de la vida cotidiana, desde la selección de currículums hasta la asignación de apartamentos y la determinación de cuidados médicos. Sin embargo, esta omnipresencia viene acompañada de una preocupación creciente: el sesgo de la IA, que puede favorecer a ciertos grupos sobre otros basándose en raza, género o ingresos. Frente a la escasa supervisión gubernamental, legisladores de al menos siete estados de EE. UU. están tomando medidas legislativas significativas para regular el sesgo en la inteligencia artificial, llenando un vacío dejado por la inacción del Congreso.

Estas propuestas representan los primeros pasos en una larga discusión sobre cómo equilibrar los beneficios de esta nueva tecnología con los riesgos ampliamente documentados. «La IA afecta cada parte de tu vida, lo sepas o no», afirma Suresh Venkatasubramanian, profesor de la Universidad de Brown y coautor del Plan de Derechos de IA de la Casa Blanca.

Ante la expansión de la IA en la vida cotidiana, los estados buscan establecer controles para combatir la discriminación y garantizar la equidad.

El éxito o fracaso de estas iniciativas legislativas dependerá de la capacidad de los legisladores para abordar problemas complejos mientras negocian con una industria valorada en cientos de miles de millones de dólares y que crece a una velocidad impresionante. El año pasado, solo una docena de los casi 200 proyectos de ley relacionados con la IA presentados en las legislaturas estatales se convirtieron en ley.

Las propuestas actuales, que abarcan desde la regulación de deepfakes hasta intentos de controlar chatbots como ChatGPT, buscan establecer límites en la discriminación por IA, uno de los problemas más perversos y complejos de la tecnología. Los estados están intentando regular el uso de «herramientas de decisión automatizadas», que son omnipresentes pero en gran medida ocultas, y que se estima son utilizadas por hasta el 83% de los empleadores en sus procesos de contratación.

La falta de transparencia y responsabilidad es un objetivo clave de estas legislaciones, siguiendo el ejemplo de una propuesta fallida en California el año pasado. Bajo las nuevas leyes, las empresas que utilicen estas herramientas automatizadas tendrían que realizar «evaluaciones de impacto», incluyendo descripciones de cómo la IA incide en una decisión, los datos recopilados y un análisis de los riesgos de discriminación, junto con una explicación de las salvaguardias de la empresa.

Algunas de las propuestas también requerirían que las empresas informen a los clientes que se utilizará IA en la toma de decisiones y les permitan optar por no participar, con ciertas excepciones. Aunque la industria tecnológica, representada por grupos como BSA The Software Alliance, se muestra en general a favor de algunas de las medidas propuestas, como las evaluaciones de impacto, el camino hacia la legislación ha sido lento, con varios proyectos de ley ya estancados o fallidos.

A pesar de los desafíos, estas iniciativas legislativas marcan el comienzo de un esfuerzo por parte de los legisladores y los votantes para lidiar con una tecnología que se está volviendo omnipresente. «Cubre todo en tu vida. Solo por eso deberías preocuparte», señala Venkatasubramanian. La lucha por una IA ética y responsable es solo el principio de un largo camino hacia la regulación de una tecnología que promete remodelar todos los aspectos de la sociedad.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.