Skip to main content

Amnistía Internacional ha lanzado su informe anual sobre el estado de los derechos humanos en el mundo, destacando una crisis global con abusos documentados en 155 países. Este exhaustivo análisis revela una escalada de conflictos armados, retrocesos en justicia de género, amenazas climáticas crecientes y un aumento preocupante en la vigilancia algorítmica, señalando un deterioro alarmante en el respeto y la protección de los derechos humanos a nivel mundial.

Uno de los temas centrales del informe es el impacto de la tecnología avanzada, incluida la inteligencia artificial, en los derechos humanos. Amnistía Internacional advierte que la falta de regulación en tecnologías emergentes como la IA y el reconocimiento facial está supercargando las violaciones de derechos humanos, con tecnologías que son utilizadas para discriminar y desinformar, particularmente en años electorales clave.

En su informe anual, Amnistía Internacional denuncia el uso desregulado de la inteligencia artificial, que potencia las violaciones de derechos humanos y urge una regulación global inmediata.

La organización hace un llamado urgente a los gobiernos y a las instituciones internacionales para implementar regulaciones estrictas que frenen el avance incontrolado de tecnologías que pueden ser utilizadas para fines nefastos, citando el uso extendido de la vigilancia algorítmica en los Juegos Olímpicos de 2024 y la impunidad policial como ejemplos de tecnologías que pueden perjudicar más que ayudar.

Amnistía Internacional ha destacado de manera significativa las implicancias que tiene la inteligencia artificial (IA) en los derechos humanos, según su informe anual. La organización denuncia que el avance rápido y desregulado de la IA, junto con la predominancia de las grandes tecnológicas, está «superpotenciando» las violaciones de los derechos humanos a nivel global. Este fenómeno se debe a la falta de regulaciones adecuadas que no han logrado mantener el ritmo con los avances tecnológicos.

El informe señala específicamente varios riesgos asociados con la IA que incluyen:

  • Vigilancia algorítmica: Se ha identificado un aumento en el uso de algoritmos para la vigilancia masiva, especialmente en eventos significativos como los Juegos Olímpicos de 2024. Esta vigilancia algorítmica puede conducir a la discriminación y el abuso, afectando desproporcionadamente a los grupos más marginados de la sociedad.
  • Reconocimiento facial: La tecnología de reconocimiento facial se ha implementado de manera extensiva para monitorear protestas públicas y eventos deportivos, poniendo en riesgo la privacidad y la libertad de expresión. Amnistía Internacional critica esta práctica por su potencial para reforzar políticas discriminatorias, especialmente contra comunidades marginadas.
  • Regulación y legislación: El informe critica la ausencia de una regulación eficaz sobre la IA y otras tecnologías emergentes, lo que permite que estas herramientas sean utilizadas para discriminar, desinformar y dividir. Amnistía Internacional urge a los gobiernos y a las instituciones internacionales a implementar leyes y regulaciones que restrinjan el uso indebido de la IA y protejan los derechos humanos.
  • Influencia de las grandes tecnológicas: La influencia considerable de las grandes empresas tecnológicas en la política y la economía global plantea un riesgo significativo para los derechos humanos. El informe expone cómo estas empresas pueden fomentar conflictos, desinformación y discriminación a través de sus plataformas y tecnologías.

Amnistía Internacional llama a una acción global para abordar estos problemas de manera urgente, recomendando una regulación más estricta de la inteligencia artificial y una mayor atención al impacto humano de estas tecnologías. Este llamado a la acción es crucial para garantizar que la IA se desarrolle y aplique de manera que respete y fomente los derechos humanos, en lugar de amenazarlos.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.