Meta planea reemplazar hasta el 90% de sus revisiones internas de privacidad, seguridad e integridad en Facebook, Instagram y WhatsApp con inteligencia artificial, según documentos internos obtenidos por NPR.
Durante años, Meta ha confiado en equipos humanos para revisar los riesgos asociados a nuevas funciones en sus plataformas, evaluando posibles impactos en la privacidad, la seguridad de menores y la propagación de desinformación. Sin embargo, la compañía planea automatizar hasta el 90% de estas evaluaciones, delegando en sistemas de inteligencia artificial la aprobación de cambios críticos en algoritmos, funciones de seguridad y políticas de contenido.
Esta decisión busca agilizar el lanzamiento de nuevas características, permitiendo a los desarrolladores implementar actualizaciones más rápidamente. No obstante, algunos empleados actuales y antiguos de Meta expresan preocupación por los posibles riesgos de permitir que la IA tome decisiones complejas que podrían tener repercusiones en el mundo real.
Preocupaciones internas y posibles consecuencias
La automatización de evaluaciones de riesgo ha generado inquietud entre el personal de Meta. Un exejecutivo de la compañía, que prefirió mantener el anonimato, señaló que esta medida podría aumentar la probabilidad de que cambios en los productos generen consecuencias negativas no previstas.
«En la medida en que este proceso significa que se lanzan más cosas más rápido, con menos escrutinio y oposición rigurosos, significa que estás creando mayores riesgos», afirmó el exejecutivo.
Aunque Meta asegura que la automatización se aplicará solo a decisiones de bajo riesgo y que los asuntos complejos seguirán siendo evaluados por expertos humanos, los documentos indican que la compañía considera automatizar revisiones en áreas sensibles como la seguridad de la IA, riesgos para menores y contenido violento o falso.
Contexto regulatorio y antecedentes
Desde 2012, Meta está bajo supervisión de la Comisión Federal de Comercio (FTC) de EE. UU. debido a preocupaciones sobre el manejo de la información personal de los usuarios. Como parte de este acuerdo, la compañía está obligada a realizar revisiones de privacidad para sus productos. La automatización de estas evaluaciones podría generar tensiones con los reguladores, especialmente si se percibe que se reduce el escrutinio humano en decisiones que afectan la seguridad y privacidad de los usuarios.
Implicaciones para los usuarios y la industria
La creciente dependencia de la IA en la toma de decisiones críticas plantea interrogantes sobre la capacidad de estas tecnologías para manejar situaciones complejas y éticamente sensibles. Además, podría sentar un precedente en la industria tecnológica, donde otras empresas podrían seguir el ejemplo de Meta, priorizando la eficiencia sobre la supervisión humana en áreas clave.
La decisión de Meta de automatizar la mayoría de sus evaluaciones de riesgo con inteligencia artificial marca un cambio significativo en su enfoque hacia la gestión de la privacidad y la seguridad. Este movimiento plantea importantes preguntas sobre la responsabilidad, la transparencia y la eficacia de la IA en la protección de los usuarios en plataformas digitales. Será crucial observar cómo responden los reguladores y cómo se adaptan otras empresas tecnológicas a esta tendencia emergente.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.