Skip to main content

Un reciente estudio realizado por The Lucy Faithfull Foundation, una organización del Reino Unido dedicada a la prevención y concienciación contra el abuso sexual, ha arrojado luz sobre una preocupante brecha de conocimiento entre los ciudadanos británicos respecto a la legalidad y los riesgos asociados con el material de abuso sexual infantil generado por inteligencia artificial (IA). Sorprendentemente, el 40% de los encuestados en el Reino Unido creía que este tipo de material era legal, desconociendo su ilegalidad.

Además, el estudio reveló que el 66% de la población teme que la IA pueda tener efectos perjudiciales en los niños, mientras que un 70% desconocía por completo que la IA se está utilizando para generar material de abuso sexual infantil (CSAM, por sus siglas en inglés). A pesar de esta falta de conocimiento, el 88% de los encuestados afirmó que las imágenes sexuales o de abuso de menores de 18 años generadas por IA deberían ser ilegales en el Reino Unido.

Un alarmante 40% de los ciudadanos del Reino Unido desconoce que el material de abuso sexual infantil generado por IA es ilegal, revela un estudio de The Lucy Faithfull Foundation.

La fundación está intensificando sus esfuerzos para concienciar sobre cómo los delincuentes utilizan imágenes de niños reales para crear CSAM, subrayando las graves consecuencias legales para estos infractores en el Reino Unido. Según la fundación, no solo la IA es responsable de la creación de imágenes sexuales de menores. Los delincuentes también utilizan rostros de niños que han sido previamente abusados para transformar sus imágenes en CSAM, lo que hace que los niños que han sido abusados en el pasado revivan su trauma.

Doald Findlater, director de la línea de ayuda Stop It Now, señala que el público no está plenamente consciente de cómo se está utilizando la IA para crear imágenes sexuales de niños. A medida que la IA avanza, es crucial que el público se eduque sobre los posibles efectos nocivos que la IA puede causar a otras personas. Existen especulaciones de que algunos modelos de aprendizaje automático podrían estar entrenados en CSAM, lo que solo podría lograrse combinando conceptos como «niño» y «contenido explícito».

Este estudio destaca la necesidad urgente de una mayor educación y concienciación sobre el papel de la IA en la producción de CSAM y los riesgos asociados con el abuso sexual infantil en la era digital.

Alucina con Paréntesis. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.