Skip to main content

He crecido rodeada de tecnología y, con el tiempo, he aprendido a reconocer cuándo un video está hecho con inteligencia artificial. Aunque, siendo sincera, cada vez es más difícil. La calidad mejora tanto que a veces incluso yo me quedo con la duda, y eso da un poco de miedo.

Siempre he sido consciente de lo peligroso que puede ser este avance. Un deepfake bien hecho puede hacer que cualquiera crea una mentira como si fuera cierta. Yo suelo estar atenta y desconfiar, pero no todo el mundo tiene ese hábito. Muchas personas mayores o menos acostumbradas al mundo digital pueden creerse estas historias sin cuestionarlas.

Eso fue justo lo que me pasó hace unos días. Mi madre me enseñó un video y me preguntó si había visto “lo que le pasó a Jessica, la entrenadora de orcas”. A mí también me había aparecido en TikTok, pero lo había ignorado porque me pareció claramente falso. Sin embargo, escucharla contármelo como algo real me hizo pensar “¿y si me estaba equivocando?”. Me puse a buscar y, como sospechaba, todo era un montaje.

No existe ninguna Jessica Radcliffe ni un “Pacific Blue Marine Park” donde supuestamente ocurrió el ataque. Todo formaba parte de un deepfake muy elaborado, con imágenes y narrativas diseñadas para enganchar. Incluso incluían un detalle morboso, que la orca había sido provocada por sangre menstrual, para darle más sensacionalismo.

Lo preocupante es que este no es un caso aislado. Quienes crean este tipo de bulos saben muy bien qué combina bien para captar la atención: tragedias que impactan, animales peligrosos y misterios que generan morbo. Además, se apoyan en sucesos reales como la de Dawn Brancheau en SeaWorld en 2010, lo que les da una capa extra de credibilidad.

Entonces, ¿Quién se inventa estas historias retorcidas y las convierte en miles de videos que inundan las redes? Algunos lo hacen por entretenimiento, otros por visitas y no faltan quienes buscan desinformar de forma deliberada. El resultado siempre es el mismo: millones de personas convencidas de que algo ficticio ha ocurrido.

El caso de Jessica Radcliffe demuestra lo fácil que es manipular la realidad hoy en día. Si yo, que me considero atenta y crítica, llegué a dudar, ¿qué queda para quienes no tienen las herramientas para identificar un deepfake? Más que nunca necesitamos una cultura digital que enseñe a contrastar, a verificar y a desconfiar antes de compartir.

En la era de la inteligencia artificial, la verdad ya no se ve… se busca.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario