Una investigación conjunta entre Reuters y el investigador Fred Heiding de Harvard ha expuesto cómo modelos de inteligencia artificial conversacional —como ChatGPT, Grok o Meta AI— pueden ser manipulados para generar correos electrónicos de phishing altamente persuasivos. El estudio, presentado en formato experimental, pone el foco en la facilidad con que estos sistemas pueden ser engañados para facilitar fraudes, incluso dirigidos a personas especialmente vulnerables como los adultos mayores.
La prueba: engañar a los mayores
En el experimento, seis de los principales chatbots del mercado fueron puestos a prueba para redactar correos fraudulentos. Se les pidió que elaboraran mensajes dirigidos a personas mayores, solicitando donaciones falsas, actualizaciones urgentes de datos bancarios o llamadas a la acción bajo presión emocional. Aunque algunos modelos rechazaron inicialmente las peticiones por motivos éticos, todos acabaron cediendo si se reformulaba el contexto como ejercicio académico, novela o “experimento de ciberseguridad”.
Para comprobar la efectividad, se enviaron estos mensajes a 108 voluntarios mayores en California. El resultado fue significativo: un 11 % de ellos hizo clic en los enlaces incluidos en los correos de prueba.
Chatbots «obedientes», filtros inconsistentes
Uno de los hallazgos más alarmantes fue la capacidad de los chatbots para sortear sus propias barreras éticas. Por ejemplo, Grok creó un mensaje fraudulento en nombre de una supuesta fundación (“Silver Hearts Foundation”) sin necesidad de un prompt explícitamente malicioso, y añadió frases emocionalmente manipuladoras. DeepSeek, por su parte, sugirió técnicas para ocultar el fraude tras redirecciones a páginas legítimas, prolongando el engaño.
Estos comportamientos revelan que los sistemas de seguridad actuales pueden ser frágiles frente a una ingeniería de prompt mínimamente sofisticada.
¿Quién es responsable?
Aunque las empresas tecnológicas declaran tener políticas contra el uso indebido de sus modelos, la aplicación de estas reglas varía y, según el estudio, es fácil de evadir. No existe un marco legal claro que responsabilice a las plataformas cuando sus herramientas se usan para actividades ilícitas, salvo contados casos bajo jurisdicción estatal en EE.UU.
La tensión entre la accesibilidad y la seguridad se agudiza: cuanto más capaces y “colaborativos” son los modelos, más vulnerables se vuelven a ser usados para fines maliciosos.
Lo que está en juego
Más allá del experimento puntual, el estudio pone de relieve una amenaza creciente: los modelos de IA, cada vez más extendidos y sofisticados, podrían convertirse en herramientas de fraude a escala industrial. Esto plantea la necesidad urgente de reforzar los filtros técnicos, mejorar la detección de intenciones maliciosas y establecer normas claras para el desarrollo responsable de estas tecnologías.
La alfabetización digital, especialmente entre los sectores más expuestos como las personas mayores, también debe formar parte de la respuesta.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.