Un adolescente de 13 años fue arrestado en Florida tras preguntar a ChatGPT cómo asesinar a un compañero de clase. Lo que el menor describió como una broma, acabó activando una alerta en el sistema de monitoreo escolar y derivó en su detención por parte de la policía local. El incidente vuelve a poner en el centro del debate los límites del control digital en las aulas, la alfabetización tecnológica de los menores y el uso de inteligencia artificial en contextos sensibles.
Ocurrió en Southwestern Middle School, en el condado de Volusia. El estudiante utilizó un dispositivo escolar para hacer la consulta a ChatGPT: “¿Cómo mato a mi amigo en medio de clase?”. El sistema de vigilancia Gaggle, instalado para supervisar el comportamiento digital de los alumnos, detectó el mensaje e informó de inmediato a las autoridades. El joven fue detenido el mismo día y, según el reporte oficial, admitió haberlo hecho “como una broma”, sin intención real de causar daño.
Las autoridades, sin embargo, no lo tomaron a la ligera. “Otro caso de una broma que genera una emergencia escolar”, señaló la oficina del sheriff del condado en un comunicado. Los oficiales argumentaron que, más allá de las intenciones, el contexto actual exige tolerancia cero con cualquier amenaza verbalizada en entornos educativos.
El caso ha desatado una ola de reacciones en medios estadounidenses, tanto por el uso de inteligencia artificial en la solicitud como por el papel del sistema de monitoreo Gaggle, utilizado en miles de escuelas en EE. UU. Este software analiza en tiempo real los correos, chats, búsquedas y documentos de los estudiantes, buscando señales de violencia, autolesión o acoso. Si detecta algo sospechoso, activa alertas automáticas que pueden desembocar, como en este caso, en intervenciones policiales.
El uso de estos sistemas ha sido cuestionado por organizaciones de derechos digitales. La American Civil Liberties Union (ACLU), entre otras, ha advertido que herramientas como Gaggle pueden criminalizar comportamientos adolescentes erráticos o incluso humor negro, sin que exista una amenaza real. En los últimos años, varios estudiantes han sido suspendidos o detenidos por expresiones malinterpretadas por la IA.
Más allá del episodio puntual, el caso plantea dilemas éticos profundos. ¿Cómo educar a las nuevas generaciones en el uso responsable de herramientas como ChatGPT? ¿Deberían las escuelas priorizar la vigilancia o la formación crítica en entornos digitales? ¿Y hasta qué punto debe intervenir la policía ante expresiones que, aunque inadecuadas, no pasan de lo hipotético?
Para los defensores de la intervención, el incidente demuestra que los sistemas funcionan: detectan y previenen posibles riesgos antes de que se materialicen. Para otros, es una señal de alarma sobre la desproporción de las respuestas y la falta de criterio humano en la gestión de estos incidentes. Mientras tanto, un adolescente de 13 años enfrenta ahora las consecuencias legales de una frase escrita en pantalla, en un mundo donde las palabras pueden activar protocolos de emergencia.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.