Skip to main content

Una inteligencia artificial, entrenada para detectar textos escritos por otras inteligencias artificiales, ha empezado a rastrear la literatura científica con ojo clínico. Lo que ha encontrado no es un error, sino un síntoma. Y plantea preguntas urgentes sobre cómo se construye el discurso académico en la era del lenguaje automático.

Cuando el resumen viene redactado

Lo llaman manuscrito, pero muchas veces es un resumen. Una introducción pulida. Un apartado de métodos que encaja como un guante. Desde fuera parece impecable. Pero algo en el ritmo, en la elección de palabras, en la textura del texto, delata otra autoría. Entre 2021 y 2024, más de 46.000 documentos científicos fueron analizados por una IA entrenada para cazar fragmentos escritos por otras IAs. Más del 23% de los resúmenes enviados a las revistas de la American Association for Cancer Research (AACR) en 2024 mostraban señales de lenguaje generado automáticamente. También los comentarios de revisión por pares —teóricamente humanos, rigurosos, personales— incluían IA, un 5%, a pesar de estar prohibido.

El modelo que imita al imitador

La herramienta que ha puesto los datos sobre la mesa es obra de Pangram Labs. La entrenaron con millones de textos escritos por humanos antes de 2021. Y luego le añadieron una capa más con textos generados por IA que imitaban con precisión quirúrgica el estilo científico. Así aprendió a distinguir lo escrito por personas de lo redactado por modelos como ChatGPT, Claude o LLaMa. Con una precisión que supera el 99%. Y una tasa de error que apenas roza uno entre diez mil.

Redactar no es traducir

Lo más inquietante no es el porcentaje, si no el lugar donde aparece. La mayoría de usos detectados estaban en la sección de métodos. Esa parte del artículo donde no caben adornos ni metáforas. Solo hechos. Si ahí el lenguaje se vuelve ambiguo, la ciencia se emborrona. Daniel Evanko, director editorial en la AACR, expresó durante el Congreso Internacional de Revisión por Pares —según recogió Nature— su preocupación por el uso de modelos de lenguaje en secciones técnicas como la de métodos, donde un cambio sutil en la redacción puede llevar a errores de interpretación. La IA ayuda, pero también puede confundir.

Idioma prestado, precisión prestada

Muchos de los textos generados por IA venían de países donde el inglés no es lengua nativa. La tecnología sirve como corrector, traductor, estilista. Pero ese apoyo lingüístico tiene un coste. No siempre se nota. A veces, basta una palabra suavizada para alterar el tono. Una frase mejor construida para cambiar el énfasis. O un sinónimo que no es sinónimo. El lenguaje, cuando es técnico, no perdona.

Prohibido, pero frecuente

La AACR prohibió el uso de IA en las revisiones por pares en 2023. Aun así, el número de comentarios generados aumentó en 2024. No es un fallo del sistema, es el sistema. Porque las herramientas se integran sin hacer ruido. Porque el texto parece legítimo. Porque la línea entre ayuda y delegación completa es tan borrosa como una cita mal escrita.

Escribir ya no es lo que era

La detección de texto generado por IA no es un final. Es un inicio. La pregunta ya no es si alguien ha usado ChatGPT para redactar. si no qué significa escribir en un contexto donde el lenguaje también puede ser sintético. Las revistas quieren más transparencia. Las herramientas afinan. Las firmas como Clear Skies celebran el avance, pero avisan que los sesgos también pueden estar en la lupa. La ciencia, mientras tanto, sigue escribiéndose. A veces por humanos. A veces no. Y casi nunca lo dice en voz alta.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario