Por qué investigadores piden normas más claras para que la inteligencia artificial no erosione la credibilidad de la ciencia
En los últimos meses, crecientes voces dentro de la comunidad científica han encendido una alarma. La adopción masiva de herramientas de inteligencia artificial en la investigación está poniendo en tensión el rigor y la calidad de la ciencia. La preocupación no es una crítica a la tecnología en sí, sino a cómo se está integrando en un sistema —el académico— que aún no tiene reglas claras para evaluarla y gestionarla.
La avalancha de artículos de calidad cuestionable
Un estudio liderado por investigadores de la Universidad de Surrey, publicado en PLOS Biology, puso cifras a una tendencia inquietante, trabajos científicos basados en grandes bases de datos —como la encuesta nacional de salud de Estados Unidos (NHANES)— se multiplicaron de forma abrupta en pocos años, pasando de solo unos pocos hasta casi doscientas publicaciones en 2024. Muchos de esos artículos usaban análisis superficiales o simplistas que, aunque estadísticamente significativos, no sostienen conclusiones sólidas bajo escrutinio riguroso. Los autores advierten que, a medida que la IA facilita el análisis de datos y la redacción de texto, las publicaciones “manufacturadas” podrían empezar a ser indistinguibles de los trabajos bien fundamentados.
Informes paralelos advierten sobre patrones todavía más preocupantes cómo los textos con citas inventadas, conclusiones exageradas o sin base experimental robusta y proliferación de lo que algunos críticos llaman “slop” —contenido de apariencia académica pero calidad superficial— que satura revistas y conferencias y dificulta el proceso de revisión por pares tradicional.
El sistema de revisión se ve desbordado
Uno de los efectos más directos de este auge es la presión sobre la revisión científica. En campos como la inteligencia artificial, donde los congresos y eventos aceptan un número creciente de trabajos, los estándares de revisión son a menudo más rápidos y menos exhaustivos que en disciplinas clásicas como la biología o la química. Esto deja huecos donde trabajos de baja robustez metodológica pueden colarse y, al mismo tiempo, aglomeran a los revisores con volumen sin suficiente profundidad.
La consecuencia es doble, por un lado, se ralentiza la evaluación de investigaciones con aportes significativos, y por otro, se diluye la señal frente al ruido en la literatura científica, debilitando la fiabilidad global de la ciencia publicada.
Peticiones de normas claras y aplicaciones éticas
En respuesta, varias instituciones académicas y editoriales han empezado a reclamar políticas más claras sobre el uso de IA en la investigación. Un sondeo promovido por Wiley, basado en datos recogidos por la herramienta Proofig, mostró que muchos investigadores ven como principal obstáculo la falta de directrices explícitas sobre cómo aplicar la IA de forma ética y eficaz, y cerca del 70 % pidió a las revistas que definan reglas claras sobre su uso en publicaciones.
En Europa, talleres y grupos de trabajo que apoyan al Consejo Científico Asesor de la Comisión Europea han desarrollado informes que ayudan a aclarar qué puede hacer la IA en contextos críticos, qué datos necesita y por qué la supervisión humana sigue siendo esencial. Estos documentos subrayan la importancia de mantener la responsabilidad del investigador y no delegar decisiones clave únicamente a sistemas automatizados.
Diez reglas prácticas para usar IA sin perder el norte
Un artículo reciente en arXiv ha sintetizado el debate desde una perspectiva operativa. Titulado «Ten Simple Rules for AI-Assisted Coding in Science», propone diez reglas para mantener el rigor cuando se usa IA para programar o analizar datos científicos. No se trata de recomendaciones editoriales, sino de pautas de trabajo para el día a día del investigador. Algunas claves:
- Comprender antes de automatizar: usar IA no exime de conocer a fondo el problema científico.
- Gestionar bien el contexto: dividir tareas, mantener claridad y coherencia en las instrucciones a la IA.
- Validar con pruebas independientes: preparar tests antes de generar código y usarlos para comprobar su funcionamiento.
- Revisar y documentar cada paso: todo código generado debe revisarse, comentarse y contrastarse con otras soluciones.
- No delegar la responsabilidad: aunque la IA escriba, el científico es quien responde ante la comunidad.
El artículo también plantea desafíos éticos como el impacto ambiental de los grandes modelos, la autoría del código generado y el riesgo de delegar decisiones sin supervisión.
El contexto español: transparencia y ética
La preocupación no se limita a debates técnicos. En España, científicos reunidos en foros como la Confederación de Sociedades Científicas (COSCE) llamaron a reforzar la transparencia y el rigor científico en el uso de la IA, apuntando incluso al riesgo de que la presión por publicar supere el compromiso con la ética y la solidez de los resultados.
Estos debates se entrelazan con iniciativas más amplias sobre ética y gobernanza de la IA, que buscan establecer normas que reduzcan riesgos sin frenar el avance científico, un equilibrio delicado que también preocupa en otros foros internacionales.
Lo que está en juego
El fondo de estas discusiones es simple pero profundo, la ciencia se basa en la fiabilidad y la reproducibilidad. Cuando herramientas como la IA aceleran ciertas etapas del proceso —análisis de datos, generación de texto, redacción de conclusiones— sin normas claras sobre su uso y límites, se corre el riesgo de socavar la credibilidad de los resultados. Esto no afecta sólo a la academia, sino también a cómo la sociedad confía en la ciencia para responder a desafíos complejos, desde la salud pública hasta la crisis climática.
Hacia normas que acompañen al avance
Frente a estos retos, el consenso emergente entre investigadores es que la integración de la IA en la investigación debe ir acompañada de directrices claras, transparencia en cómo se utiliza y mecanismos de revisión que reconozcan sus particularidades. Solo así puede la comunidad científica asegurar que la velocidad no sustituya a la validez, y que la innovación potencie, en lugar de diluir, el rigor que hace fiable a la ciencia.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.