Skip to main content

Aprender a convivir con el algoritmo

Primero fueron las alarmas. Luego, el silencio. Hoy, en muchas universidades chinas, el uso de inteligencia artificial ya no es trampa ni amenaza, es herramienta. Algo así como pasar de esconder la calculadora a enseñarla en clase. Según el instituto Mycos, menos del uno por ciento del alumnado y profesorado evita estas tecnologías. El resto las usa con una naturalidad que empieza a parecer rutina. La revista MIT Technology Review resumía este giro institucional como un cambio de enfoque: de evitar a enseñar, de temer a integrar.

Cómo se entrena una nueva intuición

La dinámica se ha vuelto cotidiana para generar esquemas, buscar bibliografía, reordenar ideas. Y no es solo ChatGPT. Modelos locales como DeepSeek se cuelan entre apuntes y trabajos finales. Algunas universidades incluso ofrecen talleres para usar estas herramientas con criterio. Porque no se trata solo de saber usarlas, sino de saber cuándo no usarlas. Y eso, al parecer, también se entrena.

Modelos propios, filtros propios

No todo está permitido. Y no todo está disponible. El acceso a plataformas globales sigue limitado por el cortafuegos nacional. Muchos estudiantes se conectan a través de VPN. Otros optan por herramientas diseñadas en casa, entrenadas en chino y adaptadas a la sensibilidad del entorno. Las universidades actúan como mediadoras dando acceso, poniendo normas, y confíando en que el equilibrio aguante.

Límites que también se enseñan

Algunas instituciones han dibujado sus propias líneas rojas. Fudan, una de las universidades más prestigiosas de China con sede en Shanghái, se ha convertido en un referente a la hora de delimitar qué usos de la IA son admisibles en el entorno académico. Se prohíbe usar IA en el diseño de investigaciones, análisis de datos o redacción de tesis sin supervisión. Sí se permite en tareas preparatorias, con autorización docente. Las consecuencias van del suspenso a la anulación del título. Es una forma de dejar claro que aquí no todo vale. Ni todo se improvisa.

El detector que también se equivoca

La vigilancia tiene forma de software. Muchos centros emplean detectores de contenido generado por IA. Pero el sistema no siempre acierta. Algunos trabajos han sido marcados como «sospechosos» por el estilo, no por el fondo. Estudiantes que solo usaron IA para revisar una frase vieron su tesis bajo lupa. Como respuesta, han surgido herramientas para esquivar al detector. Un juego de espejos donde la picaresca ya no busca copiar, sino parecer más humana que la máquina.

Una estrategia con pulso estatal

Durante el gaokao, el examen nacional, las principales tecnológicas chinas apagaron temporalmente sus asistentes de IA. Fue un gesto coordinado, decidido desde arriba. La señal era clara: hay momentos donde el sistema se reserva el control. A diferencia de otros países donde el debate sigue encallado en dilemas abstractos, en China ya se ensaya un modelo concreto. Con reglas, con excepciones, con vigilancia.

Saber usarla también entra en el examen

El aula ha cambiado. No por una revolución, sino por acumulación. Pequeños gestos, decisiones administrativas, talleres opcionales. Y de pronto, usar IA ya no es un tabú, sino parte del currículo. Pero cada avance deja una pregunta: ¿cuánto de esta convivencia es aprendizaje, y cuánto es adaptación? El experimento sigue en marcha. Y la clase, en curso.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Dejar un comentario