Si la “alucinación” es la IA inventando lo que no existe, la “ablación semántica” es la IA borrando lo que sí existe: matiz, precisión y señal propia en nombre de un texto “limpio”.
Durante el último año, la conversación pública sobre modelos generativos se ha concentrado en el error aditivo: lo que el sistema se inventa, lo que “alucina”, lo que añade a un texto con seguridad impostada. Pero hay un daño más difícil de detectar y quizá más corrosivo, precisamente porque no hace ruido: lo que el sistema quita. En un artículo de opinión en The Register, el autor propone un término para nombrar esta dinámica: ablación semántica. Y la define como la erosión algorítmica de información de alta entropía: esos fragmentos raros, precisos, difíciles y auténticos que hacen que un texto sea reconocible, argumente de verdad y no suene a plantilla.
La tesis va más allá de “la IA escribe soso”. Señala un sesgo estructural —no un bug puntual— que nace de cómo se generan las frases y de cómo se ajustan los modelos para que sean “útiles” y “seguros”. El resultado, si se usa la IA como pulidora automática, no es una mejora: es una cirugía estética que, a fuerza de suavizar, deshuesa.
Qué es la ablación semántica y por qué no es un accidente
La ablación semántica describe un fenómeno sutil: cuando pasas un texto humano por un proceso de “refinamiento” con IA, el sistema tiende a desplazarse hacia el centro de lo probable, descartando la “cola” de lo improbable: palabras raras, términos técnicos precisos, metáforas inusuales, giros sintácticos con fricción, y —sobre todo— el subtexto que no se deja reducir a una fórmula.
En el artículo, se apunta a dos mecanismos que empujan en esa dirección:
- Decodificación codiciosa (greedy decoding): el sistema privilegia, paso a paso, la opción más probable en cada punto de la frase.
- Ajuste por refuerzo con retroalimentación humana (RLHF): el modelo aprende a maximizar señales de “preferencia” (que suenen bien, que sean correctos en tono, que no sean conflictivos), lo cual premia salidas suaves y penaliza fricción.
Esta combinación genera una tendencia: en vez de conservar “señal” (lo específico), la IA conserva “fluidez” (lo genérico). No porque “quiera” engañar, sino porque optimiza para no incomodar y para parecer competente ante el lector medio.
Por qué termina siendo genérico: el “viaje” al promedio
El texto de The Register lo explica con una metáfora potente: lo que era una estructura románica, irregular y precisa, se va erosionando hasta parecer una carcasa plástica barroca, pulida, impecable… y hueca. Puede “parecer” mejor a primera vista porque está libre de asperezas, pero ha perdido densidad: el músculo argumental, la singularidad verbal, el olor a experiencia.
Ese desplazamiento al promedio tiene una lógica estadística: en un sistema entrenado para adivinar la siguiente palabra, la originalidad suele vivir en los bordes. Y los bordes, por definición, aparecen menos en el entrenamiento, son menos seguros, más arriesgados. Si además el ajuste de seguridad y “ayuda” penaliza lo que suena raro o intenso, el algoritmo aprende a rebajar cualquier aspereza.
El peligro: una “carrera civilizatoria hacia el centro”
El artículo no se queda en estética. Sostiene que estamos construyendo un ecosistema comunicativo donde la complejidad del pensamiento se sacrifica en el altar de la suavidad algorítmica. Y lo formula con otra imagen incisiva: el texto resultante se parece a un “JPEG del pensamiento”: coherente a simple vista, pero con pérdida irreversible de información, porque ha sido comprimido hasta eliminar su densidad original.
¿Por qué eso sería “peligroso”? Por tres razones prácticas:
- Homogeneización cultural: si millones de textos pasan por los mismos filtros de “buen tono” y “claridad estándar”, las voces se aplanan. No es censura explícita; es una convergencia silenciosa.
- Empobrecimiento del criterio: si lo que se premia es lo “legible” y lo “amable”, el lector aprende a confundir suavidad con verdad, y estructura impecable con contenido sólido.
- Degradación del conocimiento aplicado: en ámbitos técnicos (medicina, derecho, ciencia, economía), la precisión no es pedantería: es seguridad. Sustituir un término raro por un sinónimo común puede cambiar el significado de una recomendación, una cláusula o un diagnóstico.
La ablación semántica, por tanto, no solo produce textos aburridos; produce textos engañosamente fiables: parecen correctos, pero han perdido justo lo que permitía detectar matices, incertidumbres o condiciones.
Cómo se manifiesta: tres etapas de “lobotomía” textual
The Register propone que este vaciado ocurre en fases reconocibles, como un proceso de “refinamiento” que va desarmando la intención del autor:
- Limpieza metafórica
El modelo identifica metáforas poco comunes o imágenes viscerales como “ruido” porque se desvían del promedio del entrenamiento. Las reemplaza por clichés seguros. El texto pierde fricción sensorial y emocional. - Aplanamiento léxico
Los tecnicismos y términos de alta precisión se sacrifican por “accesibilidad”. Estadísticamente, se cambia un token raro por un sinónimo frecuente: baja la densidad semántica y el argumento pierde gravedad específica. - Colapso estructural
El razonamiento no lineal y el subtexto se fuerzan dentro de una plantilla predecible: introducción-problema-solución-conclusión, con transiciones limpias y “puntuación perfecta”. Se gana legibilidad superficial y se pierde inteligencia real: queda una concha gramatical correcta, pero con menos pensamiento.
El punto crítico es que estas tres fases suelen ser celebradas como “mejora”: más claridad, más orden, más accesibilidad. Y sin embargo, en textos con valor —periodismo, ensayo, análisis— gran parte del valor está precisamente en lo que no es estándar.
Se puede medir: la entropía se desploma
El artículo sugiere medirlo con “decaimiento de entropía”: si haces pasar un texto por bucles sucesivos de “refinamiento”, cae la diversidad de vocabulario (por ejemplo, la ratio tipo-token), se reducen las palabras raras y aumenta la proporción de conectores y fórmulas.
Esto encaja con una observación empírica que muchos redactores ya han notado: un primer borrador humano puede tener bordes; dos rondas de “hazlo más claro y profesional” suelen producir una voz genérica que podría firmar cualquiera.
Qué hacer si usas IA para escribir sin perderte por el camino
El concepto de ablación semántica es útil porque permite pasar de la queja (“suena a IA”) a la disciplina (“¿qué estoy perdiendo?”). Algunas prácticas para minimizarla:
- Evitar el “pulido total”: no pedir “mejora el texto” sin especificar qué conservar. Mejor: “corrige erratas sin cambiar metáforas, ritmo ni tecnicismos”.
- Congelar el léxico crítico: marcar términos que no deben sustituirse (nombres técnicos, conceptos clave, frases-signatura).
- Usar la IA como espejo, no como lijadora: pedir alternativas puntuales (“dame 3 versiones de este párrafo manteniendo tono y precisión”) y elegir, en lugar de aceptar reescritura integral.
- Una regla de oro: si el texto quedó “demasiado perfecto”, revisar lo que se ha perdido: ¿hay menos ejemplos concretos? ¿menos números? ¿menos verbos fuertes? ¿menos postura?
La calidad no es ausencia de asperezas; a menudo, es selección consciente de asperezas.