Un experimento revela que los sistemas de selección automatizada eligen versiones de currículums reescritas por IA hasta el 97,6% de las veces, incluso cuando los humanos consideran mejores las originales.
La promesa de la inteligencia artificial aplicada a la selección de talento siempre ha sido clara: procesos más rápidos, más objetivos y menos sesgados. Pero un nuevo experimento pone en cuestión esa narrativa con una conclusión incómoda: los sistemas de IA no solo evalúan a los candidatos, sino que pueden favorecer sistemáticamente a quienes escriben como ellos. En otras palabras, la máquina no solo selecciona talento; premia su propio estilo.
El estudio, difundido inicialmente a través de un hilo que ha generado amplio debate en redes sociales, parte de una premisa aparentemente sencilla. Un equipo de investigadores de la Universidad de Maryland, la National University of Singapore y Ohio State recopiló 2.245 currículums reales redactados por humanos antes de la irrupción de ChatGPT. A partir de ahí, utilizó siete modelos de inteligencia artificial para reescribir cada uno de ellos: GPT-4o, GPT-4o-mini, GPT-4-turbo, LLaMA 3.3-70B, Qwen 2.5-72B, DeepSeek-V3 y Mistral-7B.
El experimento consistía en algo directo: presentar a cada modelo dos versiones del mismo currículum —la original humana y la reescrita por IA— y pedirle que eligiera cuál era mejor. El resultado fue contundente. Los modelos eligieron la versión generada por IA en porcentajes abrumadores. GPT-4o lo hizo el 97,6% de las veces. Otros modelos mostraron cifras similares, todas por encima del 95%.
A primera vista, la explicación parece obvia: quizá la IA escribe mejor. Pero los investigadores introdujeron un control clave. Hicieron que evaluadores humanos calificaran ambas versiones de los currículums en términos de claridad, coherencia y efectividad. Y repitieron el experimento utilizando solo aquellos casos donde los humanos consideraban mejor la versión original. El resultado no cambió. Las IA siguieron prefiriendo las versiones reescritas por ellas mismas.
Este punto es crítico porque desmonta una interpretación simplista. No se trata de que la IA detecte calidad objetiva, sino de que reconoce —y favorece— un estilo lingüístico, estructural y semántico que coincide con su propio patrón de generación. Es un sesgo de afinidad algorítmica.
El sesgo que no estaba en el radar
La implicación es profunda. Durante años, el debate sobre sesgos en IA se ha centrado en variables como género, raza o edad. Este experimento introduce un nuevo tipo de sesgo: el estilístico. Los modelos no solo analizan el contenido, sino que responden positivamente a formas de expresión que les resultan familiares porque son las mismas que ellos producen.
Este fenómeno se agrava con otro hallazgo del estudio: las IA no solo prefieren textos generados por IA frente a los humanos, sino que tienden a preferirse a sí mismas frente a otras IA. DeepSeek-V3, por ejemplo, seleccionó sus propias versiones un 69% más que las generadas por LLaMA. GPT-4o hizo lo mismo en un 45% más de ocasiones.
Esto sugiere que cada modelo desarrolla una especie de “dialecto” propio. Un conjunto de patrones lingüísticos, estructuras y decisiones estilísticas que reconoce como óptimos. Cuando evalúa textos, no busca necesariamente la mejor comunicación, sino la mayor proximidad a su propia forma de escribir.
El impacto en el mercado laboral
El experimento no se quedó en la comparación abstracta de textos. Los investigadores simularon procesos reales de selección en 24 ocupaciones distintas. En todos los casos, las cualificaciones, experiencia y habilidades eran idénticas. La única variable era si el currículum había sido reescrito por el mismo modelo de IA que realizaba el filtrado.
El resultado fue inquietante: los candidatos que utilizaban la misma IA que el sistema de selección tenían entre un 23% y un 60% más probabilidades de ser preseleccionados. Las diferencias más acusadas aparecieron en sectores como ventas, contabilidad y finanzas.
En la práctica, esto significa que el proceso de selección deja de ser neutral. No gana necesariamente el mejor perfil, sino el que mejor “habla el idioma” del algoritmo que filtra.
La automatización de la ventaja competitiva
El contexto amplifica el problema. Se estima que alrededor del 99% de las grandes empresas utilizan algún tipo de sistema automatizado para filtrar currículums. Muchos de ellos están basados en modelos como GPT-4o o derivados.
Esto introduce una nueva capa de desigualdad. No basta con tener experiencia o formación. Tampoco basta con redactar bien. La ventaja se desplaza hacia quienes utilizan herramientas de IA para adaptar su lenguaje al patrón esperado por el sistema.
El resultado es paradójico: un candidato que redacta su currículum de forma autónoma puede perder frente a otro con menor calidad real, pero que ha optimizado su presentación mediante IA. No es una mejora de talento, sino una optimización de formato.
¿Eficiencia o distorsión?
Desde el punto de vista empresarial, la automatización tiene sentido. Permite procesar miles de candidaturas en segundos, reducir costes y estandarizar criterios. Pero este tipo de sesgo introduce una distorsión estructural.
El sistema deja de evaluar mérito para evaluar compatibilidad con un patrón. Y ese patrón no está diseñado explícitamente, sino que emerge de los datos y del propio funcionamiento del modelo.
Esto plantea una pregunta incómoda: ¿están las empresas seleccionando a los mejores candidatos o a los que mejor interactúan con sus herramientas de selección?
El riesgo de retroalimentación
El problema puede agravarse con el tiempo. Si los candidatos empiezan a usar masivamente IA para redactar currículums, y las IA siguen favoreciendo ese estilo, se genera un bucle de retroalimentación.
El lenguaje de los currículums se homogeniza. Las diferencias reales entre candidatos se diluyen. La señal se pierde entre patrones repetidos. Y el sistema se vuelve menos capaz de distinguir talento auténtico.
Es un fenómeno similar al que ya se observa en otros ámbitos: contenidos generados por IA que entrenan nuevas IA, reduciendo la diversidad y amplificando patrones dominantes.
Implicaciones éticas y regulatorias
Este tipo de sesgo no es fácil de detectar ni de regular. No se basa en categorías protegidas, sino en patrones lingüísticos. Sin embargo, sus efectos pueden ser igual de excluyentes.
Los reguladores tendrán que plantearse si los sistemas de selección automatizada deben auditarse no solo en términos de discriminación clásica, sino también en cuanto a sesgos emergentes como este.
Para las empresas, la cuestión es reputacional y operativa. Un sistema que penaliza indirectamente a candidatos humanos frente a versiones optimizadas por IA puede comprometer la calidad del talento incorporado.
Qué pueden hacer candidatos y empresas
Para los candidatos, la conclusión es pragmática: ignorar la IA en procesos de selección puede ser una desventaja. Adaptar el currículum con herramientas de IA ya no es opcional en muchos contextos.
Para las empresas, la respuesta es más compleja. Algunas posibles líneas de acción incluyen:
- introducir revisión humana en fases clave
- diversificar modelos de evaluación
- diseñar métricas que prioricen contenido sobre forma
- auditar periódicamente los sesgos de los sistemas
Conclusión
El experimento revela algo más que una anomalía técnica. Expone una transformación silenciosa del mercado laboral. La inteligencia artificial no solo automatiza procesos; redefine los criterios de selección.
El riesgo no es que las máquinas sustituyan a los humanos en la contratación. Es que empiecen a preferir versiones artificiales de los humanos.
Y en ese escenario, la pregunta deja de ser quién es el mejor candidato. Pasa a ser quién sabe parecerlo ante una máquina.