La advertencia de los expertos: por qué los bots de RR.HH. ahora solo eligen currículums hechos con IA

Un estudio reveló que los modelos automatizados prefieren textos creados por otras IA en procesos de selección, dejando afuera a candidatos con CV escritos por humanos.

14 de mayo, 2026 | 19.18

En el mundo laboral actual, no basta con tener experiencia o una formación sólida para destacarse en un proceso de selección. Un estudio reciente alertó sobre un sesgo invisible que puede dejar afuera a candidatos: no haber usado inteligencia artificial para redactar el currículum.

Investigadores de las universidades de Maryland, Ohio y la National University of Singapore analizaron cómo diferentes modelos de inteligencia artificial evalúan currículums, y encontraron que estas herramientas tienden a preferir perfiles generados con IA frente a los escritos por personas, incluso cuando la calidad humana es igual o mejor.

La investigación, denominada La auto-preferencia de la IA en la contratación algorítmica, se basó en 2245 currículums reales redactados antes de la popularización de la IA generativa. Los expertos reemplazaron sólo la descripción profesional por versiones creadas por distintos modelos de inteligencia artificial, y luego dejaron que otra IA decidiera cuál perfil era superior.

Entre los modelos evaluados, GPT-4o mostró un sesgo de auto-preferencia de hasta 81,9%, manteniendo esta inclinación incluso tras ajustar aspectos como la longitud, complejidad o estilo del texto. Otros sistemas como DeepSeek-V3, LLaMA 3.3-70B y Qwen 2.5-72B manifestaron comportamientos similares.

Para contrastar, también se involucró a evaluadores humanos que revisaron los mismos textos. En varias ocasiones, las personas consideraron que los resúmenes escritos por humanos eran más claros y coherentes, pero la IA siguió privilegiando los contenidos generados por sus propios modelos. Este fenómeno fue bautizado como Sesgo de auto-preferencia en la IA.

Detalles del descubrimiento y los riesgos que implica

El estudio simuló además un proceso de selección típico, donde la IA debía elegir candidatos para avanzar a entrevistas. Si no existiera sesgo, la selección sería equilibrada entre textos humanos y generados por IA. Sin embargo, los currículums creados con el mismo modelo que evaluaba tenían entre un 23% y un 60% más de chances de pasar a la siguiente etapa.

Este efecto fue más marcado en áreas administrativas y de negocios, como ventas y contabilidad, mientras que en sectores como la agricultura o la industria automotriz la diferencia fue menor, pero todavía presente.

Los CV redactados también con inteligencia artificial son cada vez más habituales en procesos de contratación.

Los autores del informe advirtieron que este sesgo podría derivar en una homogeneización de estilos de escritura en las postulaciones, dominados por las características propias de las IA evaluadoras, lo que podría distorsionar la equidad en los procesos laborales.

Para contrarrestar esta situación, el estudio propuso soluciones como indicarle a la IA que ignore el origen del texto y se centre sólo en la calidad del contenido, o utilizar múltiples modelos para tomar decisiones conjuntas en lugar de depender de un solo sistema. Estas estrategias lograron reducir el sesgo en varios casos.

Los investigadores concluyeron que garantizar la justicia en la contratación automatizada requiere mirar más allá de los prejuicios tradicionales relacionados con género, raza o edad, y prestar atención a las distorsiones propias de los sistemas automáticos. El riesgo es claro: dos candidatos con antecedentes similares pueden recibir resultados diferentes según si su CV fue redactado por humanos o por IA, antes incluso de que un humano evalúe su experiencia o habilidades.