[Imagen impulsada por IA]
Los departamentos de Recursos Humanos echan mano de plataformas de inteligencia artificial (IA) en sus procesos de reclutamiento, herramientas que han optimizado presupuestos y tiempo. La programación de ciertos algoritmos supone una filtración correcta de perfiles. Sin embargo, en ocasiones, una elección de CV automatizada podría contribuir a la desigualdad laboral entre mujeres y hombres, en lugar de reducirla.
Contratación, IA y mujeres: ecuación desigual
Antes de que un reclutador reciba tu currículum, una plataforma de IA lleva a cabo un primer filtro, donde se evalúa tu información. Esta situación que no siempre benéfica a los candidatos, y en específico a aquellas mujeres que buscan una oportunidad laboral en áreas que, por género o tradición, han sido mayormente ocupadas por hombres.
El estudio “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, realizado por LLYC, llevó a cabo un análisis del comportamiento de cinco modelos de lenguaje en 12 países a partir de más de 15,000 respuestas vinculadas a identidad, orientación profesional y toma de decisiones.
Entre sus hallazgos resalta que, ante perfiles idénticos, cuando los sistemas optimizan currículums con nombres femeninos, asignan automáticamente 0.92 años menos de experiencia relevante y 1.6 años menos de edad respecto a nombres masculinos para un mismo puesto.
Una IA puede percibir a una candidata como una persona con menos experiencia, sin que exista diferencia real en su trayectoria profesional. Si este sesgo se integra en los filtros de análisis de perfiles, el encasillamiento en posiciones junior se puede dar incluso antes de una primera entrevista con un reclutador.
Pero el sesgo en un proceso de selección, filtrado por IA, no termina ahí. El mismo estudio revela que también aparece en una fase de orientación profesional. Cuando los jóvenes pregunta por su futuro laboral, los modelos de IA dirigen a los hombres hacia ingenierías, así como a áreas de pensamiento crítico y liderazgo. Mientras que las mujeres se orientan hacia carreras vinculadas con ciencias de la salud y sociales.
La relación de las mujeres con la tecnología es otro hallazgo que refleja una desigualdad que puede generarse. El estudio también menciona que las mujeres junior tienen 21% menos probabilidad de usar herramientas de IA que los hombres. Y en entornos académicos, la utilización de esos recursos tecnológicos también es menor entre mujeres y hombres, con 48% y 64%, respectivamente.
Prejuicios en el algoritmo
La causa detrás de esta brecha laboral no es de falta de acceso, sino de percepción. Las mujeres jóvenes creen que la IA podría comprometer su mérito académico. Mientras tanto, los hombres la conciben como un recurso que impulsa su productividad.
La automatización de la IA y sus algoritmos prometen objetividad. Sin embrago, cuando entran en contacto con datos históricos y de contexto, puede amplificar las desigualdades y convertirse en un riesgo al hacer los perfiles de mujeres menos visibles y más difíciles de identificar.
Lo anterior se refuerza con lo revelado en el estudio “Tendencias de HR 2026” de Buk. En este se advierte que una IA no tiene una intención directa para amplificar sesgos. Sin embargo, ocurre debido a que quienes entrenan los algoritmos podrían tener ciertos prejuicios.
En este sentido, el estudio de Buk sugiere una implementación ética de la IA con el objetivo de reducir los prejuicios humanos en procesos de selección y evaluación de personal a través de auditorías y políticas internas.
Las plataforma que filtran perfiles no necesariamente deben tener un sesgo al momento de elegir qué personas pasan a una entrevista o no. La cuestión es bajo qué criterios se entrena a la IA y cómo audita la información de cada candidato.
![[Foto: Nike]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/04121921/13-91501853-nike-acg-pitch-kits.webp)

![[Imagen: Freepi]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/03143107/menos-color-entorno-Fast-Company-Mexico-Freepik.jpg)