
Desde Hollywood hasta las grandes tecnológicas, las principales industrias de Estados Unidos apuestan cada vez más por las herramientas de flujo de trabajo de IA y esperan que sus empleados sigan el ejemplo.
A finales del mes pasado, Business Insider informó que Microsoft comenzó a evaluar el dominio de la IA de algunos empleados, considerando su competencia con herramientas de IA en métricas como las evaluaciones de rendimiento. Sin embargo, a pesar del creciente incentivo en el entorno laboral para adoptar herramientas de IA, algunos empleados se resisten activamente a su adopción y sus razones tienen más sentido de lo que se cree.
Según un nuevo estudio realizado por un equipo de investigadores de la Universidad de Pekín y la Universidad Politécnica de Hong Kong, un fenómeno emergente disuadió activamente a los empleados de utilizar herramientas de IA, incluso en empresas donde se lo fomenta fuertemente.
Este sesgo, conocido como la “penalización de la competencia”, hace que los usuarios de IA, cuando lo usan en el trabajo, sean percibidos como menos competentes por sus pares, independientemente de su rendimiento real. Se trata de una brecha de percepción especialmente perjudicial para las mujeres en puestos técnicos.
El contexto
El estudio de los investigadores se llevó a cabo en una empresa tecnológica líder, cuyo nombre no se reveló. En un artículo escrito para Harvard Business Review (HBR), los autores del estudio explican que esta empresa ya había implementado un asistente de programación de IA de vanguardia para sus desarrolladores, el cual prometía “aumentar significativamente la productividad“. Aun así, 12 meses después, solo 41% de los casi 30,000 ingenieros encuestados había probado siquiera el asistente de programación.
La adopción también varió según la identidad de los empleados. Solo 39% de los ingenieros de 40 años o más utilizaban la herramienta, frente a un escaso 31% de ingenieras. Esto no se debe a falta de esfuerzo por parte de la empresa: en lugar de lanzar a sus empleados a las profundidades de la IA sin orientación (un problema frecuente a medida que las herramientas de flujo de trabajo de IA se vuelven más comunes), esta empresa ofreció equipos dedicados a la IA, incentivos para la adopción y formación gratuita.
Los investigadores se propusieron entonces comprender qué estaba fallando.
La sanción por competencia
Para comprender mejor este patrón de adopción tan deficiente, los autores del estudio realizaron un experimento con 1,026 ingenieros de la misma empresa. Los ingenieros recibieron un fragmento de código Python para evaluar. Si bien el código era exactamente el mismo para todos los participantes, se les explicó que se había creado en diferentes condiciones, incluyendo con o sin IA y por un ingeniero o una ingeniera.
Los resultados mostraron que, cuando los participantes creían que un compañero ingeniero había usado IA para escribir su código, calificaban su competencia un 9% inferior en promedio. La gravedad de la penalización por competencia también dependía del género declarado por el ingeniero. Si se describía como hombre, la competencia se reducía solo un 6%, en comparación con 13% para quienes se describían como mujer.
Además, la identidad y postura del revisor sobre la IA influyeron en la evaluación de los demás. Los ingenieros que no habían adoptado la IA fueron los más críticos con los usuarios, y los hombres que no la habían adoptado penalizaron a las usuarias de IA un 26% más severamente que sus homólogos masculinos que sí la utilizaban.
A través de un estudio de seguimiento de 919 ingenieros, los investigadores descubrieron que muchos empleados, en realidad, eran conscientes de esta penalización de competencia y, como resultado, evitaban el uso de IA.
“Quienes más temían las penalizaciones por competencia en la industria tecnológica —sobre todo mujeres e ingenieros de mayor edad— eran precisamente quienes menos adoptaban la IA”, escriben los autores del estudio. “Los mismos grupos que más podrían beneficiarse de las herramientas que mejoran la productividad sentían que no podían permitirse usarlas”.
“Las mujeres se enfrentan a un escrutinio adicional”
Los hallazgos del estudio ofrecen un fuerte contrapunto al sentimiento frecuentemente repetido de que las herramientas de IA podrían nivelar el campo de juego en el trabajo, presentando una solución única para todos al hacer que todos sean más productivos.
“Nuestros resultados sugieren que esto no está garantizado y, de hecho, podría darse lo contrario”, escriben los autores. “En nuestro contexto, dominado por hombres jóvenes, la disponibilidad equitativa de la IA aumentó el sesgo contra las ingenieras”.
Estos resultados podrían ayudar a explicar los patrones ya observados en la adopción de la IA. Según una investigación reciente del profesor asociado de la Escuela de Negocios de Harvard, Rembrand Koning, las mujeres adoptan herramientas de IA a un ritmo un 25% menor que los hombres, en promedio.
En un artículo para Fast Company a principios de este mes, Kamales Lardi, autor del libro Artificial Intelligence for Business (Inteligencia artificial para negocios), señaló: “En mi experiencia, las mujeres suelen enfrentarse a un escrutinio más riguroso sobre sus habilidades, capacidades y destreza técnica. Existe una profunda preocupación de que el uso de herramientas de IA pueda percibirse como un recorte de gastos o una mala imagen de las habilidades de los usuarios”.
Cómo se preparan los líderes para la sanción por competencia
Empresas como la del estudio no deberían renunciar a la implementación de nuevas herramientas de IA, especialmente dado que se prevé que la IA agencial desempeñe un papel fundamental en el futuro del trabajo. En cambio, los líderes deberían utilizar estos datos para establecer más barreras para la adopción de la IA. En su análisis para HBR, los autores del estudio ofrecen varios pasos principales que los gerentes deben considerar:
- Mapeé los puntos críticos de penalización de su organización. Los líderes deben centrarse en identificar los equipos donde la penalización de competencia en IA podría ser mayor, incluyendo aquellos con más mujeres e ingenieros de mayor edad que reportan a hombres que no adoptan la tecnología. Monitorear estos equipos puede ayudar a comprender dónde y cómo se está manifestando la penalización de competencia.
- Convencer a los escépticos influyentes. Dado que quienes no adoptan la IA son los críticos más duros de los usuarios, los escépticos influyentes pueden tener un gran impacto en todo el equipo. Los autores del estudio sugieren que para romper este ciclo, los escépticos deben ver a colegas respetados usar la IA con éxito sin consecuencias profesionales.
- Rediseñar las evaluaciones para eliminar la señal. Según los resultados del estudio, marcar un producto como “fabricado con IA” puede afectar negativamente las evaluaciones de rendimiento. “La solución es sencilla: dejar de señalar el uso de IA en las evaluaciones de rendimiento hasta que la cultura empresarial esté preparada”, escriben los autores.