ADVERTISEMENT

| Work Life

Las mujeres tardan más en usar IA en el trabajo —este es el motivo

Las investigaciones muestran que la brecha de género existe en todas las regiones, sectores y ocupaciones.

Las mujeres tardan más en usar IA en el trabajo —este es el motivo [Foto: Freepik]

Como líder tecnológico, durante casi 30 años observé oleadas de innovación que alteran el panorama empresarial global y desencadenan cambios importantes en nuestra forma de trabajar. Ahora que la IA se consolida como el futuro, la fuerza laboral global se enfrenta a una demanda abrumadora de nuevas habilidades y capacidades.

En mi nuevo libro, Inteligencia Artificial para las Empresas, destaco el impacto de la IA en el futuro del trabajo, en particular la falta de competencias y la pérdida de puestos de trabajo, así como las futuras competencias esenciales que se requieren en las organizaciones globales. Curiosamente, existe una cautela instintiva, especialmente entre las mujeres trabajadoras, al sopesar la promesa de la innovación con los riesgos de la aplicación de la IA.

Esta inseguridad podría disuadir a las mujeres de usar la IA en el trabajo, ya que la preocupación por adoptarla podría arruinar su credibilidad o incluso generar un juicio más severo, en lugar de destacar su verdadero potencial.

La brecha de género en el uso de IA es real (y global)

Según una investigación reciente realizada por Rembrand Koning, profesor asociado de la Escuela de Negocios de Harvard, las mujeres adoptan herramientas de IA a un ritmo 25% menor que los hombres, en promedio.

Al sintetizar datos de 18 estudios que abarcan a más de 140,000 personas en todo el mundo, junto con estimaciones de la proporción de género entre los cientos de millones de usuarios de las populares plataformas de IA generativa, la investigación demuestra que la brecha de género se mantiene en todas las regiones, sectores y ocupaciones.

Si bien el estudio destaca que cerrar esta brecha es crucial para el crecimiento empresarial y económico, así como para el desarrollo de tecnologías basadas en IA que eviten sesgos, es necesario explorar más a fondo las razones de esta brecha. Analicemos varios obstáculos éticos, de reputación y sistémicos que pueden llevar a las mujeres a ser más reticentes a usar la IA en el trabajo y exploremos cómo las empresas pueden ayudar a cerrar esta brecha.

Preocupaciones éticas

En primer lugar, las preocupaciones éticas sobre la adopción de IA pesan mucho en la mente de las mujeres. Los estudios indican que las mujeres, cuando se trata de temas sistemáticos, valoran la indecisión sobre la adopción de tecnología de IA más que los hombres.

Esto provoca mayor importancia a la ética, la transparencia, la rendición de cuentas, la comunicación asertiva y la equidad al evaluar las herramientas de IA. 

En un estudio que examinó las percepciones públicas de la equidad de la IA en tres contextos sociales en Estados Unidos, la vida personal, la vida laboral y la vida pública, las mujeres percibieron la IA como menos beneficiosa y más dañina en todos los contextos. Esta cautela puede ser evidente a medida que las mujeres se exigen a sí mismas y a sus equipos un estricto cumplimiento de estándares éticos.

Estas preocupaciones se ven amplificadas por el rápido aumento en la adopción de herramientas de IA de “caja negra” en puntos clave de decisión empresarial, donde el funcionamiento interno es opaco y está oculto tras algoritmos propietarios.

Alzar la voz sobre la IA también tiene consecuencias

A medida que más éticas y expertas en políticas se incorporan al ámbito global, plantean preguntas de gran impacto sobre sesgos, privacidad de datos y consecuencias perjudiciales, sintiendo una especial responsabilidad de obtener respuestas antes de aprobar soluciones tecnológicas innovadoras.

En todo el mundo, muchas mujeres observaron con desconcierto cómo castigaron a destacadas expertas en ética de IA por alzar la voz sobre los riesgos del desarrollo tecnológico. Timnit Gebru, codirectora del equipo de IA Ética de Google, renunció tras negarse a retirar un artículo que exponía los riesgos sociales de los grandes modelos lingüísticos. Poco después, despidieron también a Margaret Mitchell, quien se solidarizó con Gebru y expresó preocupaciones similares.

Esta decisión, entre otras, envió un claro mensaje: denunciar los posibles daños de la IA podría convertirte en blanco de ataques.

Escrutinio adicional

Más allá de las preocupaciones éticas, muchas mujeres temen que en el trabajo las juzguen por usar herramientas de IA. En mi experiencia, las mujeres enfrentamos un escrutinio adicional sobre sus habilidades, capacidades y destreza técnica.

Existe una preocupación profunda de que usar herramientas de IA se percibe como un recorte de costos y refleja una mala imagen del nivel de habilidades de los usuarios. Ese riesgo reputacional puede magnificarse cuando los fallos o problemas en los resultados de IA se atribuyen a la falta de competencia o experiencia del usuario. A esto se suman una serie de desafíos sistémicos continuos inherentes al entorno empresarial y a las herramientas de IA que se implementan.

Por ejemplo, muchos datos de capacitación ignoran las experiencias de las mujeres en el trabajo y refuerzan la idea de que los productos de IA no están pensados para ellas. Los equipos de IA no diversos también representan un impedimento, creando barreras adicionales para la participación y el compromiso.

Las expertas que hacen las preguntas difíciles

La consecuencia de la brecha de género en la IA es más que una simple incomodidad. Puede dar como resultado sistemas de IA que refuercen los estereotipos de género e ignoren las desigualdades, problemas que se agravan cuando se aplican herramientas de IA para la toma de decisiones en áreas esenciales como la contratación, las evaluaciones de desempeño y el desarrollo profesional.

Por ejemplo, una herramienta de reclutamiento basada en datos históricos puede limitar el acceso de candidatas a puestos de liderazgo, no por falta de capacidades, sino porque históricamente hay más líderes masculinos. Puntos ciegos como estos profundizan aún más la brecha que las organizaciones intentan cerrar.

Para contrarrestar esto y animar a más mujeres a usar la IA en el trabajo, las organizaciones deberían empezar por crear un entorno que equilibre las barreras con la exploración. Además, deben crear un entorno de seguridad psicológica donde las personas puedan expresar sus inquietudes, desafíos y comentarios sin miedo a represalias.

Una comunicación abierta y transparente aborda los temores e incertidumbres previsibles que acompañan al uso de la IA en el entorno laboral. Cree entornos de prueba y error seguros para la exploración, donde el objetivo sea aprender mediante ensayo y error y desarrollar habilidades mediante el aprendizaje experiencial.

Cambios de política

Cambiar las políticas y directrices de la organización resulta eficaz para animar a más mujeres a usar IA en el trabajo. Además de unas directrices claras sobre el uso responsable de la IA, las políticas que permiten específicamente su uso pueden ayudar a cerrar la brecha.

En un estudio realizado por la Norwegian School of Economics (NHH), los estudiantes varones eran menos propensos a considerar el uso de la IA como “hacer trampa”. Además, cuando las políticas prohibían el uso de la IA, los estudiantes varones tendían a usarla de todos modos, mientras que las mujeres se adherían a la política.

Cuando se puso en marcha una política que permitía explícitamente el uso de la IA, más de 80% de los hombres y las mujeres la utilizaron, lo que sugiere que las políticas que fomentan el uso de la IA pueden ayudar a que más mujeres la utilicen.

Es crucial que las organizaciones realicen un esfuerzo proactivo para incorporar a más mujeres al debate sobre IA en todos los niveles. La diversidad de perspectivas puede ser eficaz para detectar puntos ciegos, y este enfoque transmite un mensaje contundente: la importancia de la representación.

Cuando las mujeres ven a sus compañeros moldear y ser proactivos en la aplicación de la IA de forma segura, justa y con impacto, también se sienten más seguras de participar.

Author

  • Kamales Lardi

    Kamales Lardi es el autor de Inteligencia Artificial para Empresas y un reconocido orador mundial sobre la transformación de la IA.

    View all posts

Author

  • Kamales Lardi

    Kamales Lardi es el autor de Inteligencia Artificial para Empresas y un reconocido orador mundial sobre la transformación de la IA.

    View all posts

Sobre el autor

Kamales Lardi es el autor de Inteligencia Artificial para Empresas y un reconocido orador mundial sobre la transformación de la IA.

ADVERTISEMENT

ADVERTISEMENT