ADVERTISEMENT

| Work Life

La mitad de los trabajadores no sabe usar bien la IA en el trabajo

Según una nueva encuesta, alrededor del 63% de los trabajadores han visto a otros empleados utilizar la IA de forma inapropiada.

La mitad de los trabajadores no sabe usar bien la IA en el trabajo [Foto: Solen Feyissa /Unsplash]

Seguro que alguna vez usaste ChatGPT para redactar un correo electrónico de trabajo, o quizás para resumir un informe, investigar un tema o analizar datos en una hoja de cálculo. Si es así, no estás solo.

Las herramientas de inteligencia artificial (IA) están transformando rápidamente el mundo laboral. Nuestro estudio global, publicado hoy con más de 32,000 trabajadores de 47 países, muestra que 58% de los empleados utiliza la IA intencionalmente en el trabajo y un tercio la utiliza semanal o diariamente.

La mayoría de los empleados que lo utilizan dicen que obtuvieron beneficios reales en términos de productividad y rendimiento al adoptar herramientas de IA.

Sin embargo, un número preocupante de personas utilizan la IA de formas altamente riesgosas, como cargar información confidencial en herramientas públicas, confiar en las respuestas de la IA sin verificarlas y ocultar su uso.

Hay una necesidad urgente de políticas, capacitación y métodos para usar de manera responsable la IA, para garantizar que mejore, y no debilite, la forma en que se realiza el trabajo.

Lo bueno de la IA en el trabajo

Encuestamos a 32,352 empleados en 47 países, cubriendo todas las regiones geográficas y grupos ocupacionales globales.

La mayoría de los empleados reportan mejoras en el rendimiento gracias a la adopción de la IA en el trabajo. Estas incluyen mejoras en:

  • Eficiencia (67%)
  • Acceso a la información (61%)
  • Innovación (59%)
  • Calidad del trabajo (58%)

Estos hallazgos se hacen eco de investigaciones anteriores que demuestran que la IA puede impulsar ganancias de productividad para empleados y organizaciones.

Descubrimos que las herramientas de IA generativa de propósito general, como ChatGPT, son, con diferencia, las más utilizadas. Alrededor de 70% de los empleados recurre a herramientas públicas y gratuitas, en lugar de a las soluciones de IA proporcionadas por su empresa (42%).

Sin embargo, casi la mitad de los empleados que encuestamos y que utilizan IA dicen que lo han hecho de maneras que podrían considerarse inapropiadas (47%) e incluso más (63%) han visto a otros empleados utilizando IA de manera inapropiada.

Información sensible

Una preocupación clave en torno a las herramientas de IA en el lugar de trabajo es el manejo de información confidencial de la empresa, como información financiera, de ventas o de clientes.

Casi la mitad (48%) de los empleados han cargado información confidencial de la empresa o de los clientes en herramientas públicas de inteligencia artificial generativa, y 44% admite haber utilizado inteligencia artificial en el trabajo de maneras que van en contra de las políticas organizacionales.

Esto coincide con otras investigaciones que muestran que el 27% del contenido introducido por los empleados en las herramientas de IA es sensible.

Comprueba tus respuestas

Descubrimos que el uso complaciente de la IA también está muy extendido: 66% de los encuestados afirma haber confiado en sus resultados sin evaluarlos. No sorprende, por tanto, que la mayoría (56%) haya cometido errores en su trabajo debido a la IA.

Los empleados más jóvenes (de 18 a 34 años) tienen más probabilidades de realizar un uso inapropiado y complaciente que los empleados mayores (de 35 años o más).

Esto conlleva graves riesgos para las organizaciones y los empleados. Estos errores ya han provocado casos bien documentados de pérdidas financieras , daño a la reputación y violaciones de la privacidad .

Aproximadamente un tercio (35%) de los empleados dice que el uso de herramientas de IA en su lugar de trabajo ha aumentado los riesgos de privacidad y cumplimiento.

Uso de IA ‘en la sombra’

Cuando los empleados no son transparentes sobre cómo utilizan la IA, los riesgos se vuelven aún más difíciles de gestionar.

Descubrimos que la mayoría de los empleados evitaron revelar cuándo usan IA (61%), presentaron contenido generado por IA como propio (55%) y usaron herramientas de IA sin saber si está permitido (66%).

Este uso invisible o “IA en la sombra” no solo exacerba los riesgos, sino que también obstaculiza gravemente la capacidad de una organización para detectarlos, gestionarlos y mitigarlos.

La falta de formación, orientación y gobernanza parece estar impulsando este uso complaciente. A pesar de su prevalencia, solo un tercio de los empleados (34%) afirma que su organización cuenta con una política que rige el uso de herramientas de IA generativa, mientras que 6% afirma que su organización la prohíbe.

La presión para adoptar IA también puede alimentar un uso complaciente: la mitad de los empleados temen quedarse atrás si no lo hacen.

Mejor alfabetización y supervisión

En conjunto, nuestros hallazgos revelan una brecha significativa en la gobernanza de las herramientas de IA y la urgente necesidad de que las organizaciones orienten y gestionen cómo las utilizan los empleados en su trabajo diario. Abordar esto requerirá un enfoque proactivo y deliberado.

Invertir en formación responsable en IA y en el desarrollo de los empleados

La alfabetización en IA es clave. Nuestros modelos muestran que la alfabetización en IA autodeclarada —que incluye formación, conocimientos y eficacia— predice no solo si los empleados adoptan herramientas de IA, sino también si interactúan con ellas de forma crítica.

Esto incluye qué tan bien verifican el resultado de las herramientas y consideran sus limitaciones antes de tomar decisiones.

Descubrimos que la alfabetización en IA también está asociada con una mayor confianza en el uso de IA en el trabajo y más beneficios en el rendimiento derivados de su uso.

A pesar de ello, menos de la mitad de los empleados (47%) informan haber recibido capacitación en IA o educación relacionada.

Las organizaciones también necesitan implementar políticas, directrices y medidas de seguridad claras, sistemas de rendición de cuentas y supervisión, y medidas de privacidad y seguridad de los datos.

Hay muchos recursos para ayudar a las organizaciones a desarrollar sistemas sólidos de gobernanza de la IA y respaldar el uso responsable de la IA.

La cultura adecuada

Además de esto, es crucial crear un entorno de trabajo psicológicamente seguro, donde los empleados se sientan cómodos para compartir cómo y cuándo utilizan herramientas de IA.

Los beneficios de esta cultura van más allá de una mejor supervisión y gestión de riesgos. También es fundamental para desarrollar una cultura de aprendizaje y experimentación compartidos que fomente la difusión responsable del uso y la innovación en IA.

La IA tiene el potencial de mejorar nuestra forma de trabajar. Sin embargo, requiere una fuerza laboral con conocimientos de IA, una gobernanza sólida y unas directrices claras, así como una cultura que fomente un uso seguro, transparente y responsable. Sin estos elementos, la IA se convierte en un lastre más sin gestionar.


Nicole Gillespie es profesora de gestión y presidenta del consejo de administración de la Melbourne Business School .

Steven Lockey es investigador postdoctoral en la Melbourne Business School.

Este artículo se republicó de The Conversation bajo una licencia Creative Commons. Lee el artículo original aquí.

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Sobre el autor

Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

ADVERTISEMENT

ADVERTISEMENT