
Cuando Microsoft anunció que comenzaría a evaluar a sus empleados en el uso de inteligencia artificial (IA), envió un mensaje claro: la fluidez en dichas herramientas ahora es parte del trabajo.
Business Insider informó recientemente que Microsoft estaba pidiendo a los gerentes que monitorizaran la participación de los empleados con herramientas internas como Copilot y que consideraran su uso en las evaluaciones de desempeño. Esto indica que las habilidades de IA se están volviendo tan medibles como el trabajo en equipo o la comunicación.
La IA ya no es opcional en los empleos administrativos. Ahora se sitúa, junto con el correo electrónico, las videollamadas y las hojas de cálculo, como un elemento esencial en el lugar de trabajo. Sin embargo, a diferencia de estas herramientas, sigue ocupando un territorio desconocido. No existe un estándar de uso, ni una definición común de lo que es “bueno” ni una línea clara entre un comportamiento aceptable y uno arriesgado.
La tecnología también evoluciona a un ritmo más rápido del que la mayoría de las empresas pueden seguir. Muchos empleadores fomentan o exigen el uso de IA sin ofrecer la capacitación ni la supervisión necesarias. Esta discrepancia genera más que confusión: conduce a un uso indebido, evaluaciones desiguales y presión sobre los empleados para que intenten desenvolverse en un sistema que aún no existe.
La decisión de Microsoft tiene peso. Cuando una de las empresas tecnológicas más poderosas del mundo sienta un precedente, es probable que otras la sigan. Pero si las empresas adoptan políticas similares sin corregir las barreras que faltan, puede generar desajustes y disfunciones.
Las consecuencias de arrojar a los empleados a las profundidades de la IA
Impulsar la adopción de la IA es inteligente, pero dejar que los empleados se las arreglen solos no lo es. Las empresas les piden a sus empleados que operen herramientas complejas y en constante evolución con poco apoyo. Los resultados son desastrosos.
Muchos profesionales de la Generación Z ya improvisan ante la falta de una guía clara. En una encuesta reciente de Resume Genius, 39% de los trabajadores de la Generación Z afirmó haber automatizado tareas sin la aprobación de su jefe. Otro 28% admitió haber enviado trabajos generados con IA sin revelar su identidad. Casi un tercio la utilizó de formas que podrían infringir la política de la empresa, y el 23% afirmó que usarla en el trabajo afectó negativamente a su salud mental.
Este patrón no se limita solo a la Generación Z. Un estudio de KPMG de 2025 a 48,000 trabajadores en 47 países reveló que 57% oculta a sus jefes el uso de IA. La mayoría no ha recibido capacitación formal. Dos tercios no verifican la precisión de los resultados, y más de la mitad ya ha cometido errores relacionados en el trabajo.
En conjunto, estos hallazgos apuntan a lugares de trabajo donde el uso de la IA está aumentando rápidamente. Sin embargo, los empleados crean las reglas sobre la marcha, a menudo bajo presión y sin una idea clara de lo que es seguro, ético o esperado. Este tipo de incertidumbre no es sostenible, especialmente porque las expectativas laborales implican el uso de la IA. Exigirla sin estructura es como repartir calculadoras en clase de matemáticas sin enseñar ecuaciones. Claro, las herramientas son potentes, pero para obtener buenos resultados, es necesario enseñar a las personas a usarlas correctamente.
La productividad está mejorando, pero ¿a qué precio?
La IA puede mejorar el rendimiento. Eso está claro. Un estudio de Harvard Business Review de 2025 descubrió que la IA generativa mejora tanto la productividad como la creatividad. Pero también reveló un efecto secundario preocupante: los empleados se sentían menos motivados y más desconectados al usarla para completar tareas que antes se enorgullecían de hacer ellos mismos.
Y el agotamiento está en aumento. Según una encuesta de Upwork de julio de 2025, los empleados que reportan mayores ganancias de productividad gracias a la IA también son los que más sufren agotamiento. El 88% de los principales usuarios afirman experimentar agotamiento y tienen el doble de probabilidades de considerar dejar el trabajo en comparación con sus compañeros menos productivos. Muchos también se sienten desconectados de la estrategia de IA de su empresa, y 62% afirma no comprender cómo su uso se alinea con objetivos más amplios. Parece que cuanto más aumenta la IA la productividad, más agota a quienes la usan.
¿Qué pasa cuando faltan las reglas?
Actualmente, el uso de la IA en el trabajo es esencial e indefinido. Esto genera tres riesgos importantes para las empresas:
- Fallas de cumplimiento: sin políticas claras, los empleados pueden exponer datos confidenciales, confiar en resultados defectuosos o usar IA de formas que abren la puerta a riesgos legales.
- Evaluaciones subjetivas: cuando “usar IA de manera efectiva” se convierte en parte de las evaluaciones, pero no existen estándares, los empleados pueden ser calificados en función de sesgos personales en lugar de su desempeño real.
- Desconfianza: Los trabajadores se preguntan qué está bien y qué no. Los managers tampoco siempre lo saben. Esto genera dudas por todas partes, lo cual no es ideal para nadie.
Qué deben hacer las empresas en materia de IA
Las empresas que prosperen en esta nueva era no serán las que impulsen la IA con mayor rapidez. Serán las que dominen tres aspectos:
- Establecer políticas claras: Define cómo se ve el uso responsable de la IA en tu lugar de trabajo. Explica qué fomentan sus empresas, qué restringen y dónde solicitar ayuda.
- Ofrece capacitación práctica basada en tareas: evita los seminarios web genéricos. Enseña a los empleados cómo aplicar la IA en su trabajo real, ya sea redactando políticas, resumiendo comentarios de clientes o automatizando informes.
- Crea ciclos de retroalimentación en tiempo real: Realiza reuniones periódicas para preguntar: ¿Qué funciona? ¿Qué no está claro? ¿Qué necesita evolucionar? La IA avanza rápidamente. Las políticas deben adaptarse a ella.
Si la IA ahora forma parte del trabajo, necesita sus propias directrices. Las empresas que triunfen no serán las que la adopten más rápido, sino las que construyan las bases adecuadas y enseñen a la gente a usarla correctamente. Microsoft inició el debate. Ahora, el resto de nosotros debemos definir cómo es la adopción responsable de la IA y ponerla en práctica.