[Fotos: Soluciones de ventas de LinkedIn /Unsplash; kjpargeter /FreePik]
Durante la última década, las innovaciones digitales han generado una gama de herramientas de reclutamiento y evaluaciones de desempeño: ahora, al solicitar un empleo por primera vez, es menos probable que te juzguen los humanos y más probable que te evalúe la inteligencia artificial (IA). Antes de tener la oportunidad de impresionar a un entrevistador humano, primero deberás impresionar al algoritmo.
Más recientemente, la IA también se ha utilizado para ayudar a los empleados actuales en su trabajo y, posteriormente, para ayudar a sus empleadores con sus evaluaciones de desempeño. De hecho, la adopción de la IA es ahora la norma en los empleos de la economía del conocimiento, y se estima que al menos el 70% de las personas la utilizan regularmente en el trabajo —una cifra que probablemente subestima la realidad, ya que gran parte de su uso en el trabajo es clandestino y no se divulga— y un número cada vez mayor de organizaciones la utilizan para evaluar el desempeño de sus empleados.
¿Meritocrático u orwelliano?
Las evaluaciones de desempeño tradicionales —a menudo un ritual anual basado en comentarios subjetivos, “ruidosos”, poco confiables o inválidos de los jefes— están siendo efectivamente alteradas por algoritmos capaces de analizar flujos de trabajo, patrones de comunicación e incluso “análisis relacionales” —explorar las huellas digitales de sus intercambios con compañeros de trabajo— en tiempo real, lo que los críticos lamentan como una forma de “capitalismo de vigilancia”.
Sin duda, estas herramientas dan un poder sin precedentes en manos de las organizaciones para tomar decisiones de gestión basadas en datos que, en el mejor de los casos, pueden hacer que los lugares de trabajo sean más justos y meritocráticos, pero en el peor, parecen incómodamente cercanas a una distopía del gran hermano orwelliano y pueden erosionar la confianza y la moral.
Para comprender la IA en la gestión del rendimiento, conviene imaginar una matriz sencilla con cuatro cuadrantes o escenarios, que evoca el modelo clásico de negociación de Roger Fisher y William Ury sobre resultados beneficiosos para ambas partes, así como décadas de ciencia del comportamiento que diferencian los enfoques integrales de los de suma cero para abordar los conflictos. En un escenario, tanto la empresa como el empleado ganan. En otro, solo gana la empresa. Y en un tercero, los empleados aprenden a manipular el sistema para su propio beneficio, pero no para el de la empresa. Y, en el peor de los casos, nadie se beneficia.
Primer escenario: La IA beneficia tanto a la empresa como al empleado. Empecemos por el mejor cuadrante de la matriz. Si se utiliza correctamente, la IA puede hacer que la retroalimentación sea más justa y útil. Cualquiera que haya recibido una evaluación imprecisa conoce el problema, y los estudios metaanalíticos demuestran que solo un tercio de la retroalimentación suele ser útil, un tercio es inútil o irrelevante, y un tercio, de hecho, empeora el rendimiento de los empleados.
A esto hay que añadir la típica falta de fiabilidad de las evaluaciones de rendimiento, que suelen ser muy subjetivas: a un manager le encanta tu entusiasmo; a otro le parece que hablas demasiado; un tercero simplemente recuerda tu último error; un cuarto no tiene ni idea de quién eres, y así sucesivamente. En otras palabras, la evaluación del rendimiento se ha acercado históricamente a la cata subjetiva de vinos que a la ciencia objetiva.
La IA, si se utiliza y valida correctamente, puede basar la retroalimentación en el comportamiento observable, en lugar de en impresiones. Un líder de ventas podría ver qué interacciones con los clientes generaron la repetición de negocios en su equipo. Un líder de proyecto podría aprender que se producen retrasos cuando las aprobaciones se acumulan en su escritorio. En lugar de esperar con impaciencia una revisión anual para saber cómo se percibe su desempeño, los empleados reciben retroalimentación y sugerencias en tiempo real. El proceso se acerca más a la capacitación que a la evaluación. Aquí es donde la promesa de la IA es más convincente: democratiza la recopilación y distribución de retroalimentación y sugerencias. Reemplaza las conjeturas con datos. Nunca olvida y puede hacer que la evaluación de los empleados se base en el desempeño, en lugar de ser política.
Segundo escenario: La IA beneficia a la empresa, pero perjudica a los empleados. Las mismas herramientas pueden convertirse rápidamente en vigilancia. Los algoritmos ahora analizan el flujo de trabajo, los patrones de comunicación, el tono de voz e incluso lo que algunos proveedores denominan “análisis relacional”. Una disminución en la velocidad de escritura puede interpretarse como desconexión. Un cambio en la percepción de Slack podría señalar a alguien como “escéptico” o “cínico”. El seguimiento y la penalización de las horas de trabajo irregulares podrían perjudicar de forma encubierta a padres o personas con problemas de salud. El análisis de voz o facial podría inferir estados emocionales o afecciones físicas que los empleadores podrían tener prohibido legalmente determinar o diagnosticar.
Lo que comienza como un esfuerzo por medir el rendimiento puede convertirse en un panóptico digital. Los empleados se sienten observados en lugar de apoyados. La confianza se erosiona a largo plazo, incluso si la productividad parece aumentar a corto plazo. Como suele ocurrir, los países europeos se encuentran entre los primeros en brindar protección legislativa a los empleados para protegerse contra este escenario.
Tercer escenario: Los empleados se benefician, pero la empresa pierde. Las personas no son pasivas. Cuando los empleados se dan cuenta de que están siendo juzgados por un algoritmo, aprenden a aplicar ingeniería inversa para su propio beneficio. Cualquiera que haya trabajado en un centro de llamadas —o incluso haya llamado a uno— ha visto esta dinámica. Si la IA premia un tono alegre, todos se vuelven artificialmente optimistas, incluso si al hacerlo incomoda a quienes llaman con el efecto empalagoso de los representantes de servicio. Si la IA premia un alto volumen de correo electrónico, las bandejas de entrada y salida se llenan de mensajes innecesarios. Los profesores enseñan para el examen. Los estudiantes memorizan sin comprender.
En las oficinas, las personas optimizan para métricas en lugar de resultados. La colaboración real se traslada a canales privados y los datos oficiales se vuelven menos veraces que antes. La IA termina midiendo el teatro performativo en lugar del valor agregado real, y los empleados aprenden a crear evaluaciones de desempeño perfectas y señales de productividad falsas, utilizando la IA para engañar o estafar a los empleadores, retrocediendo el progreso décadas.
Cuarto escenario: Nadie se beneficia. El peor resultado es la desconfianza multilateral. Los gerentes se esconden tras paneles de control que no pueden explicar. Los empleados tratan la retroalimentación como si fuera ruido. Las evaluaciones de desempeño se convierten en ejercicios burocráticos de “marcar casillas” que se completan con mínima atención. “Fingimos trabajar y ellos fingen pagarnos” era un eslogan cínico de los trabajadores hace décadas en la Unión Soviética. Quizás “Fingimos evaluar nuestro desempeño y ellos fingen evaluarnos” podría ser el equivalente contemporáneo, cuando las evaluaciones son esencialmente “basura de IA”.
Cuando un gerente dice: “El sistema te dio esta calificación”, el liderazgo ha abdicado de la responsabilidad. Las organizaciones pueden recopilar terabytes de datos que no predicen nada útil. Los empleados se desvinculan. La confianza y la moral decaen. Ya hemos visto versiones de esto antes con evaluaciones mal diseñadas o herramientas no validadas. La tecnología no elimina la mala gestión. Puede escalarla. Y en este escenario, incluso cuando “el sistema” recuerda todo lo que se le introduce, los gerentes y empleados rápidamente ignoran y olvidan todo lo que sale de él.
Qué hacer
¿Qué deberían hacer entonces los líderes? Los principios son simples, aunque no fáciles. Validar antes de automatizar. Preguntar si una métrica predice el rendimiento real o solo la actividad. Ser transparente sobre qué datos se utilizan, cómo y por qué. Asegurarse de que el sistema pueda auditarse para ver cómo asigna las entradas a los resultados y no sea una “caja negra” inescrutable. Mantener a los humanos informados para que no se pierda el contexto. No recopilar ni considerar información privada, incluso si la tecnología puede inferirla. Y no solo optimizar para las métricas operativas o el rendimiento, sino también para la moral y el compromiso. Y, por último, dejar que la IA proporcione retroalimentación no solo a los empleados, sino también a los gerentes y al departamento de R.H. sobre qué se puede hacer para sentar las bases para un mayor éxito de los empleados en el futuro.
Durante la última década, a medida que los algoritmos y la IA se han vuelto fundamentales para las decisiones de talento y las estimaciones sugieren que la gran mayoría de las personas usan IA en el trabajo, ha crecido la tentación de medirlo todo. Como nos recuerda la frase atribuida a Einstein, no todo lo que cuenta se puede contar, y no todo lo que se puede contar debe contar.
La IA puede hacer que la gestión del rendimiento se parezca más a un buen coaching o a una vigilancia constante. La diferencia no radica en la tecnología, sino en la prudencia con la que líderes, empleados y organizaciones la utilicen. La IA no solo debe usarse para evaluar a los empleados dentro de un sistema organizacional, sino también para evaluar el sistema en el que trabajan y generar observaciones y recomendaciones constructivas que puedan mejorar el éxito individual, de equipo, departamental y de la empresa.
Es importante destacar que aún queda mucho por conservar del arte de las buenas evaluaciones de desempeño, que son muy anteriores a la IA y a menudo funcionan precisamente porque son humanas. Cuando un jefe y un empleado co-crean objetivos claros y medibles al comienzo del año, todos tienen claridad sobre cómo se ve el éxito —y realizan una inversión cognitiva y emocional para lograrlo— y surgen menos sorpresas o decepciones posteriormente.
Cuando la retroalimentación es específica, oportuna y se basa en logros o fracasos reales, como una negociación difícil con un cliente, un lanzamiento fallido de un producto o un ascenso de un colega junior al que se entrenó, los empleados aprenden qué repetir y qué corregir, y los managers ven la capacidad en lugar de solo los resultados. Y cuando las evaluaciones incluyen un plan de desarrollo prospectivo, tal vez rotando a alguien a un nuevo mercado, financiando un programa de capacitación adicional o asignándole un mentor, la organización invierte en valor futuro mientras que el empleado ve un camino creíble para el crecimiento.
Estas prácticas simples tienen éxito no porque sean de alta tecnología, sino porque alinean incentivos, crean una comprensión holística compartida y convierten a los jefes en líderes de personas competentes. Cuando se utiliza adecuadamente, la IA puede mejorar y acelerar la coevolución exitosa de los sistemas y todas sus partes interesadas.
![[Imagen: Fast Company México/Eréndira Rojas]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/04101001/FC-YT-BeIn-Mauricio-Temp11.jpg)
![[Foto: David Burk/© SOM]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/03113849/varillas-tension-memoria-Fast-Company-Mexico-Cortesia.webp)
![[Fuente de las fotos: Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/03103618/p-1-91500169-how-acting-contracts-and-ai-are-making-actors-choose-between-working-and-signing-away-their-likeness-forever.webp)