
No hay duda de que estamos presenciando un cambio silencioso en el trabajo: la inteligencia artificial (IA) ya no se limita a los laboratorios experimentales o a los chatbots de consumidores, ahora está erosionando las bases del trabajo humano en formas que son menos visibles, pero potencialmente más importantes, que los titulares sobre “asistentes de IA” o “superinteligencia”.
La semana pasada, Google despidió abruptamente a 200 contratistas de IA, muchos de ellos involucrados en tareas de anotación y evaluación. Oficialmente, la compañía lo describió como parte de una reducción gradual de personal, pero los trabajadores señalaron principalmente los bajos salarios y la precariedad laboral. Lo importante es que los puestos que se están eliminando son precisamente los que garantizan la supervisión humana de los sistemas de IA: los evaluadores, anotadores y revisores que conforman el andamiaje invisible de los productos “inteligentes”.
Paralelamente, en un evento de Axios, el director ejecutivo de Anthropic, Dario Amodei,
advirtió que la IA va camino de desplazar muchos empleos administrativos en cinco años. No en décadas. No en un futuro especulativo. En el próximo ciclo de planificación corporativa, el mundo del trabajo profesional, desde el derecho hasta las finanzas, la consultoría o incluso la administración, podría ser muy diferente.
Del trabajo detrás de la IA a la pérdida invisible
Durante años, el trabajo humano que impulsa la IA ha permanecido oculto: anotadores mal pagados en países en desarrollo, moderadores expuestos a contenido traumático, contratistas que limpian y estructuran datos discretamente para entrenar modelos. Estos trabajos rara vez se reconocían, y mucho menos se respetaban. Ahora se están eliminando por completo, a medida que las empresas cambian de la participación humana a la automatización.
La cuestión no se limita al empleo. Se trata de lo que desaparece al eliminar el juicio humano del sistema. Los anotadores detectan ambigüedades, señalan casos extremos peligrosos y aplican razonamientos morales que los modelos no pueden replicar. Los evaluadores aportan matices culturales y lingüísticos. Cuando estas funciones se automatizan, los sistemas pueden seguir funcionando, pero los puntos ciegos se profundizan, los errores se multiplican y los sesgos se amplifican. La eficiencia aumenta, pero la resiliencia disminuye.
Trabajo de cuello blanco a tiempo parcial
La advertencia de Amodei apunta a una realidad más amplia: la IA está ascendiendo en la cadena de valor: ya no se limita a tareas de soporte, sino que está invadiendo el análisis, la escritura, el diseño e incluso la toma de decisiones. Las clases profesionales que antes se consideraban aisladas de la automatización ahora están en la mira. Si los trabajadores manuales fueron la primera ola de desplazamiento tecnológico en el siglo XX, los trabajadores administrativos podrían ser la segunda en el siglo XXI.
La retórica de los líderes tecnológicos suele presentar esto como una oportunidad: liberación del trabajo pesado, creación de nuevos roles, aumento de la productividad. Pero el historial de cambios tecnológicos previos es desalentador. Sí, surgen nuevos roles, pero no necesariamente para las mismas personas, en los mismos lugares ni con los mismos sueldos. Los dolorosos costos de la transición no los asumen los accionistas, sino los trabajadores.
Reglamento en fragmentos
Los gobiernos están empezando a notarlo. Italia acaba de presentar un paquete legislativo sobre IA que busca combatir los deepfakes dañinos, establecer estándares laborales y mejorar la protección infantil. Es uno de los primeros intentos de ir más allá de las barreras reactivas e imponer controles preventivos sobre el uso de la IA. Aún no se sabe si esto se convertirá en un modelo para otros.
España, en cambio, está implementando un modelo mixto: por un lado, ha promulgado leyes que exigen el etiquetado de todo el contenido generado por IA, con fuertes multas, y ha creado la AESIA (Agencia Española de Supervisión de la IA) para supervisar su cumplimiento; por otro, también está subvencionando considerablemente el desarrollo y la innovación en IA. La tensión es real: las medidas destinadas a proteger la verdad y la transparencia pueden imponer cargas a las pequeñas empresas emergentes; la capacidad de aplicación está lejos de estar garantizada; y la claridad legislativa va a la zaga del cambio tecnológico. El caso español ejemplifica una zona fronteriza: se fomenta la regulación y la innovación, pero no siempre se concilian.
La ironía es que la regulación avanza con mayor rapidez en los daños visibles que generan alarma social, como los deepfakes, la desinformación y la seguridad infantil, mientras que la erosión invisible de la mano de obra pasa prácticamente desapercibida. Es más fácil prohibir un video falso que enfrentarse a un modelo de negocio que trata el juicio humano como un costo desechable.
La eficiencia de la IA no es ética
Este momento plantea una pregunta más profunda: ¿solo porque la IA puede reemplazar un rol humano significa que debería hacerlo? No toda mejora en la eficiencia implica una mejora en la ética. Eliminar moderadores puede reducir costos, pero ¿a qué precio en términos de seguridad? Automatizar la evaluación puede acelerar la implementación, pero ¿con qué riesgo de error? Desplazar a los empleados administrativos podría mejorar el margen, pero los costos para la estabilidad social son bastante claros. ¿Nos estamos comportando ahora como Meta, “moviéndonos rápido y rompiendo cosas”, centrándonos en la rentabilidad sin prestar atención a otras posibles consecuencias?
Todos deberíamos ser cautelosos ante un futuro en el que la IA no solo media nuestra información, sino que también dicta nuestros mercados laborales, reestructurando silenciosamente lo que significa ser útil. Las empresas no deberían delegar esa responsabilidad en los reguladores. Deben reconocer que la revolución invisible que impulsan tiene importantes consecuencias humanas, y que estas consecuencias eventualmente repercutirán en su propia legitimidad.
La verdadera mano invisible
La “mano invisible” en la economía actual de la IA no es el mercado de Adam Smith. Es la mano de obra invisible que ha impulsado el aprendizaje automático y las pérdidas invisibles que se producen cuando se descarta dicha mano de obra. Los despidos en Google y las advertencias de Anthropic son señales, no excepciones. Estamos presenciando las primeras etapas de una transformación que podría redefinir no solo cómo trabajamos, sino también qué tipos de trabajo aún valora la sociedad.
Si las empresas quieren que la IA sea sostenible, deben considerar el juicio humano no como un andamiaje temporal que debe eliminarse, sino como un componente fundamental de los sistemas que aspiran a interactuar con el mundo. Sin ello, corremos el riesgo de construir una economía donde los empleos sean intercambiables, la supervisión sea opcional y el coste humano de la eficiencia se oculte hasta que sea demasiado tarde.