
Si estás a cargo de un equipo editorial, estás acostumbrado a las objeciones de la base sobre el uso de la IA. “Se equivoca”. “No sé qué hace con mis datos”. “Los chatbots solo dicen lo que quieres oír”.
Estas son preocupaciones válidas y las planteo a menudo en mis clases de introducción a la IA. Cada una de ellas abre un debate sobre qué se puede hacer al respecto, y resulta ser bastante. Las alucinaciones de la IA requieren una reflexión cuidadosa sobre dónde aplicar la verificación de datos y la participación humana. Las herramientas empresariales, las API y las configuraciones de privacidad pueden contribuir en gran medida a la protección de tus datos. Y puedes eliminar la adulación habitual de la IA sin le pides que te dé retroalimentación crítica.
Sin embargo, existe otra objeción a la IA que ha ido en aumento y no se puede evitar simplemente con insistencia. Existe una creciente reticencia entre algunos trabajadores del conocimiento a utilizar la IA debido a su enorme consumo de energía y el consiguiente impacto ambiental.
No es ningún secreto que, a medida que crece el número de personas que utilizan IA, aumenta el enorme consumo energético de la industria. Es cierto que los chips que impulsan la IA se vuelven cada vez más eficientes, pero herramientas como la investigación profunda, los modelos de pensamiento y los agentes también garantizan el aumento de la demanda de energía. No ayudó que Sam Altman dijera una vez que decir “por favor” y “gracias” a ChatGPT era gastar millones de dólares innecesariamente. Tan solo la construcción de centros de datos de IA se ha disparado 40% interanual, lo que genera preocupación no solo por el consumo de energía, sino también por el de agua.
Cuando la culpa por usar IA se convierte en resistencia
Para quienes se preocupan por el medio ambiente, estas historias y estadísticas pueden pesar. Usar ChatGPT empieza a sentirse como una traición, ya que cada consulta genera tanto inteligencia como una dosis proporcional de culpa. Si sienten que su empleador los presiona para que usen estas herramientas de todos modos, esa culpa puede convertirse en ira e incluso en resistencia.
Ya empezamos a ver serias objeciones. Funcionarios de Reino Unido expresaron su reticencia a utilizar herramientas de IA debido a la preocupación por las cero emisiones netas, según informó The Telegraph. Varios funcionarios encargados de implementar iniciativas impulsadas por IA se mostraron reacios, y temieron que ello entrara en conflicto con los compromisos climáticos de Gran Bretaña. Una dinámica similar se desarrolla a nivel municipal en Estados Unidos. Algunos funcionarios de TI y legisladores municipales en lugares como California han comenzado a analizar los proyectos de IA desde una perspectiva de sostenibilidad.
Muchos profesionales de los medios de comunicación también están preocupados. Hace un par de semanas, vi al menos a tres periodistas plantear esta preocupación —en eventos separados— mientras asistía a la conferencia de la Online News Association en Nueva Orleans. Y en una capacitación reciente que impartí con un gran equipo de comunicación corporativa, pregunté a la audiencia: ¿Cuál es su principal preocupación sobre el uso de IA?, con cinco opciones: alucinaciones, sesgo, adulación, privacidad o consumo de energía. 37% respondió que el consumo de energía.
La evidencia apunta a que el consumo de energía de la IA se convierte en un grave problema de relaciones públicas, no solo para la industria, sino para cualquier negocio. Es difícil estar a la vanguardia de la IA si tus empleados creen que usarla supone un gran retroceso para el cambio climático.
Para ser claros, esto no significa que las preocupaciones ambientales no sean válidas, sino que simplemente no son mi área de especialización. Pero la IA y la gestión de equipos sí lo son, y es evidente que este problema representará un desafío creciente para los líderes de IA en todos los sectores, pero especialmente para los medios de comunicación, ya que los periodistas están en primera línea cuando informan sobre el impacto ambiental de la IA.
¿Cómo gestionar a los empleados preocupados?
Entonces, ¿qué pueden hacer los líderes de la empresa para abordar este problema antes de que se descontrole? Esto dependerá de varios factores: su política de IA, las herramientas que utilicen y la demografía de sus empleados. A continuación, se ofrecen algunas pautas, divididas en lo que se debe y no se debe hacer:
- Escucha atentamente sus preocupaciones. ¿Se oponen debido a las amplias implicaciones climáticas o son más específicas? ¿Tiene que ver con una herramienta específica? ¿Un impacto local? Cuantos más detalles tenga sobre el problema, mejor sabrá qué puede hacer al respecto.
- No desestimes sus preocupaciones ni las desvíes al señalar a otras industrias. Sí, los coches emiten carbono y hay microplásticos en el océano. Pero también existen los motores diésel y los programas de reciclaje. Es justo preguntar cuál es el equivalente para la IA.
- Investiga el problema. En agosto de este año, Google se convirtió en el primer laboratorio importante en elaborar un informe técnico detallado sobre la huella energética, de carbono e hídrica de sus servicios de IA. Esto brindó a la empresa la oportunidad de presumir su progreso, reduciendo 33 veces el consumo de energía por solicitud entre mayo de 2024 y mayo de 2025.
- No fomentes la mitigación del uso individual. Esto puede ser controvertido, pero lo peor que puede hacer un trabajador orientado a la IA es descuidar su uso para resolver un problema en el que realmente puede ser útil. Esto aplica también al pensamiento, la investigación profunda y GPT-5 Pro. En lugar de mitigar el uso individual de herramientas…
- Transforma los flujos de trabajo en herramientas dedicadas. Si una herramienta o flujo de trabajo en particular resulta lo suficientemente útil, se debe desarrollar de tal manera que utilice el modelo más eficiente posible, lo que ahorrará en costos de computación y protegerá el medio ambiente. Pagar por su propia computación es el incentivo definitivo para limitar el uso innecesario.
- Por último, no deja de hablar del problema. Al informar al equipo, menciona lo que hace la organización para abordarlo. Las empresas ambiciosas podrían incluso crear un contador de energía visible internamente, algo que mediría no solo cuánta energía se utiliza, sino también cuánto procesamiento obtienen de ella, y mostraría cómo mejoran la eficiencia con el tiempo.
El riesgo de la pérdida de confianza de los trabajadores
A medida que la IA avanza, gobernada por gigantescas empresas multimillonarias y gobiernos mundiales, es comprensible que las personas sientan que no tienen control sobre su impacto en la sociedad, incluido el planeta. Es importante que los líderes reconozcan esa sensación de impotencia y la transformen en una búsqueda de eficiencia y comunicación abierta. Las organizaciones que no lo hagan podrían descubrir que quienes usan la IA sin autorización no son tan malos como quienes se niegan a usarla.