[Imagen: Leon/Adobe Stock]
En el mundo de los reportes de resultados y las presentaciones para inversionistas, el objetivo final del actual boom de la inteligencia artificial suele llamarse algo así como inteligencia artificial general (AGI), superinteligencia o —si eres muy clavado— IA con auto-mejora recursiva. Pero en el mundo real, lo que todos buscamos es el equivalente a la computadora de Star Trek: un asistente digital con el que puedas hablar y que no solo te entienda por completo, sino que además pueda hacer cosas por ti al instante. Lo que hoy se traduce a agentes de IA.
En los últimos meses se ha avanzado mucho en este aspecto. Durante mi estancia en el CES, asistí a la presentación de Lenovo, donde se presentó Qira, una IA siempre activa que se integrará en sus dispositivos en el futuro. Como escribí en The Media Copilot, la innovación de Qira reside en que el asistente es ahora un “orquestador de agentes”, que deriva al usuario sin problemas a otros servicios como ChatGPT, Perplexity u otros, según la solicitud del usuario.
La razón por la que un fabricante de dispositivos como Lenovo puede lograrlo es porque no compite con esos servicios: Qira es un facilitador, no un servicio de IA que lo hace todo. Parece que Apple finalmente también ha comprendido esta estrategia tras anunciar un acuerdo plurianual para integrar los modelos Gemini de Google en una Siri renovada a finales de este año.
Apple ha prometido demasiado y ha cumplido insuficientemente en materia de IA durante los últimos dos años, en parte debido a su reticencia a depender de socios para partes de su experiencia de IA. Ahora que hay más claridad sobre la visión del orquestador y sobre cómo se comunican las IA entre sí, parece que hemos superado las preocupaciones sobre empoderar a la competencia.
Los asistentes evolucionan a agentes
A todo esto se suman herramientas con funciones de agente como Claude Code y Claude Coworker. El revuelo en torno a estas herramientas en el mundo de la IA ha sido enorme, y en gran parte se debe a que pueden hacer mucho más que programar y crear sitios web. Son agentes efectivos, capaces de recibir instrucciones, convertirlas en planes y ejecutarlos, a menudo con mínima orientación del usuario. Ya sea en el sistema operativo (Qira/Siri) o en una aplicación de escritorio (Cowork), el efecto es el mismo: la toma de decisiones se acerca más a la interfaz que las personas realmente usan.
Varias personas en X afirman que la experiencia con Coworker se asemeja más a trabajar con un compañero que a la de dar instrucciones a una IA. Pero también surgen nuevas preocupaciones: Anthropic advierte a los usuarios sobre riesgos de seguridad, como instrucciones poco claras que pueden provocar la eliminación de archivos, porque eso es lo que ocurre cuando el modelo puede actuar, no solo hablar.
Todo esto apunta en la misma dirección. Es probable que pronto una cantidad significativa y creciente de interacciones con dispositivos indiquen a los agentes qué hacer. Sin aplicaciones ni navegadores, solo la respuesta, el resultado o el resultado que se busca. Es la computadora Enterprise, pero no en el puente de una nave espacial, sino en millones de dispositivos en todo el mundo.
Esto tiene enormes implicaciones para los medios de comunicación, las marcas y otros proveedores de contenido. En mi artículo de Qira, hablé sobre cómo se desarrollará la batalla por el contexto en el ámbito de la información el próximo año, pero el trabajo basado en agentes también afectará al propio trabajo basado en la información, especialmente al periodismo. Integrar un agente —esencialmente, una computadora que toma decisiones— en el espacio de trabajo es potencialmente un gran acelerador, pero plantea preguntas complejas sobre la atribución, el acceso y el tratamiento de datos confidenciales.
Auditabilidad en la era de los agentes de IA
Suena serio, y hay una solución sencilla para estas preocupaciones: no usarla. Pero no es una estrategia. Como cualquier herramienta, quienes la aprendan, la usen y la dominen tendrán ventaja sobre quienes no. A medida que el trabajo agéntico se populariza, los lugares de trabajo que descubran cómo implementarlo de forma segura tendrán las mejores posibilidades de éxito.
Sin embargo, los medios de comunicación se enfrentan a un desafío particular, ya que la información es su negocio. Ya hemos visto cómo esto ocurre con las alucinaciones. La propensión de los sistemas de IA a improvisar persiste e impide que muchas redacciones la adopten, al menos en lo que respecta al contenido.
El peligro de un agente en el lugar de trabajo es más insidioso. La IA no crea contenido per se, sino que toma decisiones como qué fuentes de información utilizar, qué servicios ayudar con una tarea y qué conocimiento de la empresa aplicar a cualquier solicitud específica. Pero si un agente va a tomar decisiones en una redacción, no puede ser una caja negra.
Incluso sin que la IA cometa un error per se, la cuestión de cómo toma sus decisiones es importante. Observemos el corolario en las búsquedas: cuando Google llegó a un acuerdo con Reddit, Reddit apareció en la parte superior de muchos más resultados de búsqueda. Esto, sin duda, influyó en la información que las personas obtenían, especialmente porque Google es un monopolio efectivo de las búsquedas.
Bueno, un dispositivo o agente de IA en el lugar de trabajo tendrá un monopolio similar. La forma en que un agente recorre un árbol de decisiones no puede ser una caja negra. Sin duda, orientar a los trabajadores hacia servicios autorizados y software de la empresa es un primer paso obvio. Seguir las guías de estilo y las políticas de la empresa en sus acciones es otro. Pero es en las partes de los flujos de trabajo que no están cubiertas por esto donde las cosas se complican. No se trata solo de obtener información, sino del contexto en el que se basa al actuar.
La necesidad de gobernanza en la IA
Si bien las acciones deben ser transparentes para el usuario, debe haber un registro documental auditable para ellos. La forma en que el agente de IA obtiene el contexto de la web y de qué servicios debe ser clara y rastreable. Cuando se le pregunte, en lenguaje sencillo, por qué realizó una acción específica, debe haber una guía a la que el usuario pueda acceder si lo desea, junto con un método para corregir cualquier error en su razonamiento (incluido el sesgo). Las exenciones de responsabilidad no son suficientes para los agentes; la capacitación sobre cómo usarlas y auditar su propio uso debe ser estándar.
En otras palabras, la gobernanza importa. Agentes como Qira y Claude Coworker podrían hacer realidad el sueño de ser verdaderos asistentes de IA. Pero el potencial que prometen liberar requiere la misma deferencia. Si algo ha demostrado la IA en los últimos años, es que puede hacer cosas increíbles, pero no se puede confiar en que siempre acierte. Para que las organizaciones avancen realmente hacia la era de los agentes, deberán adoptar un viejo dicho: confiar, pero verificar.

![[Foto fuente: master1305/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/23115718/p-1-91473272-brand-os.webp)
![[Foto: Matheus Bertelli/Pexels]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/23125854/1-9.jpg)