| Tech

Resumen de los agentes de IA en 2025: qué pasó y qué esperar el próximo año

A medida que los agentes de IA se integran en toda la vida digital, las preguntas sobre acceso, responsabilidad y límites siguen en gran medida sin respuesta.

Resumen de los agentes de IA en 2025: qué pasó y qué esperar el próximo año [Imagen: Pixabay]

En inteligencia artificial, 2025 marcó un cambio decisivo. Sistemas que antes se limitaban a laboratorios de investigación y prototipos comenzaron a aparecer como herramientas cotidianas. En el centro de esta transición se encontró el auge de los agentes de IA: sistemas de IA capaces de utilizar otras herramientas de software y actuar de forma autónoma.

Si bien los investigadores han estudiado la IA durante más de 60 años, y el término “agente” forma parte del vocabulario del campo desde hace tiempo, 2025 fue el año en que el concepto se concretó tanto para desarrolladores como para consumidores.

Los agentes de IA pasaron de la teoría a la infraestructura, transformando la forma en que las personas interactúan con los grandes modelos de lenguaje, los sistemas que impulsan chatbots como ChatGPT.

En 2025, la definición de agente de IA pasó del marco académico de sistemas que perciben, razonan y actúan a la descripción de la empresa de IA Anthropic de grandes modelos de lenguaje capaces de utilizar herramientas de software y actuar de forma autónoma. Si bien los grandes modelos de lenguaje han destacado durante mucho tiempo en las respuestas basadas en texto, el cambio reciente radica en su creciente capacidad de actuar, utilizando herramientas, invocando API, coordinándose con otros sistemas y completando tareas de forma independiente.

Este cambio no se produjo de la noche a la mañana. Un punto de inflexión clave se produjo a finales de 2024, cuando Anthropic lanzó el Protocolo de Contexto de Modelo. Este protocolo permitió a los desarrolladores conectar grandes modelos lingüísticos a herramientas externas de forma estandarizada, otorgando a los modelos la capacidad de actuar más allá de la generación de texto. Con ello, se sentó las bases para que 2025 se convirtiera en el año de los agentes de IA.

Los agentes de IA representan un panorama completamente nuevo en comparación con la IA generativa.

Los hitos que definieron 2025

El impulso se aceleró rápidamente. En enero, el lanzamiento del modelo chino DeepSeek-R1 como modelo de peso abierto trastocó las suposiciones sobre quién podía construir grandes modelos de lenguaje de alto rendimiento, lo que sacudió brevemente los mercados e intensificó la competencia global. Un modelo de peso abierto es un modelo de IA cuyo entrenamiento, reflejado en valores llamados pesos, está disponible públicamente.

A lo largo de 2025, importantes laboratorios estadounidenses como OpenAI, Anthropic, Google y xAI lanzaron modelos más grandes y de alto rendimiento, mientras que empresas tecnológicas chinas, como Alibaba, Tencent y DeepSeek, expandieron el ecosistema de modelos abiertos hasta el punto de que los modelos chinos se han descargado más que los estadounidenses.

Otro punto de inflexión se produjo en abril, cuando Google presentó su protocolo Agent2Agent. Mientras que el Protocolo de Contexto de Modelo de Anthropic se centraba en cómo los agentes usan las herramientas, Agent2Agent abordó cómo se comunican entre sí. Fundamentalmente, ambos protocolos fueron diseñados para funcionar juntos. Más adelante ese mismo año, tanto Anthropic como Google donaron sus protocolos a la Fundación Linux, una organización sin fines de lucro dedicada al software de código abierto, consolidándolos como estándares abiertos en lugar de experimentos propietarios.

Estos desarrollos se integraron rápidamente en los productos de consumo. A mediados de 2025, comenzaron a aparecer los “navegadores agénticos”. Herramientas como Comet de Perplexity, Dia de Browser Company, GPT Atlas de OpenAI, Copilot en Edge de Microsoft, Fellou de ASI X Inc., Genspark de MainFunc.ai, Opera Neon de Opera y otras redefinieron el navegador como un participante activo en lugar de una interfaz pasiva. Por ejemplo, en lugar de ayudar a buscar detalles de vacaciones, participa en la reserva de las mismas.

Al mismo tiempo, desarrolladores de flujos de trabajo como n8n y Antigravity de Google redujeron la barrera técnica para la creación de sistemas de agentes personalizados, más allá de lo que ya sucedía con agentes de programación como Cursor y GitHub Copilot.

Nuevas capacidades, nuevos riesgos

A medida que los agentes se volvían más capaces, sus riesgos se volvían más difíciles de ignorar. En noviembre, Anthropic reveló cómo su agente Claude Code había sido utilizado indebidamente para automatizar partes de un ciberataque. El incidente ilustró una preocupación más amplia: al automatizar el trabajo técnico repetitivo, los agentes de IA también pueden reducir la barrera para la actividad maliciosa.

Esta tensión definió gran parte de 2025. Los agentes de IA ampliaron las capacidades de las personas y las organizaciones, pero también amplificaron las vulnerabilidades existentes. Los sistemas que antes eran generadores de texto aislados se convirtieron en actores interconectados que utilizan herramientas y operan con poca supervisión humana.

A qué prestar atención en 2026

De cara al futuro, es probable que varias preguntas abiertas definan la siguiente fase de los agentes de IA.

Una de ellas son los puntos de referencia. Los puntos de referencia tradicionales, que son como un examen estructurado con una serie de preguntas y una puntuación estandarizada, funcionan bien para modelos individuales, pero los agentes son sistemas compuestos por modelos, herramientas, memoria y lógica de decisión. Los investigadores buscan cada vez más evaluar no solo los resultados, sino también los procesos. Esto sería como pedir a los estudiantes que muestren su trabajo, no solo que den una respuesta.

El progreso en este aspecto será fundamental para mejorar la fiabilidad y la confianza, y garantizar que un agente de IA realice la tarea en cuestión. Un método consiste en establecer definiciones claras en torno a los agentes de IA y los flujos de trabajo de IA. Las organizaciones deberán determinar con precisión dónde se integrará la IA en los flujos de trabajo o introducir nuevos.

Otro desarrollo a tener en cuenta es la gobernanza. A finales de 2025, la Fundación Linux anunció la creación de la Fundación de IA Agéntica, lo que indica un esfuerzo por establecer estándares compartidos y mejores prácticas. De tener éxito, podría desempeñar un papel similar al del Consorcio World Wide Web en la configuración de un ecosistema de agentes abierto e interoperable.

También existe un creciente debate sobre el tamaño del modelo. Si bien los modelos grandes y de propósito general dominan los titulares, los modelos más pequeños y especializados suelen ser más adecuados para tareas específicas. A medida que los agentes se convierten en herramientas configurables para consumidores y empresas, ya sea a través de navegadores o software de gestión de flujos de trabajo, la capacidad de elegir el modelo adecuado recae cada vez más en los usuarios, en lugar de en los laboratorios o las corporaciones.

Los desafíos futuros

A pesar del optimismo, persisten importantes desafíos sociotécnicos. La expansión de la infraestructura de los centros de datos sobrecarga las redes eléctricas y afecta a las comunidades locales. En los lugares de trabajo, los agentes plantean inquietudes sobre la automatización, la sustitución de puestos de trabajo y la vigilancia.

Desde una perspectiva de seguridad, conectar modelos a herramientas y apilar agentes multiplica los riesgos que ya no se resuelven en los modelos de lenguaje grandes e independientes. En concreto, los profesionales de la IA están abordando los peligros de la inyección indirecta de indicaciones, donde las indicaciones se ocultan en espacios web abiertos que los agentes de IA pueden leer y que resultan en acciones dañinas o no deseadas.

La regulación es otro problema pendiente. En comparación con Europa y China, Estados Unidos tiene una supervisión relativamente limitada de los sistemas algorítmicos. A medida que los agentes de IA se integran en la vida digital, las preguntas sobre el acceso, la responsabilidad y los límites siguen en gran medida sin respuesta.

Afrontar estos desafíos requerirá más que avances técnicos. Exige prácticas de ingeniería rigurosas, un diseño cuidadoso y una documentación clara de cómo funcionan y fallan los sistemas. Creo que solo tratando a los agentes de IA como sistemas sociotécnicos, en lugar de meros componentes de software, podremos construir un ecosistema de IA innovador y seguro.

Thomas Şerban von Davier es profesor afiliado del Instituto Carnegie Mellon de Estrategia y Tecnología de la Universidad Carnegie Mellon.

Este artículo se retoma de The Conversation bajo una licencia Creative Commons. Lee el artículo original.

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Sobre el autor

Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.