
La industria de la inteligencia artificial (IA) está madurando rápidamente. Los lanzamientos de nuevos modelos ahora son eventos frecuentes y las funciones premium de IA son rápidamente superadas por alternativas gratuitas o de bajo costo.
Ejemplo A: OpenAI presentó su herramienta Deep Research, que puede redactar informes sobre temas complejos en minutos, como parte de su paquete Pro de 200 dólares al mes, pero su competidor Perplexity ofrece a los no suscriptores cierto acceso a su asistente Deep Research de forma gratuita. (Sí, el asistente de investigación agentivo de Google Gemini también se llama Deep Research).
Con menos avances fundamentales, empresas como OpenAI, Anthropic y xAI están compitiendo en mejoras incrementales en búsqueda y capacidad de razonamiento. A medida que los precios de la IA caen y las diferencias de rendimiento se reducen, el enfoque ha cambiado de aplicaciones novedosas a encontrar un valor empresarial real.
ES UNA NUEVA ERA PARA LA IA
La IA agentiva es un cambio de juego. Gartner predice que 33% de las aplicaciones de software empresarial incluirán IA agentiva para 2028, un aumento drástico desde menos del 1% en 2024. Se estima que 15% de las decisiones laborales diarias podrían ser tomadas de manera autónoma por agentes de IA, aumentando la productividad empresarial y liberando a los trabajadores para tareas más estratégicas.
Por lo tanto, no es sorpresa que OpenAI –que según su CEO Sam Altman, tardó 4.5 años en lanzar ChatGPT “sin tener idea de quién sería nuestro cliente”– esté presentando su primera hoja de ruta de productos. Nada dice “mercado en maduración” como una hoja de ruta de productos.
Como Finn Murphy, fundador y capitalista de riesgo, publicó en X desde la Cumbre de Acción sobre IA en París, donde la UE anunció que “movilizará” 200,000 millones de eurospara inversión en IA: “Realmente parece que la era de los anuncios de avances técnicos interesantes ha terminado y la era de los anuncios de políticas, asociaciones y dinero ha comenzado”.
EL ASUNTO DE LA SEGURIDAD
Madurar acarrea responsabilidades, especialmente a nivel empresarial. Entre los 1,803 ejecutivos de alto nivel encuestados en el informe AI Radar del Boston Consulting Group (BCG) publicado en enero, 76% reconoció que sus medidas de ciberseguridad para la IA necesitan mejoras. De hecho, esa cifra debería estar más cerca del 100%.
Los ejecutivos clasificaron la privacidad y la seguridad de los datos como el principal riesgo de la IA. Los desafíos normativos y el cumplimiento también fueron preocupaciones clave. Sus temores no son infundados: las aplicaciones de IA abren una nueva superficie de ataque para los ciberdelincuentes y los investigadores de seguridad ya han logrado “vulnerar” en cierta medida todos los modelos de IA de primer nivel.
Aun así, fue la llegada inesperada de DeepSeek, de China, lo que realmente llevó la seguridad de la IA al centro del debate. Es notable que tanto consumidores como empresas tengan preocupaciones sobre que una entidad china acceda a sus datos, pero parezcan confiar en que entidades de Estados Unidos y Europa –que imponen términos y condiciones casi idénticos– los mantendrán seguros. La seguridad debe ser una consideración clave para todos los modelos de IA, no solo para los que se desarrollan (o alojan) fuera de Estados Unidos.
La historia nos muestra que los actores malintencionados suelen ser los primeros en adoptar nuevas tecnologías, desde el fraude financiero hasta las estafas por teléfono, mensaje de texto y correo electrónico. En un mundo agentivo, donde los agentes de IA tienen acceso a información crítica y aplicaciones internas de las empresas, el impacto de cualquier ataque podría ser exponencial.
PENSAR COMO UN ATACANTE
Se dice a menudo que la mejor defensa es pensar como un atacante. Hoy en día, eso significa usar la Guerra Agentiva para probar de manera exhaustiva los sistemas impulsados por IA en busca de vulnerabilidades antes de que salgan al mercado. La automatización de pruebas de seguridad (red-teaming) se ha convertido en el estándar para evaluar la IA con rapidez, complejidad y escala.
En cada etapa, la seguridad debe considerarse junto con el rendimiento al elegir una IA, en lugar de ser una idea tardía cuando algo sale mal. Tanto como el costo, la relación seguridad-rendimiento será una métrica clave en la selección de modelos y aplicaciones; esta es una decisión crucial para implementar IA de manera segura y exitosa.
Curiosamente, la encuesta de BCG señala que “la sensación intuitiva y amigable de la IA generativa oculta la disciplina, el compromiso y el trabajo arduo que se requieren” para introducirla en el lugar de trabajo. Es un trabajo duro, pero las recompensas pueden ser significativas.
Así como el software llevó a saltos innovadores y productivos que definieron una era, la IA agentiva promete grandes avances en todos los sectores –siempre y cuando la seguridad esté integrada desde el principio–.