
La inteligencia artificial (IA) generativa evoluciona en dos direcciones distintas: por un lado, los usuarios expertos construyen sus propios canales de generación aumentada por recuperación (RAG), agentes personales o incluso pequeños modelos de lenguaje (SLM) adaptados a sus contextos y datos. Por otro lado, la mayoría se conforma con los LLM listos para usar: abrir una página, escribir una consulta, copiar el resultado y pegarlo en otro lugar. Esta división —entre desarrolladores y consumidores— está determinando no solo cómo se utiliza la IA, sino también si aporta valor.
La diferencia no radica solo en la habilidad individual. También es organizacional. Las empresas descubrieron que existen dos categorías de uso de la IA: la administrativa —resumir un informe, redactar un memorando, generar código estándar— y la estratégica —implementar sistemas de agencia para automatizar funciones, reemplazar aplicaciones SaaS y transformar flujos de trabajo—. La primera es incremental. La segunda es disruptiva. Pero, por el momento, la segunda está fallando en su mayoría.
¿Por qué el 95% de los pilotos fracasan?
El Instituto Tecnológico de Massachusetts (MIT) descubrió recientemente que el 95% de los proyectos piloto corporativos de GenAI fracasan. ¿El motivo? La mayoría de las organizaciones evitan la fricción: buscan soluciones de reemplazo inmediatas que funcionen a la perfección, sin tener que afrontar las complejas cuestiones de gobernanza, integración y control de datos. Este patrón es coherente con el ciclo de expectativas de Gartner: un frenesí inicial de expectativas seguido de desilusión a medida que la tecnología resulta más compleja, compleja y política de lo prometido.
¿Por qué fracasan tantos proyectos? Porque los grandes modelos de lenguaje de las grandes plataformas son cajas negras. Sus datos de entrenamiento son opacos, sus sesgos inexplicables y sus resultados cada vez más influenciados por incentivos ocultos. Ya existen empresas que anuncian “SEO para algoritmos GenAI” o incluso “Optimización de Motores de Respuestas” (OEA): optimizan el contenido no para la veracidad, sino para manipular los criterios invisibles del resultado de un modelo. El resultado natural son alucinaciones y respuestas patrocinadas disfrazadas de objetividad. ¿Cómo sabrá si un LLM recomienda un producto porque es correcto o porque alguien pagó para que lo recomendaran?
Para las organizaciones, esa falta de transparencia es fatal. No se pueden construir procesos cruciales para la misión en sistemas cuyo razonamiento es incognoscible y cuyas respuestas pueden monetizarse sin divulgación.
De “listo para usar” a “asistente personal”
La trayectoria para los usuarios expertos es clara. Están pasando de usar LLM tal cual a desarrollar asistentes personales: sistemas que conocen su contexto, recuerdan sus preferencias y se integran con sus herramientas. Este cambio introduce un problema corporativo conocido como IA en la sombra: los empleados traen sus propios modelos y agentes al lugar de trabajo, fuera del control de TI.
En un artículo reciente, BYOAI es una seria amenaza para su empresa, argumenté que la IA en la sombra es la nueva TI en la sombra. ¿Qué sucede cuando una persona brillante insiste en trabajar con su propio modelo, adaptado a su flujo de trabajo? ¿Lo prohíbe —y se arriesga a perder talento— o lo integra —y pierde el control—? ¿Qué sucede cuando se marcha y se lleva consigo a su agente personal, capacitado con los datos de su empresa? ¿Quién posee ese conocimiento?
El gobierno corporativo se diseñó para software compartido y sistemas centralizados. No para empleados que se mueven con compañeros digitales semiautónomos capacitados para manejar datos confidenciales.
SaaS bajo asedio
Al mismo tiempo, las empresas empiezan a vislumbrar el futuro: agentes que no solo acompañan al software como servicio (SaaS), sino que lo sustituyen. Con los sistemas de planificación de recursos empresariales (ERP), tú trabajas para el software. Con los agentes, el software trabaja para ti.
Algunas empresas ya están tanteando el terreno. Salesforce se está reinventando a través de su plataforma Einstein 1, reposicionando eficazmente la gestión de relaciones con los clientes (CRM) en torno a los flujos de trabajo agentic. Klarna ha anunciado que cerrará muchos proveedores de SaaS y los reemplazará con IA. Puede que su primer intento no tenga éxito, pero la dirección es inequívoca: los agentes están en camino de colisionar con el modelo SaaS de suscripción.
La pregunta clave es si las empresas construirán estas plataformas sobre cajas negras que no pueden controlar o sobre sistemas abiertos y auditables. Porque cuanto más estratégico sea el caso de uso, mayor será el coste de la opacidad.
El código abierto como la verdadera respuesta
Por eso es importante el código abierto. Si tu futura plataforma es un agente que automatiza flujos de trabajo, gestiona datos confidenciales y sustituye su pila SaaS, ¿realmente puedes permitirte externalizarla a un sistema que no puedes inspeccionar?
China ofrece un ejemplo elocuente. A pesar de tener restricciones para importar los chips más avanzados, las empresas chinas de IA, bajo presión gubernamental, han avanzado considerablemente hacia modelos de código abierto. Los resultados son sorprendentes: se ponen al día más rápido de lo que muchos esperaban, precisamente porque el ecosistema es transparente, colaborativo y auditable. El código abierto se ha convertido en su solución para las limitaciones del hardware y también en su motor de progreso.
Para las empresas occidentales, la lección es clara. El código abierto no es solo una cuestión de filosofía. Se trata de soberanía, fiabilidad y confianza.
El papel de las nubes híbridas
Por supuesto, aún queda la pregunta de dónde residen los datos. ¿Se sienten cómodas las empresas al. subir su conocimiento propietario a la nube de caja negra de otro? Para muchos, la respuesta será cada vez más negativa. Aquí es donde las arquitecturas de nube híbrida se vuelven esenciales: permiten a las organizaciones equilibrar la escalabilidad con la gobernanza, mantener las cargas de trabajo sensibles en los entornos que controlan y acceder a recursos informáticos más amplios cuando sea necesario.
Los enfoques híbridos no son la panacea, pero sí un punto intermedio pragmático. Permiten experimentar con agentes, RAG y SLM sin tener que entregar las joyas de la corona a una caja negra.
El camino a seguir
La IA generativa se divide ya en dos direcciones. Para quienes no son sofisticados, será una herramienta de copiar y pegar: útil, incremental, pero poco transformadora. Para quienes son sofisticados, se convertirá en un asistente personal. Y para las organizaciones, potencialmente, en un sustituto completo del software tradicional.
Pero si las empresas quieren dar el salto de los usos administrativos a los estratégicos, deben abandonar la fantasía de que los LLM de caja negra las llevarán hasta allí. No lo harán. El futuro de la IA corporativa pertenece a quienes insisten en la transparencia, la auditabilidad y la soberanía, lo que significa construir sobre la opacidad del código abierto, no la propiedad.
Cualquier otra cosa es simplemente alquilar inteligencia que tú no controlas mientras tus competidores construyen agentes que trabajen para ellos, no para el modelo de negocios de otra persona.