| Tech

Un vistazo a las 5 lecciones más importantes de la inteligencia artificial en 2025

El año pasado fue marcó un punto de inflexión para el desarrollo de la inteligencia artificial, y deja varias lecciones para 2026.

Un vistazo a las 5 lecciones más importantes de la inteligencia artificial en 2025 [Foto: matejmo/Getty Images]

Lior Pozin tuvo una revelación sobre la infraestructura de la inteligencia artificial a principios de 2025. Como CEO de AutoDS, una plataforma de automatización de comercio electrónico potenciada por IA, impulsó a su equipo a implementar funciones de IA rápidamente, convencido de que la velocidad definiría el éxito.

AutoDS se fundó con recursos propios y finalmente alcanzó los 1.8 millones de usuarios, generó más de 1,000 millones de dólares en ingresos por usuario y se fusionó con éxito en Fiverr. Desde sus inicios, la empresa se movió con rapidez, el tipo de lugar donde la velocidad era estratégica y la implementación rápida se sentía como la forma natural de operar. Pero a medida que el equipo de Pozin pasó de las pruebas piloto a la producción, aprendió que la velocidad por sí sola no era suficiente. La inteligencia artificial solo ofrece resultados cuando se establecen las bases de datos y las estructuras de propiedad adecuadas.

“Sin la gobernanza, la organización de datos y el acceso adecuados, la inteligencia artificial no puede escalar”, declara Pozin a Fast Company. “Una vez que construimos esa base, todo cambió. La IA dejó de ser una función para convertirse en parte de nuestra forma de operar”.

Esa experiencia no fue exclusiva de AutoDS. En 2025, en diversos sectores, las empresas se dieron cuenta rápidamente de que implementar inteligencia artificial a gran escala requería afrontar realidades incómodas sobre su infraestructura, sus suposiciones sobre lo que podía hacer y su disposición a resolver problemas poco prometedores antes de buscar soluciones transformadoras. Si bien el año comenzó con grandes promesas, resultó ser menos un año de avances y más de afrontar la realidad.

Las lecciones que surgieron revelan una industria en crecimiento. En lugar de construir modelos cada vez más potentes o simplemente recaudar más capital, la industria está madurando al descubrir qué funciona realmente cuando terminan las demostraciones y comienza el verdadero trabajo.

Infraestructura primero, o nada más importa

A principios de 2024, la empresa de bases de datos RavenDB exploró la creación de un asistente de inteligencia artificial para su documentación en colaboración con Microsoft. El proyecto finalmente fracasó. Según su fundador, Oren Eini, el problema no era el modelo de IA en sí, sino todo lo que lo rodeaba.

Los datos tenían que pasar por múltiples sistemas antes de llegar al modelo, y las actualizaciones requerían intervención manual. Toda la configuración dependía de conexiones frágiles que podían romperse en cualquier momento. Para una empresa de bases de datos, la ironía era evidente.

La experiencia aclaró algo esencial para el equipo: la inteligencia artificial debía integrarse mucho más profundamente en la propia base de datos para ser fiable, predecible y escalable.

Para Eini, no fue tanto un contratiempo como una señal de que la arquitectura circundante importaba tanto como el propio modelo. Esta constatación inspiró el trabajo más reciente de RavenDB sobre agentes de IA y capacidades integradas directamente en la capa de base de datos, donde los modelos operan más cerca de los datos de los que dependen y pueden comportarse de forma más predecible en entornos de producción.

En AutoDS, ese cambio se tradujo en un enfoque más deliberado. El equipo se centró en crear una capa de datos compartida en su plataforma de dropshipping y en una propiedad más clara en torno a las iniciativas de inteligencia artificial, lo que posteriormente permitió que productos como su creador de tiendas basado en IA escalaran de forma más fiable en toda la empresa.

El cambio requirió paciencia. El equipo de Pozin dejó de perseguir lo que parecía impresionante y comenzó a centrarse en lo que importaba: ahorro de tiempo, mejora de la precisión y aceleración de las decisiones. “El éxito ahora significa que la IA realmente mejora nuestra forma de trabajar, no solo que la usemos”, señala Pozin.

La eficiencia supera a la potencia bruta

Mientras que gran parte de la industria de la IA buscaba modelos más grandes y mayor capacidad de procesamiento en 2025, Oculeus, una empresa de software para telecomunicaciones con amplia experiencia en IA, dedicó el año a priorizar la eficiencia. El equipo se centró en diseñar y perfeccionar sistemas que ofrezcan un rendimiento fiable sin una sobrecarga computacional excesiva. Este enfoque es fundamental para la aplicación de la IA por parte de Oculeus en las telecomunicaciones, donde sus sistemas se utilizan para detectar patrones de fraude y comportamientos anómalos en tiempo real.

En estos entornos, Arnd Baranowski, CEO de la empresa, explica que “la previsibilidad es más importante que la novedad, ya que los falsos positivos y los resultados inconsistentes conllevan un riesgo financiero y operativo directo”.

“Los algoritmos y la tecnología de IA, que conllevan una computación masiva y un consumo energético excesivo, son un camino equivocado”, añade Baranowski. Su crítica va más allá del hardware, cuestionando la adopción por parte de la industria de sistemas no deterministas que producen diferentes resultados para la misma entrada. “El entrenamiento debe dar como resultado respuestas 100% deterministas. De lo contrario, algo falla”.

Esta postura contradice el entusiasmo en torno a los grandes modelos de lenguaje, que tratan la aleatoriedad como una característica. Para Baranowski, la lección de 2025 fue simple: los sistemas de IA solo se ganan la confianza cuando se comportan de forma consistente y se puede confiar en ellos en condiciones reales de funcionamiento.

Eini también comparte esta opinión. En RavenDB, el objetivo no era construir la IA más inteligente. Era construir una IA predecible que pudiera gestionar tareas rutinarias sin complicaciones. “No queremos necesariamente una IA ‘inteligente'”, afirma Eini. “Queremos una IA predecible”.

Dado que los costos de computación siguen siendo altos y el consumo de energía se convierte en una preocupación pública, 2026 favorecerá a las empresas que descubrieron cómo hacer más con menos, en lugar de a aquellas que aún buscan los modelos más grandes posibles.

La confianza exige límites

En 2024, el chatbot de Air Canada prometió a un cliente un descuento por tarifa de duelo que no existía. La aerolínea fue declarada responsable. El caso cristalizó un problema que se volvió inevitable en 2025: no se puede confiar en los agentes de IA como en los empleados.

Eini lo expresa sin rodeos. Un cajero de banco está sujeto a políticas y consecuencias. Un agente de IA no. “Me gusta pensar en ellos como empleados que sé que son susceptibles a sobornos”, afirma. “Es crucial establecer límites conscientes para sus acciones e implementar activamente medidas de protección”.

Esos límites se materializaron en la práctica. En AutoDS, Pozin creó un equipo dedicado a verificar los resultados de la IA y garantizar que el sistema recibiera datos fuente precisos. En RavenDB, el equipo desarrolló e implementó procesos de cadena de aprobación y límites claros sobre lo que los agentes de IA podían acceder o prometer.

La lección va más allá de las salvaguardas técnicas. Los agentes de IA se encuentran en una zona gris entre la herramienta y el actor. Responden a las instrucciones, pero carecen de criterio. Ejecutan tareas, pero no pueden sopesar las consecuencias. Esta realidad requiere nuevos marcos de rendición de cuentas que no den por sentado que una buena capacitación garantiza un buen comportamiento.

Las organizaciones que prosperen en 2026 abordarán la implementación de la IA como un problema de confianza en primer lugar. Esto implica transparencia sobre las capacidades y los límites, expectativas claras para los usuarios y sistemas diseñados para fallar de forma segura cuando las cosas salen mal.

Los pequeños ajustes superan a las grandes apuestas

Las narrativas de IA más importantes del año se centraron en los vehículos autónomos, la inteligencia artificial general (AGI) —que el científico de IA Yann LeCun considera una ilusión— y los modelos que reemplazan profesiones enteras. Pero las empresas que lograron avances reales se centraron en otra área: resolver pequeños y molestos problemas a escala.

“Los mayores cambios provendrán de la solución de muchos pequeños problemas, no de una IA grande y omnisciente”, afirma Eini. “La cantidad tiene una cualidad propia, y eliminar muchas pequeñas fricciones conduce a un ritmo general mucho más rápido”.

RavenDB capacitó a los miembros regulares del equipo para desarrollar funciones de IA en cuestión de días, en lugar de esperar a que los ingenieros más experimentados las aprobaran y ejecutaran. AutoDS medía el éxito en función de si la IA hacía que los empleados fueran más rápidos y eficientes, no en función del número de proyectos de IA en ejecución. Los resultados fueron modestos a nivel individual, pero transformadores a nivel colectivo.

Un año antes, las empresas apostaron por la IA por sí misma, implementando pilotos que parecían impresionantes en las demostraciones, pero que nunca escalaron. En 2025, el enfoque se centró en el impacto medible. Eini lo compara con cómo hoy en día potabilizamos el agua, una práctica tan común que ya nadie piensa en ella. “Del mismo modo que los cajeros automáticos o los servicios de autopago no han cambiado el mundo entero de forma fundamental, pero sí han mejorado nuestras vidas considerablemente, creo que veremos mucho de eso”, me comenta. “La gran cantidad de cambios tendrá un efecto transformador”.

La preparación importa más que la reacción

Steve Brierley no estaba desarrollando IA en 2025. Como CEO de la empresa de computación cuántica Riverlane, observaba la falta de preparación de las industrias cuando llegó ChatGPT. “El auge de la IA expuso la falta de preparación de muchas industrias cuando herramientas como ChatGPT se popularizaron repentinamente, obligando a las empresas a sortear la regulación, la escalabilidad, la disponibilidad de datos y la consolidación, y a una creciente brecha laboral y de habilidades”, afirma Brierley.

Su conclusión: comprender las tecnologías emergentes con la suficiente antelación para anticipar los desafíos en lugar de reaccionar a las crisis. La computación cuántica llegará antes de lo que muchos esperan, y no será una mejora marginal. “La IA destaca en el análisis y la generación de información a partir de datos, mientras que la computación cuántica permitirá la creación de nuevos tipos de datos”, afirma Brierley. “Juntas, impulsarán una exploración, un descubrimiento y una innovación mucho mayores de los que la tecnología podría lograr por sí sola”.

Gilles Thonet, subsecretario general de la Comisión Electrotécnica Internacional, observó la misma dinámica en la regulación. Con la entrada en vigor de las leyes de IA en 2025, las empresas tuvieron dificultades para traducir los requisitos legales en una realidad operativa. “Los estándares internacionales son esenciales para fomentar la confianza en esta tecnología transformadora”, afirma Thonet.

¿Qué viene ahora?

Las lecciones de 2025 apuntan a un futuro de inteligencia artificial basado en la realidad operativa, no en la publicidad exagerada. Las empresas que lideraron ese cambio construyeron infraestructura, establecieron límites y resolvieron problemas reales en lugar de perseguir titulares.

Pero están surgiendo nuevos desafíos. Sheetal Mehta, directora global de servicios de ciberseguridad en NTT Data, advierte que las capacidades de IA que impulsan las ganancias de productividad se están utilizando como arma. “La velocidad y la capacidad de la IA agente para aprender y tomar decisiones de forma autónoma también pueden ser utilizadas por los ciberdelincuentes, exponiendo a las empresas a nuevas superficies de ataque y vulnerabilidades de seguridad inesperadas”, afirma Mehta.

Eso significa que 2026 requerirá mejores medidas de seguridad, no algo fundamental ni opcional.

Pozin capta ese cambio de forma conmovedora. “La siguiente fase de la IA es una IA que convive con nosotros, aprende de nosotros a diario y nos entrega exactamente lo que necesitamos, justo a tiempo. Ya no se sentirá como una herramienta. Se sentirá como un compañero de equipo que realmente te comprende”, afirma.

Eini lo explica de forma aún más sencilla: “Ir más allá del asombro inicial para convertirse en una herramienta transparente que simplemente hace las cosas”.

No se trata de IA general. No de automatización completa. Solo de IA que funciona de forma fiable, escala de forma predecible y resuelve problemas sin crear nuevos. Para una industria que pasó años persiguiendo objetivos ambiciosos, ese podría ser el objetivo más ambicioso de todos.

Author

  • Kolawole Samuel Adebayo

    Kolawole Samuel Adebayo es un escritor con una década de experiencia escribiendo sobre tecnología, particularmente ciberseguridad, IA, 5G y sus aplicaciones en la vida cotidiana.

    View all posts

Author

  • Kolawole Samuel Adebayo

    Kolawole Samuel Adebayo es un escritor con una década de experiencia escribiendo sobre tecnología, particularmente ciberseguridad, IA, 5G y sus aplicaciones en la vida cotidiana.

    View all posts

Sobre el autor

Kolawole Samuel Adebayo es un escritor con una década de experiencia escribiendo sobre tecnología, particularmente ciberseguridad, IA, 5G y sus aplicaciones en la vida cotidiana.