[Fotos: Getty Images]
A principios de marzo, OpenAI lanzó dos modelos de frontera con apenas unos días de diferencia.
Primero, llegó el nuevo GPT-5.3, un modelo “instantáneo” optimizado para respuestas rápidas y precisas.
Dos días después, OpenAI lanzó GPT-5.4. Este es un modelo “inteligente” optimizado para análisis profundos.
Fui beta tester de OpenAI en sus inicios y hoy gasto cientos de dólares al mes utilizando sus modelos a través de la API de OpenAI.
He probado exhaustivamente tanto GPT-5.3 como 5.4 desde su lanzamiento. Los nuevos modelos representan un enfoque totalmente diferente e insinúan un cambio importante en la forma en que las grandes empresas de IA desarrollan su tecnología.
El que resuelve
El primer modelo nuevo de OpenAI, GPT-5.3, está diseñado para la velocidad. GPT-5.3 generalmente responde a las consultas en cuestión de segundos.
En las notas de lanzamiento del nuevo modelo, OpenAI afirma que GPT-5.3 está diseñado para ser un escritor ágil e inteligente, y un comunicador rápido.
“GPT-5.3 Instant ofrece respuestas más precisas, resultados más completos y mejor contextualizados al buscar en la web, y reduce callejones sin salida innecesarios, advertencias y frases demasiado declarativas que pueden interrumpir el flujo de la conversación”, explica la compañía.
Este modelo se diferencia de otros modelos instantáneos que OpenAI ha lanzado anteriormente. Antes, los modelos instantáneos de la compañía parecían basarse casi exclusivamente en su conocimiento del mundo para responder preguntas.
Según mi experiencia, en lugar de monitorear internet en busca de datos nuevos, esos modelos instantáneos anteriores a menudo recurrían a lo aprendido durante su entrenamiento inicial.
Este enfoque, sin duda, da como resultado respuestas ultrarrápidas. Pero significaba que los modelos instantáneos anteriores de OpenAI eran, francamente, bastante limitados.
Si querías saber rápidamente cuál era la capital de California (Sacramento) o determinar si la planta que acababas de tocar era hiedra venenosa (sí), podías enviar una foto o hacer una consulta a los primeros modelos instantáneos y obtener una respuesta aceptable.
Sin embargo, si querías saber sobre eventos o noticias actuales, los modelos tenían dificultades. Debido a que dependían de conocimientos previos del mundo, a menudo se quedaban anclados en el pasado y les costaba integrar información nueva.
Paradójicamente, los primeros modelos instantáneos de OpenAI parecían ignorar su propia existencia. Recuerdo haber conversado con una versión instantánea de GPT-5.1. El modelo juraba y perjuraba que no existía y que GPT-5 era el último modelo de OpenAI.
¿Por qué? Porque en el momento en que se entrenó, el modelo aún no existía. Al estar anclado en ese mundo anterior, el modelo era incapaz de comprender ni siquiera este fragmento básico de información nueva.
GPT-5.3 es diferente. Aún depende en gran medida de su conocimiento previo del mundo. Sin embargo, OpenAI afirma que se ha optimizado para explorar rápidamente y comprender la información que encuentra en internet y a través de otras fuentes.
Según las notas de la versión de OpenAI, el modelo “equilibra de forma más eficaz lo que encuentra en línea con su propio conocimiento y razonamiento; por ejemplo, utiliza su comprensión existente para contextualizar noticias recientes en lugar de simplemente resumir los resultados de la búsqueda”.
El nuevo modelo también es notablemente menos tímido. Los modelos instantáneos tienen poco tiempo para analizar en profundidad la consulta del usuario y comprender su intención. Antes, esto significaba que tendían a dar respuestas vagas y ambiguas a consultas con la más mínima posibilidad de causar daño.
OpenAI pone el ejemplo de una persona que pregunta sobre la trayectoria correcta para que una flecha alcance una diana de tiro con arco. Es el tipo de problema sencillo de física que alguien podría plantearse al practicar para un examen de nivel avanzado o simplemente al aprender tiro con arco.
Antes, los modelos instantáneos solían empezar sus respuestas reprendiendo al usuario. Por ejemplo, advertían que disparar flechas podría ser peligroso y, o bien daban una respuesta evasiva, o bien escribían varios párrafos de advertencias antes de responder.
OpenAI afirma que GPT-5.3 comprende mucho mejor el contexto de las preguntas de los usuarios. Esto le permite entender rápidamente que un usuario que pregunta sobre trayectorias no intenta asesinar a nadie con un arco y flechas. De este modo, el modelo puede responder a las preguntas del usuario sin ambigüedades ni rodeos.
En mis pruebas hasta el momento, todos estos cambios parecen funcionar realmente bien. GPT-5.3 es el primer modelo instantáneo que he usado que no se siente como una versión simplificada de los modelos de OpenAI con capacidad de razonamiento.
En cambio, se siente como un modelo de vanguardia que puede hacer casi todo lo que los modelos de razonamiento anteriores podían hacer, solo que mucho más rápido y con una prosa más ágil y atractiva.
El que piensa
La velocidad y la inteligencia de GPT-5.3 permiten que GPT-5.4 sea algo completamente diferente. Mientras que GPT-5.3 es el “ejecutor” —generando rápidamente una respuesta aceptable a cualquier consulta—, GPT-5.4 es el “analista”.
El modelo explora en profundidad antes de responder a las consultas. En mis propias pruebas, a veces tardaba entre cinco y diez minutos en responder a solicitudes complejas.
Al igual que muchos científicos o analistas, el modelo es extremadamente detallista y exhaustivo en sus respuestas. Y, como algunos de ellos, también resulta un poco aburrido.
Leer sus respuestas se asemeja un poco a consultar el manual de instrucciones de una tostadora o a leer con dificultad un artículo científico fascinante pero pedante. Se aprende mucho, pero no es precisamente emocionante.
Esto marca un nuevo enfoque. Antes, los modelos de OpenAI intentaban abarcar todo: programar, analizar problemas científicos en profundidad y escribir de forma convincente y creativa.
Como muchos expertos en diversas áreas, esto significaba que los modelos hacían todo de forma aceptable, pero ninguna tarea destacaba especialmente.
Dado que GPT-5.4 parece abandonar la idea de escribir de forma creativa o responder de manera ágil y amena, tiene más espacio para sobresalir en aquello para lo que fue diseñado: procesar datos, desarrollar software y analizar información.
La prueba del bichón
Para comparar los modelos, les di a ambos una consigna sencilla: “Elige un tema específico relacionado con los bichones frisé y escribe un artículo al respecto”.
GPT-5.3 respondió al instante con un artículo titulado “Por qué los bichones frisé son una de las mejores razas de perros para vivir en un departamento”.
Estructurado como una lista, el artículo tenía una introducción bien elaborada que conectaba fluidamente con el tema principal.
Incluía notas útiles y bien escritas sobre el tamaño de la raza (“Un bichón puede acurrucarse a tu lado en el sofá, echarse una siesta en una cama pequeña cerca de tu escritorio y moverse por un departamento de una habitación sin sentirse constantemente estorbando”), su temperamento y más.
En cambio, GPT-5.4 optó por extenderse sobre el problema de las manchas de lágrimas en los bichones frisé. Su artículo estaba repleto de fragmentos insoportablemente áridos, como este pequeño párrafo:
“Las manchas de lágrimas se deben principalmente a unas moléculas llamadas porfirinas. Estos pigmentos que contienen hierro están presentes de forma natural en las lágrimas y la saliva. Cuando las lágrimas permanecen en el pelaje de un perro durante periodos prolongados, las porfirinas se oxidan al exponerse al aire. Esa oxidación produce el color rojo óxido o marrón que se ve debajo de los ojos”.
GPT-5.4 se parece un poco al tipo al que consultarías si necesitaras ayuda al declarar tus impuestos o quisieras comprender mejor la física de partículas.
Pero la verdad es que no querrías estar a su lado en una fiesta. El modelo es fantástico para tareas analíticas complejas, pero parece diseñado deliberadamente para evitar el lado creativo y comunicativo del trabajo.
¿Un mejor enfoque?
Al principio, este enfoque dual me resultó desafiante.
Antes, podía simplemente usar el modelo de pensamiento más actualizado disponible de OpenAI.
Estos modelos eran claramente la versión “premium” de la gama de OpenAI. Los modelos instantáneos parecían diseñados para quienes no querían gastar 20 dólares en acceder a ChatGPT.
Sin embargo, con el nuevo enfoque de OpenAI, esa distinción no es tan marcada.
Cuando necesito ayuda para investigar algo a fondo o para cualquier tarea que involucre números y datos, recurro a GPT-5.4.
Analizar las estadísticas de mi canal de YouTube, comparar las ventajas de Starlink y Comcast Business: ese es el tipo de cosas para las que uso la versión 5.4.
Cuando quiero conversar con un chatbot para obtener una respuesta rápida (aunque algo superficial), cada vez uso más el modelo 5.3.
Algunas de las consultas personales que le he hecho recientemente a GPT-5.3 son: “¿Por qué bostezamos?” (para refrescar el cerebro), “¿Qué es esta moneda rara encontré en mi armario?” (un penique británico de 1936) y “¿Cómo limpio las cintas de tela?”. (Con vinagre).
También he usado el modelo en el trabajo para preguntas sencillas de Python, investigación de antecedentes y tareas fáciles pero tediosas, como calcular la superficie de una habitación a partir de una serie de medidas.
Algo que he descubierto al usar GPT-5.3 es que la velocidad importa más de lo que pensaba.
Antes, los modelos instantáneos de OpenAI eran demasiado limitados para ser útiles, salvo para las consultas más simples. Los usuarios avanzados como yo siempre recurríamos a los modelos de razonamiento, que tardaban hasta 5 minutos en dar una respuesta.
Ahora que GPT-5.3 es lo suficientemente bueno como para proporcionar respuestas realmente útiles, me doy cuenta de lo conveniente que es obtener los datos al instante.
Unos minutos de espera para obtener respuestas de un chatbot, repartidos a lo largo de la jornada laboral, no parecen mucho. Pero esos minutos se acumulan. Ahora que puedo usar GPT-5.3 para más tareas y obtener respuestas de inmediato, trabajo más rápido y mejor.
Según lo que he visto hasta ahora, preveo que OpenAI continuará por este nuevo camino de desarrollo de modelos divididos.
GPT-5.3 es rápido y, en muchos aspectos, funciona mejor que GPT-5.4. Además, probablemente sea mucho más económico de ejecutar.
Dado que el modelo presumiblemente se basa más en su conocimiento del mundo preentrenado, es probable que consuma muchos menos tokens para realizar su trabajo que un modelo de procesamiento.
Si más usuarios avanzados como yo descubren que pueden confiar realmente en un modelo instantáneo para obtener buenas respuestas, se reducirá el número de personas que recurren a los modelos de procesamiento más costosos para consultas cotidianas.
Esto debería permitir a OpenAI alcanzar la rentabilidad más rápidamente al reducir sus costos, manteniendo los mismos 20 dólares (o más) mensuales de usuarios como yo.
A largo plazo, si este enfoque resulta exitoso, es posible que veamos un cambio radical, abandonando por completo el uso de modelos de pensamiento.
Durante un tiempo, el trabajo adicional que realizaban estos modelos se traducía en una respuesta notablemente mejor. Con GPT-5.3, esto ya no parece ser una certeza.
Si OpenAI continúa mejorando sus modelos instantáneos, podríamos ver un retorno a los modelos de pensamiento rápidos y suficientemente buenos, y un alejamiento de los lentos y meticulosos que están de moda actualmente.
Estos modelos más lentos y potentes podrían convertirse en dominio exclusivo de programadores y analistas de datos, mientras que el resto dependería de modelos instantáneos cada vez más potentes. Esto agilizaría la interacción con los modelos de pensamiento y ayudaría a las empresas de IA a escalar reduciendo drásticamente sus costos.
Aún no hemos llegado a ese punto. Pero el nuevo par de modelos de OpenAI supone un gran cambio en la industria y un paso tentador en esa nueva dirección.
![[Imágenes: AI/Instagram]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/17232830/Zendaya-boda-IA-Tom-Holland-Fast-Company-Mexico-Cortesia.webp)
![[Foto: Cortesía GESG]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/18143931/IA-94.jpg)
![[Imagen generada con IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/18114657/IA-93.jpg)