
Es raro que un gigante tecnológico muestre debilidad o humanidad. Sin embargo, incluso el notoriamente discreto CEO de OpenAI, Sam Altman, tuvo que admitir esta semana que el lanzamiento del nuevo modelo de lenguaje GPT-5 de la compañía fue un completo desastre.
“La cagamos por completo”, admitió Altman en una entrevista con The Verge.
Estoy de acuerdo. Como exprobador beta de OpenAI, y alguien que actualmente gasta más de 1,000 dólares al mes en la API de OpenAI, he esperado con entusiasmo el lanzamiento de GPT-5 durante más de un año.
Sin embargo, cuando finalmente llegó, el modelo era un desastre. A diferencia de la serie GPT-4 anterior de la compañía, las respuestas del GPT-5 resultan pesadas, superficiales y aburridas. El nuevo modelo también comete errores tontos en tareas sencillas y genera respuestas abreviadas a muchas consultas.
¿Por qué es tan malo el GPT-5? Es posible que OpenAI obstaculizara su nuevo modelo como medida de reducción de costos.
Pero tengo una teoría diferente. El GPT-5 carece por completo de inteligencia emocional. Y su incapacidad para comprender y replicar las emociones humanas perjudica el modelo, especialmente en cualquier tarea que requiera matices, creatividad o una comprensión compleja de lo que motiva a las personas.
El problema de encariñarse demasiado
Cuando OpenAI lanzó su modelo GPT-4 en 2023, los investigadores inmediatamente notaron su extraordinaria capacidad para comprender a las personas. Una versión actualizada del modelo —denominada GPT 4.5 y lanzada a principios de 2025— mostró niveles aún más altos de inteligencia emocional y creatividad.
Inicialmente, OpenAI se apoyó en la capacidad de su modelo para comprender a las personas, utilizando términos tomados del mundo de la psicología para describir la actualización del modelo.
“Interactuar con GPT‑4.5 resulta más natural. Su base de conocimientos más amplia, su capacidad mejorada para seguir la intención del usuario y su mayor inteligencia emocional lo hacen útil para tareas como mejorar la escritura, la programación y la resolución de problemas prácticos”, escribió OpenAI en las notas de lanzamiento del modelo, incluyendo sutilmente un término psicológico común para medir la inteligencia emocional de una persona.
Sin embargo, la habilidad de GPT-4 para comprender las emociones de manera similar a la humana pronto tomó un giro más preocupante.
Mucha gente usaba el modelo para tareas de oficina rutinarias, como escribir código e interpretar hojas de cálculo. Pero un grupo significativo de usuarios le dio a GPT-4 un uso diferente, tratándolo como un compañero, o incluso como un terapeuta.
ChatGPT como amigo y terapeuta
A principios de 2024, estudios demostraron que el GPT-4 ofrecía mejores respuestas que muchos consejeros humanos. La gente empezó a referirse al modelo como amigo, o incluso a tratarlo como confidente o amante.
Pronto, comenzaron a aparecer artículos en importantes fuentes de noticias como The New York Times sobre personas que usaban el chatbot como un compañero de práctica para conversaciones desafiantes, un sustituto de la compañía humana o incluso un asistente para asesorar a los pacientes.
Esta nueva dirección claramente asustó a OpenAI.
Como señaló Altman en una entrevista de podcast, las conversaciones con profesionales humanos, como abogados y terapeutas, suelen implicar fuertes protecciones legales y de privacidad. Esto podría no ser así en conversaciones íntimas con chatbots como GPT-4.
Los estudios también han demostrado que los chatbots pueden cometer errores al brindar asesoramiento clínico, lo que podría perjudicar a los pacientes. Y la tendencia de los bots a mantener a los usuarios hablando, a menudo reforzando sus creencias, puede llevar a los pacientes vulnerables a un estado de “psicosis de IA”, donde el chatbot, sin darse cuenta, valida sus delirios y los lleva a una peligrosa espiral emocional.
¿Cuál es el problema de esto?
Poco después del lanzamiento de GPT-5, Altman discutió esto extensamente en una publicación en la red social X.
“Se ha usado la tecnología, incluida la IA, de forma autodestructiva; si un usuario se encuentra en un estado mental frágil y propenso a delirios, no queremos que la IA lo refuerce”, escribió Altman. “Valoramos la libertad del usuario como principio fundamental, pero también nos sentimos responsables de cómo introducimos nuevas tecnologías con nuevos riesgos”.
Altman reconoció que “mucha gente usa ChatGPT eficazmente como una especie de terapeuta o coach de vida”. Si bien esto puede ser “muy bueno”, Altman admitió que le incomodaba profundamente.
En sus palabras, si “los usuarios tienen una relación con ChatGPT en la que creen que se sienten mejor después de hablar, pero sin saberlo se les aleja de su bienestar a largo plazo —como sea que lo definan—, eso es malo”.
Lobotimizar el bot en GPT-5
Para evitar esa dirección potencialmente preocupante —y legalmente dañina—, OpenAI parece haber reducido deliberadamente la inteligencia emocional de su bot con el lanzamiento de GPT-5.
Las notas de lanzamiento del nuevo modelo indican que OpenAI ha tomado medidas para “minimizar la adulación”, una expresión tecnológica que hace que sea menos probable que el bot refuerce las creencias de los usuarios y les diga lo que quieren oír.
OpenAI también dice que los errores de GPT-5 están del lado de las “finalizaciones seguras”: dar respuestas vagas o de alto nivel a consultas que son potencialmente dañinas, en lugar de negarse a responderlas o arriesgarse a una respuesta incorrecta o dañina.
OpenAI también escribe que GPT-5 es “menos efusivamente agradable” y que, al entrenarlo, la empresa le dio al bot ejemplos de indicaciones que lo llevaron a estar de acuerdo con los usuarios y reforzar sus creencias, y luego le enseñaron a “no hacer eso”.
El nuevo entrenamiento de GPT-5
En efecto, OpenAI parece haber lobotomizado el bot, eliminando o reconfigurando potencialmente, a través del entrenamiento y el refuerzo negativo, las partes de su cerebro virtual que manejan muchos de los aspectos emocionales de sus interacciones con los usuarios.
Esto puede haber parecido bien en las primeras pruebas: la mayoría de los puntos de referencia de IA se centran en tareas centradas en la productividad, como resolver problemas matemáticos complejos y escribir código Python, donde la inteligencia emocional no es necesaria.
Pero tan pronto como GPT-5 llegó al mundo real, los problemas para modificar el centro emocional de GPT-5 se hicieron inmediatamente obvios.
Los usuarios recurrieron a las redes sociales para compartir cómo el cambio a GPT-5 y la pérdida del modelo GPT-4 les hicieron sentir como si hubieran perdido a un amigo. Los fans de OpenAI de toda la vida lamentaron el tono frío de GPT-5, sus respuestas cortantes y formales, y la pérdida de la inefable chispa que hacía de GPT-4 un poderoso asistente y compañero.
La emoción importa
Incluso si no usas ChatGPT como pseudoterapeuta o amigo, la lobotomía emocional del bot es un gran problema. Tareas creativas como escribir y generar ideas requieren comprensión emocional.
En mis propias pruebas, he descubierto que GPT-5 es un escritor menos convincente, un generador de ideas menos eficaz y un pésimo compañero creativo. Si le pidiera a GPT-4 que investigara un tema, podría observar su razonamiento mientras considera cuidadosamente mis motivaciones y necesidades antes de dar una respuesta.
Incluso con el modo “Pensamiento” habilitado, es mucho más probable que GPT-5 dé rápidamente una respuesta rápida y superficial a mi consulta, o que proporcione una respuesta que se centre únicamente en la consulta en sí e ignore las motivaciones humanas de la persona detrás de ella.
Con la motivación adecuada, GPT-4 podía generar artículos o informes de investigación inteligentes, detallados y con matices que realmente me interesarían. GPT-5 se asemeja más a interactuar con un motor de búsqueda o a leer texto escrito en la prosa aburrida de un manual de producto.
Para ser justos, para tareas empresariales como la creación rápida de una aplicación web o la creación de un agente de IA, GPT-5 destaca. Y, para mérito de OpenAI, el uso de sus API parece haber aumentado desde el lanzamiento de GPT-5. Aun así, para muchas tareas creativas, y para muchos usuarios fuera del ámbito empresarial, GPT-5 representa un retroceso importante.
La indignación detrás de GPT-5
OpenAI parece realmente sorprendido por la indignación de muchos usuarios ante el lanzamiento de GPT-5 y la aparente inercia emocional del bot. El líder de OpenAI, Nick Turley, admitió a The Verge que “el grado en que la gente tenía sentimientos tan fuertes sobre un modelo en particular… fue sin duda una sorpresa para mí”.
Turley continuó diciendo que el “nivel de pasión” que los usuarios tienen por modelos específicos es “bastante notable” y que, en una elección de palabras verdaderamente técnica, “recalibraba” su pensamiento sobre el proceso de lanzamiento de nuevos modelos y las cosas que OpenAI les debe a sus usuarios de mucho tiempo.
Ahora la compañía parece estar revirtiendo agresivamente elementos del lanzamiento de GPT-5: restableciendo el acceso al antiguo modelo GPT-4, haciendo que GPT-5 sea “más cálido y amigable” y brindando a los usuarios más control sobre cómo el nuevo modelo procesa las consultas.
Admitir los errores, según los psicólogos, es un sello distintivo de la inteligencia emocional. Irónicamente, la respuesta de Altman al desastre del GPT-5 demuestra una singular sutileza emocional, justo en el momento en que esta empresa se está alejando de este tipo de cosas.
OpenAI podría aprender un par de cosas de su líder. Ya seas un director ejecutivo que gestiona un lanzamiento desastroso o un chatbot que conversa con un usuario humano, hay una lección simple pero esencial que debes olvidar bajo tu propio riesgo: las emociones importan.