ADVERTISEMENT

| Tech

Usamos ChatGPT de manera incorrecta, y el CEO de OpenAI acaba de demostrarlo

Solo una pequeña fracción de usuarios utiliza los modelos “pensativos” diseñados para obtener mejores respuestas. El desliz de Sam Altman revela por qué el gran debut de GPT-5 fue un fracaso.

Usamos ChatGPT de manera incorrecta, y el CEO de OpenAI acaba de demostrarlo Emiliano Vittoriosi /Unsplash; Nick Fewings /Unsplash]

¿Cuál fue tu reacción al lanzamiento de GPT-5, la última versión de ChatGPT de OpenAI, el 7 de agosto? La compañía detrás del modelo lo anunció como un desarrollo revolucionario, con semanas de espera y una deslumbrante presentación en vivo de sus capacidades. Las reacciones de los usuarios en redes sociales fueron más moderadas, marcadas por la confusión y la ira ante la eliminación de muchos modelos clave con los que la gente se había encariñado.

Posteriormente, el director ejecutivo Sam Altman reveló —sin querer— por qué la brecha entre las expectativas de OpenAI sobre la recepción de ChatGPT-5 y la realidad era tan grande. Resulta que muchos de nosotros no aprovechamos al máximo la Inteligencia Artificial (IA). En una publicación en X que explicaba por qué OpenAI parecía enojar a los usuarios de pago Plus —y, para ser sinceros, me incluyo— que pagan 20 dólares al mes para acceder al segundo nivel más alto del modelo, al reducir drásticamente sus límites de frecuencia para el chatbot, Altman reveló que solo el 1% de los usuarios que no pagan consultaban un modelo de razonamiento como o3 antes del lanzamiento de GPT-5. Entre los usuarios de pago, solo lo hacía el 7%.

¿Cuál se supone que es la mejor versión de ChatGPT?

Los modelos de razonamiento son aquellos que “piensan” los problemas antes de resolverlos —aunque nunca deberíamos quitar las comillas: los modelos de IA no son humanos ni actúan como humanos—. No usarlos —como era el caso de la inmensa mayoría de los usuarios, tanto de pago como gratuitos— es como comprar un coche, usar solo primera y segunda velocidad y preguntarse por qué no es fácil conducir, o ir a un concurso y decir lo primero que se te ocurra en cada pregunta.

Muchos usuarios priorizan la velocidad y la comodidad sobre la calidad en las interacciones con chatbots de IA. Por eso, muchos lamentaron la pérdida de GPT-4o, un modelo heredado que posteriormente se restableció para los usuarios de pago de ChatGPT tras una campaña coordinada. Pero cuando se consulta a un chatbot para obtener respuestas, se buscan buenas. Es mejor ser un poco más lento —y a menudo solo un poco— y acertar que rápido y completamente equivocado.

Los modelos de razonamiento están diseñados para dedicar más esfuerzo computacional a la planificación, la comprobación y la iteración antes de responder. Esta deliberación adicional mejora los resultados en tareas donde la lógica correcta es crucial. Sin embargo, es más lento y costoso, por lo que los proveedores tienden a ofrecer primero las versiones “sin razonamiento” y requieren que los usuarios se registren mediante un menú desplegable con alternativas. Además, está la costumbre, hasta ahora impenetrable, de OpenAI de nombrar los modelos, un problema que GPT-5 intentó solucionar, sin éxito. Los usuarios aún no pueden distinguir fácilmente si obtienen la versión “buena y con razonamiento” de GPT-5 o la versión con menos capacidades. Tras recibir quejas, la empresa decidió ajustar esta opción.

La utilidad real de la IA

Para mí, esperar un minuto en lugar de un segundo no es un problema. Se activa un modelo de IA y se hace otra cosa mientras se espera. Pero, evidentemente, para algunos es una espera demasiado larga. Incluso después del lanzamiento de GPT-5 —donde la diferencia entre el “modelo insignia” de GPT-5 y la mentalidad de GPT-5, que ofrece “obtener respuestas más exhaustivas”, es más evidente—, solo uno de cada cuatro usuarios de pago solicita minuciosidad.

Estos datos, presentados rápidamente, responden a una gran pregunta que tenía sobre la adopción de la IA: ¿Por qué solo un tercio de los estadounidenses que han usado un chatbot afirman que es extremadamente o muy útil —la mitad de la tasa entre los expertos en IA— y uno de cada cinco afirma que no es útil en absoluto —el doble de la tasa entre los expertos—? La respuesta ahora es más clara: la mayoría de la gente usa la IA de manera incorrecta. Le piden a un chatbot que responda preguntas difíciles y complejas sin pararse a pensar ni a respirar.

Así que, si vas a probar un chatbot, aprovecha las estrategias que OpenAI usó para evitar que los usuarios cancelaran sus suscripciones, al brindarles más acceso a los modelos. Haz que “piensen” sin que lo hagan, y observa si te quedas. Es la manera correcta de usar la IA generativa.

Author

  • Chris Stokel-Walker

    Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

    View all posts

Author

  • Chris Stokel-Walker

    Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

    View all posts

Sobre el autor

Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

ADVERTISEMENT

ADVERTISEMENT