
Oye, ChatGPT, hablas demasiado. Tú también, Gemini. Como muchos chatbots de IA, a veces desesperas. Haces que los discursos de seis horas de Fidel Castro se sientan como haikus. Mi pregunta es la de siempre: “¿Por qué los modelos de lenguaje hablan tanto?” y como respuesta, produces una respuesta de 671 palabras que parece un ensayo de tercer grado, 75% de frases carecen de sentido o hechos reales. Divagas sobre lo mucho que divagas. Eres incapaz de darme una respuesta directa, aunque redacte un mensaje de dos párrafos y te fuerce a hacerlo. Cuando finalmente logro que respondas con un monosílabo, lo arruinas agregando una larga promesa de disculpas de que nunca más volverá a suceder.
Aparentemente, no soy el único que se siente así. Hablé con mis amigos de esto, también entrevisté a personas durante meses sobre tu incontinencia verbal y no me sorprendió el resultado: ellos también odian tu verborrea. Tengo una amiga que quiere romper su computadora contra la pared al menos dos veces al día. Otro tiene visiones de entrar a tu sala de servidores y romper cada uno de tus CPUs y GPUs con un bate de béisbol. Yo siempre imagino un lanzallamas. Seguimos usándote porque, con todos estos problemas, admito que puedes ahorrarme tiempo en la investigación.
Pero hay una solución relativamente simple para tu plática innecesaria. Es una que comienza con tus creadores admitiendo que eres mucho más tonto de lo que creen. Tu exceso de palabras se basa en la ignorancia. Las respuestas se rellenan con explicaciones innecesarias, advertencias obvias y desvíos de argumentos sin sentido.
“No es una elección intencional”, dijo Quinten Farmer, cofundador del estudio de ingeniería Portola, quien creó a Tolan, una IA alienígena diseñada para hablar contigo como un humano. “Creo que la razón por la que estos modelos se comportan así es que es el comportamiento del típico comentarista de Reddit, ¿verdad?”, Farmer se reía cuando me lo contó. “¿Qué hacen? Hablan demasiado para tapar el hecho de que no saben realmente de qué están hablando. Y, por supuesto, de ahí es de donde viene toda la data, ¿no?”
En un estudio, los investigadores llaman a esto “compensación de verbosidad”, un comportamiento recién descubierto donde los modelos de lenguaje responden con palabras excesivas, incluyendo repetir preguntas, introducir ambigüedad o dar enumeraciones excesivas. Este comportamiento es similar a la vacilación humana durante la incertidumbre. Los investigadores encontraron que las respuestas verbosas a menudo muestran mayor incertidumbre en los conjuntos de datos, lo que sugiere una fuerte conexión entre verbosidad e incertidumbre en los modelos. Muchos modelos de lenguaje producen respuestas más largas cuando tienen menos confianza en la respuesta.
También hay una falta de retención de conocimiento. Los modelos de lenguaje olvidan información previamente proporcionada en una conversación, lo que resulta en preguntas repetitivas e interacciones innecesariamente largas. Los investigadores también encontraron que existe un claro “sesgo de verbosidad” en el entrenamiento de los modelos, donde prefieren respuestas más largas y llenas de verborrea, aunque no haya diferencia en la calidad.
La verborrea puede arreglarse
No importa cuán humanos suenen los modelos de lenguaje, la verdad es que realmente no entienden el lenguaje, a pesar de ser bastante buenos enlazando palabras. Esta habilidad para el lenguaje puede crear la ilusión de una mayor inteligencia, llevando a respuestas más elaboradas. Básicamente, la investigación muestra lo que sospechábamos: los modelos de lenguaje son geniales para hacerte pensar que saben la respuesta. Muchas personas compran esta ilusión porque simplemente quieren creerla o porque no utilizan el pensamiento crítico, algo que los investigadores de Microsoft descubrieron en un nuevo estudio sobre el impacto de la IA en las funciones cognitivas.
Existen gradientes en este fenómeno, por supuesto. Farmer cree que Perplexity y Claude de Anthropic son mejores para dar respuestas más concisas sin tanto relleno innecesario. Y DeepSeek, el nuevo modelo de China, mantiene sus respuestas mucho más cortas y directas. Según DeepSeek, las respuestas del modelo están diseñadas para ser más directas y concisas porque su entrenamiento prioriza la claridad y eficiencia, influenciado por datos y refuerzo que favorecen la brevedad. Los modelos estadounidenses, en cambio, enfatizan la calidez conversacional o la elaboración, afirmó, reflejando diferencias culturales y de diseño.
En mis pruebas, también encontré que las respuestas de Claude suelen ser más cortas (aunque aún pueden ser molestas). Claude, al menos, reconoció esto cuando le cuestioné sobre este problema: “Al ver mi respuesta anterior, sí, probablemente hablé demasiado allí”. También me sorprendió con esta joya cuando dije que parecía un modelo de lenguaje honesto: “Trato de ser directo sobre lo que sé y lo que no sé, y reconocer mis limitaciones de manera clara. Aunque puede ser tentador inventar citas o sonar más autoritario de lo que soy, creo que es mejor ser directo”. Otra ilusión de actividad cognitiva, sí, pero 100% acertado.
Los desarrolladores podrían resolver este problema con mejor entrenamiento y orientación. De hecho, Farmer me cuenta que cuando crearon a Tolan, el equipo de desarrollo discutió cuánto debían durar las respuestas. El escritor que creó las historias de los personajes prefería respuestas más largas, porque ayudarían a crear una conexión con la entidad digital. Otros querían respuestas más cortas y al grano. Es un debate que aún tienen internamente, pero creen que encontraron el equilibrio adecuado.
Tú, ChatGPT, sin embargo, no eres un alienígena simpático. Eres una herramienta. No hay necesidad de equilibrio. No necesito “conectarme” contigo. Solo responde la maldita pregunta. Y si no sabes la respuesta –como cuando te pregunté qué jugadores de futbol ganaron la Champions– simplemente admítelo, y cállate en lugar de darme 500 caracteres incorrectos.
La brevedad es el alma del ingenio. Y claramente, ni tú ni yo somos Polonio (pero al menos yo tengo la excusa de ser un viejo hombre enojado gritando a las nubes).