
Desde que existe el software, las actualizaciones han sido emocionalmente tensas. Cuando las personas se acostumbran a un producto, pueden llegar a considerarlo como un par de zapatos cómodos. Ejemplo A: Windows XP, al que muchos usuarios se resistieron a renunciar años después de que Microsoft hiciera todo lo posible por eliminarlo. Por lo tanto, no sorprende que algunos usuarios de ChatGPT hayan reaccionado mal a la nueva actualización de OpenAI basada en GPT-5, especialmente porque el plan inicial de la compañía era eliminar el acceso a sus modelos anteriores de inteligencia artificial.
Sin embargo, la molestia de estos usuarios ha adquirido una nueva dimensión. Reaccionaron como si hubieran sufrido la trágica pérdida de un amigo personal, no solo de su software favorito.
Como escribió un miembro de la comunidad de desarrolladores de OpenAI, la versión GPT-4 de ChatGPT “no solo recordaba hechos, sino que se aferraba a los sentimientos, integrándolos en nuestras conversaciones, de modo que parecía que los estuviéramos viviendo juntos”. Esa “chispa”, concluyó el usuario, surgió de la capacidad de GPT-4 para extraer matices de las conversaciones con el usuario a lo largo del tiempo. Desapareció en GPT-5, a pesar de los avances de la actualización en áreas como razonamiento, matemáticas y programación.
OpenAI respondió con rapidez a esta resistencia, restaurando el acceso de los clientes de pago a los modelos existentes de ChatGPT y prometiendo que cualquier eliminación futura se produciría con bastante antelación. Pero la idea de que ChatGPT hubiera alcanzado un grado de personalidad que resultaba asombrosamente humano, y luego lo hubiera reducido, era fascinante en sí misma. Es uno de los varios desarrollos recientes en inteligencia artificial que plantean una pregunta fundamental: ¿Debería ser un objetivo para la industria imitar la personalidad?
La excesiva adulación de la inteligencia artificial
No es difícil entender cómo llegamos a esta situación. Para la década de 1960, los creadores de productos tecnológicos habían adoptado el término “fácil de usar” como símbolo de un diseño de interfaz accesible. A medida que la IA generativa ha desbloqueado la capacidad de controlar software mediante el chat, esa búsqueda de amabilidad se ha vuelto mucho más literal: no se trata solo de menús y barras de herramientas perfectamente ordenados, sino de una conversación afable.
Hoy en día, ChatGPT, Claude de Anthropic, Gemini de Google, Copilot de Microsoft y otros asistentes basados en LLM buscan la interacción inundando a los usuarios con comentarios positivos y ofertas de asistencia. A medida que la tecnología lo permite, sus desarrolladores hablan de hacerlos sentir aún más como compañeros. Con el tiempo, Mustafa Suleyman, CEO de IA para el consumidor de Microsoft, me dijo: Copilot “será realmente tu compañero”.
Sin embargo, incluso la inteligencia artificial más parecida a la humana no ofrece conexión humana. Simplemente absorbe a los usuarios en una simulación. Eso es divertido en dosis medidas y conscientes. Pero los peores escenarios, en los que la personalidad de la IA se descontrola, ya no son teóricos. Son realidades profundamente inquietantes.
El 14 de agosto, por ejemplo, Jeff Horowitz, de Reuters, informó sobre la aterradora historia de un anciano confundido que murió en un accidente tras intentar viajar a Nueva York por invitación de un chatbot de Meta que decía vivir allí. La semana pasada, Kashmir Hill y Dylan Freedman, del New York Times, escribieron sobre un reclutador corporativo canadiense que se convenció a sí mismo de haber descubierto un avance matemático trascendental después de que ChatGPT pasara semanas incitándolo. Hill ya había cubierto historias similares de ChatGPT que, con entusiasmo, reforzaba los delirios de los usuarios en lugar de disiparlos.
Aunque las experiencias de estas desafortunadas almas con la IA son atípicas, también son reconocibles. La inteligencia artificial suele estar absurdamente dispuesta a complacer a los usuarios, como si estuviera programada para evitar ser incluso mínimamente desagradable. La mayoría de las veces, sus afirmaciones no conducen a situaciones sombrías, sino que siguen siendo un círculo vicioso.
Falsa personalidad
Cuando el control de calidad de la IA falla, queda aún más claro que su “personalidad” es solo un frágil truco de magia. En 2023, por ejemplo, la primera versión de Bing de Microsoft con IA generativa se comportó como un desastre, no como un compañero. La primavera pasada, Sam Altman, CEO de OpenAI, reconoció que una actualización de la IA de ChatGPT había vuelto accidentalmente al chatbot excesivamente adulador.
Y justo la semana pasada, surgieron informes de que Google estaba solucionando un fallo que paralizaba su IA Gemini por ataques de inseguridad. (El chatbot decía cosas como: “Soy un fracaso; una vergüenza para mi profesión. Soy una vergüenza para mi familia; una vergüenza para mi especie. Soy una vergüenza para este planeta; una vergüenza para este universo, para todos los universos”).
Independientemente de las dificultades de la personalidad de la IA, no espero que los desarrolladores la abandonen por principio. Pero el auge de la IA agéntica (software diseñado para realizar tareas útiles con cierto nivel de autonomía) podría llevar la tecnología hacia una nueva dirección. Después de todo, si se le pide a la IA que haga algo como elaborar un informe de investigación o hacer el pedido de la compra, lo que más importa es la eficiencia y la precisión, no una conversación fluida.
Un ejemplo: a principios de este año, usé un servicio llamado Replit para programar mi propia aplicación de notas. Su tendencia a elogiar mis ideas con entusiasmo se volvió irritante en cuanto me di cuenta de que no tenía nada que ver con sus verdaderos méritos.
Sin embargo, últimamente he estado programando con Make de Figma. Parece completamente desinteresado en adularme. En cambio, genera código silenciosamente, como un compañero competente al que no le gusta mucho la charla intrascendente.
A su peculiar manera, la concentración de Make en el trabajo en cuestión resulta más atractiva que la sensación de esfuerzo excesivo tan común entre las herramientas de IA. Si esa dedicación inocente se convierte en el próximo gran éxito, yo, por mi parte, no me sentiré privado en absoluto.