
Estamos entrando en una era informática cada vez menos centrada en el ser humano. Paradójicamente, las empresas tecnológicas siguen obsesionadas con extraer cada detalle de nuestros datos personales. Las interfaces familiares y específicas para cada tarea que usábamos antes son relegadas a un segundo plano, sustituidas por IA generativa y chatbots basados en modelos extenso de lenguaje (LLM) que revolucionan la interacción de los usuarios con el software.
En lugar de abrir una aplicación dedicada a escribir, investigar, programar o incluso brindar apoyo emocional, nos vemos envueltos en una única ventana de chatbot. OpenAI promete: “Deja que la IA trabaje por ti, diseñada para cualquier tarea”, mientras que Anthropic promociona a Claude como un motor para hacer realidad tus fantasías con el eslogan “Si puedes soñarlo, Claude puede ayudarte a hacerlo”.
El discurso es claro: estas herramientas se promocionan como una solución integral para todo.
La interfaz cada vez más pequeña
Los motores de búsqueda nos han acostumbrado a esperar respuestas de un solo campo. Ahora los chatbots llevan esto un paso más allá: el cuadro de texto ha absorbido a otras aplicaciones, aunque su salida a menudo requiere un refinamiento y una verificación de datos infinitos mediante un cuadro de texto. Y el texto no es la clave. Asistentes de voz como Alexa, Siri y el Asistente de Google nos prepararon para aprender a interactuar con manos libres, que con el tiempo reemplazará al cuadro de texto. Las empresas tecnológicas buscan un futuro en el que la voz sustituya a la escritura y la interfaz prácticamente desaparezca. El verdadero premio no es nuestra practicidad, sino el valor que se obtiene al capturar lo que decimos y cómo lo decimos, por y para ellos.
Este cambio marca una ruptura radical con los últimos 45 años de diseño de interfaces. Apple, inspirada por Xerox PARC, abogó por el diseño centrado en el usuario: iconos gráficos, lo llamado “lo que ves es lo que obtienes” (WYSIWYG, por sus siglas en inglés), metáforas intuitivas que empoderaron a las personas para crear y comunicarse. Durante décadas, este enfoque hizo accesible la informática. Pero con el auge del big data, las prioridades cambiaron, ya que las personas generaban archivos cada vez más grandes de rastros digitales (correos electrónicos, documentos, fotos, historiales de navegación) y se las convencía de almacenarlos en la nube para facilitar su recuperación. Las empresas tecnológicas pronto se dieron cuenta de que, en conjunto, estos datos formaban un vasto corpus de conocimiento global que podía extraerse y monetizarse.
El auge de los modelos de negocio basados en la vigilancia impulsó a las empresas hacia formas cada vez más cuantitativas de “perfiles de usuario”. El enfoque pasó del diseño de herramientas para facilitar el trabajo a la extracción de patrones que sirvieran a los objetivos corporativos. Dejamos de ser vistos como personas con necesidades. En cambio, nos convertimos en materia prima para métricas, modelos y dominio del mercado.
A medida que el big data inspiró los modelos de IA y LLM, este cambio se aceleró. Estos sistemas ahora operan sobre la base de lo que hacemos, pero sin la capacidad de comprender por qué lo hacemos. Desprovisto del contexto descubierto mediante la investigación cualitativa, el análisis cuantitativo puede fácilmente malinterpretar la intención. Los chatbots generan respuestas inconsistentes según la solicitud y debemos refinar constantemente las consultas para obtener algo útil. Para quienes confunden estas herramientas con “máquinas de la verdad”, los riesgos son graves: incluso fatales, como en casos documentados donde los chatbots incitaron a personas a autolesionarse.
Esta falta de investigación contextual y cualitativa no es nueva. Apple, considerada el referente del diseño centrado en el usuario, inicialmente se resistió a la investigación de usuarios. Al principio, Steve Jobs insistió en que “la gente no sabe lo que quiere hasta que se lo das”. Parte de este sesgo se arraigó en la cultura de Apple, donde ha persistido a lo largo de los años, extendiéndose al resto de Silicon Valley y más allá, a medida que los exempleados cambiaban de trabajo o fundaban nuevas empresas. Estudios de caso de medios de comunicación y escuelas de negocios perpetuaron este mito y, como resultado, existe una industria tecnológica en crecimiento, una cultura de diseño de productos que prioriza los datos cuantitativos, reforzada por el sesgo de que la minería de big data es la única medida para comprender a las personas. No lo es.
Este movimiento de recopilación cuantitativa de big data conlleva otra pérdida de nuestro tiempo y trabajo gratuito: las encuestas. También nos utilizan para manipular los algoritmos de las empresas mediante las interminables encuestas que nos envían tras cada interacción, con empresas insistentes que exigen nuestra opinión sobre los agentes, algoritmos, servicios y productos que ya han rastreado, todo para recopilar aún más datos sobre nosotros. Es agotador.
Crecer a nuestra costa
Las empresas justifican este enfoque como una forma de escalar una interfaz (para ellas). Sin embargo, “escalar” a menudo implica aplanar las diferencias entre usuarios y no funciona bien con las diferencias culturales en un contexto global. El chatbot todo en uno promete universalidad, pero introduce nuevas fricciones: errores de traducción cuando los modelos se entrenan con idiomas no coincidentes, alucinaciones derivadas de conjuntos de entrenamiento incompletos y ciclos interminables de refinamiento rápido. En lugar de simplificar, estos sistemas exigen más trabajo a los usuarios en forma de refinamiento rápido.
El efecto es recursivo. Alimentamos a los chatbots con consultas, ellos las pasan a los LLM que buscan coincidencias de patrones para generar respuestas, correctas o incorrectas, que luego circulan de vuelta a los motores de búsqueda, que a su vez están cada vez más infundidos con resultados de LLM (lo que convierte la verificación en una pesadilla). Mientras tanto, nuestras conversaciones con los chatbots se extraen para entrenar futuros modelos.
Las interfaces de usuario en nuestros dispositivos se han vuelto menos herramientas y más contenedores para la recopilación. Donde antes usábamos una herramienta para realizar nuestro trabajo, ahora entrenamos herramientas para que lo haga y así, a su vez, podamos terminar el nuestro. Esta dinámica explota nuestra energía y esfuerzo, apuntalando sistemas que algún día podrían reemplazarnos (si no lo han hecho ya).
La trayectoria de diseño actual busca eliminar por completo la interfaz, reemplazándola con conversaciones bajo vigilancia: escuchas mecánicas disfrazadas de diálogo. Entre bastidores, algoritmos filtran y unen fragmentos de datos de entrenamiento (no siempre precisos ni completos) para generar canciones, código, imágenes o consejos pirateados del corpus humano construido a lo largo de la vida. A veces, ese “consejo” de LLM filtrado a través de un chatbot se extiende a ámbitos tan arriesgados como la terapia psicológica o las operaciones nucleares, poniéndonos en peligro y potencialmente en gran riesgo. A gran escala, esto es aterrador.
No es justo decir que el diseño centrado en el usuario ha desaparecido, todavía. Sigue presente, pero los usuarios objetivo cambiaron: ahora el enfoque de las empresas son los LLM. Y, nos guste o no, nuestro papel ahora es facilitar ese éxito.