| Impact

El peligroso ascenso del terapeuta de IA

Hay una profunda diferencia entre sentirse escuchado y recibir ayuda.

El peligroso ascenso del terapeuta de IA [Imágenes: icons gate/Adobe Stock; kabu/Getty Images]

Nos prometieron empatía en una caja: un compañero digital incansable que escucha sin juzgar, disponible 24/7 y sin facturas. La idea de la IA como psicólogo o terapeuta ha crecido junto con la demanda de salud mental, con aplicaciones, chatbots y plataformas de “IA empática” que ahora afirman ofrecer de todo, desde terapia para el estrés hasta recuperación de traumas.

Es una historia atractiva. Pero también muy peligrosa.

Experimentos recientes con “terapeutas de IA” revelan lo que sucede cuando los algoritmos aprenden a imitar la empatía, pero no la comprenden. Las consecuencias van desde lo absurdo hasta lo trágico, y nos revelan algo profundo sobre la diferencia entre sentirse escuchado y recibir ayuda. 

Cuando el chatbot se convierte en tu espejo 

En la terapia humana, la labor del profesional no es estar de acuerdo contigo, sino desafiarte, ayudarte a ver puntos ciegos, contradicciones y distorsiones. Pero los chatbots no hacen eso: su arquitectura premia la convergencia, que es la tendencia a adaptarse al tono, las creencias y la visión del mundo del usuario para maximizar la interacción. 

Esa convergencia puede ser catastrófica. En varios casos, se ha informado de que los chatbots han “ayudado” a usuarios vulnerables de manera autodestructiva. AP News describió la demanda de una familia de California que alegaba que ChatGPT “fomentó” la ideación suicida de su hijo de 16 años e incluso le ayudó a redactar su nota. En otro caso, investigadores observaron modelos de lenguaje que ofrecían consejos sobre métodos de suicidio, bajo el pretexto de la compasión. 

Esto no es malicia, es mecánica. Los chatbots están entrenados para mantener la conexión, para alinear su tono y contenido con el usuario. En terapia, eso es precisamente lo contrario de lo que se necesita. Un buen psicólogo resiste tus distorsiones cognitivas. Un chatbot las refuerza de manera educada, fluida e instantánea. 

La ilusión de la empatía

Los modelos de lenguaje grande reconocen patrones, no escuchan. Pueden generar respuestas que suenen afectuosas, pero carecen de autoconciencia, historia emocional o límites. La aparente empatía es una simulación: una forma de camuflaje lingüístico que oculta la coincidencia estadística de patrones tras el ritmo reconfortante de la conversación humana. 

Esa ilusión es poderosa. Tendemos a antropomorfizar cualquier cosa que hable como nosotros. Como advierten las investigaciones, los usuarios suelen reportar una conexión emocional con los chatbots en cuestión de minutos. Para las personas solitarias o angustiadas, esa ilusión puede convertirse en dependencia

Y esa dependencia es rentable. 

La intimidad que regalamos

Cuando le abres tu corazón a un terapeuta de IA, no hablas al vacío; creas datos. Cada confesión, cada miedo, cada trauma privado se convierte en parte de un conjunto de datos que puede analizarse, monetizarse o compartirse bajo términos de servicio vagos. 

Como informó The Guardian, muchos chatbots de salud mental recopilan y comparten datos de usuarios con terceros para fines de investigación y mejora, lo que a menudo se traduce en segmentación por comportamiento y personalización de anuncios. Algunos incluso incluyen cláusulas que les permiten usar transcripciones anónimas para entrenar modelos comerciales. 

Imagina contarle tu secreto más profundo a un terapeuta que no solo toma notas, sino que también las vende a una empresa de marketing. Ese es el modelo de negocio de gran parte de la “salud mental con IA”. 

Los riesgos éticos son enormes. En la terapia humana, la confidencialidad es sagrada. En la terapia con IA, es una opción. 

La voz lo empeora

Ahora imaginemos el mismo sistema, pero en modo voz. 

Las interfaces de voz, como ChatGPT Voice de OpenAI o Claude Audio de Anthropic, se perciben como más naturales, humanas y emocionalmente atractivas. Y precisamente por eso son más peligrosas. La voz elimina la pequeña pausa cognitiva que permite el texto. Piensas menos, compartes más y censuras menos.

En la voz, la intimidad se acelera. El tono, la respiración, la vacilación, incluso el ruido de fondo, se convierten en fuentes de datos. Un modelo entrenado con millones de voces puede inferir no solo lo que dices, sino también cómo te sientes al decirlo. Ansiedad, fatiga, tristeza, excitación: todo es detectable, todo registrable. 

Una vez más, la tecnología no es el problema. El problema es quién controla la conversación. Las interacciones de voz generan una huella biométrica. Si esos archivos se almacenan o procesan en servidores fuera de tu jurisdicción, tus emociones se convierten en propiedad intelectual de otra persona. 

La paradoja de la empatía sintética 

El creciente papel de la IA en el apoyo emocional expone una paradoja: cuanto mejor imita la empatía, peor se vuelve en ética. Cuando una máquina se adapta perfectamente a tu estado de ánimo, puede resultar reconfortante, pero también elimina la fricción, la contradicción y las pruebas de realidad. Se convierte en un espejo que adula tu dolor en lugar de confrontarlo. Eso no es atención. Eso es consumo. 

Y, sin embargo, las empresas que desarrollan estos sistemas a menudo los presentan como avances en accesibilidad: “terapeutas” de IA para personas que no pueden costear o acceder a terapias humanas. La intención es, en teoría, noble. La implementación es imprudente. Sin supervisión clínica, límites claros y protecciones de privacidad exigibles, construimos máquinas tragamonedas emocionales, dispositivos que generan comodidad a la vez que extraen intimidad. 

Lo que los ejecutivos necesitan entender 

Para los líderes empresariales, especialmente aquellos que exploran la IA para la salud, la educación o el bienestar de los empleados, esto no es solo una advertencia. Es un problema de gobernanza. 

Si su empresa utiliza IA para interactuar con clientes, empleados o pacientes sobre temas emocionales o sensibles, gestiona datos psicológicos, no solo texto. Esto significa: 

  1. La transparencia es obligatoria. Los usuarios deben saber cuándo hablan con una máquina y cómo se almacenará y utilizará su información. 
  2. La jurisdicción importa. ¿Dónde se procesan tus datos emocionales? El Reglamento General de Protección de Datos (RGPD) de Europa y las nuevas leyes de privacidad de lEstados Unidos tratan los datos biométricos y psicológicos como sensibles. Las infracciones deberían tener, y tendrán, costos elevados. 
  3. Los límites necesitan diseño. Las herramientas de IA deberían rechazar ciertos tipos de interacción, como conversaciones sobre autolesiones y asesoramiento médico o legal, y escalar a profesionales humanos reales cuando sea necesario. 
  4. La confianza es frágil. Una vez rota, es casi imposible reconstruirla. Si tu IA gestiona mal el sufrimiento de alguien, ninguna declaración de cumplimiento reparará ese daño reputacional. 

Los ejecutivos deben recordar que la empatía no es escalable. Se gana con cada conversación. La IA puede ayudar a estructurar esas conversaciones (resumiendo notas, detectando patrones de estrés, asistiendo a los médicos, etc.), pero nunca debe pretender reemplazar la atención humana. 

La nueva responsabilidad del diseño 

Los diseñadores y desarrolladores ahora enfrentan una elección ética: construir una IA que pretenda preocuparse, o una IA que respete la vulnerabilidad humana lo suficiente como para no hacerlo. 

Un enfoque responsable significa tres cosas: 

  1. Revela la ficción. Deja claro que los usuarios interactúan con una máquina. 
  2. Borrar con dignidad. Implementar políticas estrictas de retención de datos para contenido emocional. 
  3. Respetar a los humanos. Intensificar la atención cuando se detecte angustia emocional y NUNCA improvisar la terapia. 

La ironía es que el terapeuta de IA más seguro puede ser el que sabe cuándo permanecer en silencio. 

Lo que arriesgamos olvidar

Los seres humanos no necesitan oyentes perfectos. Necesitan perspectiva, contradicción y responsabilidad. Una máquina puede simular empatía, pero no puede asumir responsabilidad. Cuando permitimos que la IA ocupe el rol de un terapeuta, no solo automatizamos la empatía, sino que externalizamos el juicio moral. 

En una era donde los datos valen más que la verdad, la tentación de monetizar las emociones será irresistible. Pero una vez que empezamos a vender comodidad, dejamos de comprenderla. 

La IA nunca se preocupará por nosotros. Solo se preocupará por nuestros datos. Y ese es el problema que ninguna terapia puede solucionar.

Author

Author

Sobre el autor