ADVERTISEMENT

| Tech

La gente está usando ChatGPT como terapeuta y los expertos en salud mental están preocupados

Contar tus pensamientos más profundos y oscuros a una tecnología no regulada conlleva un riesgo importante.

La gente está usando ChatGPT como terapeuta y los expertos en salud mental están preocupados Unsplash

“¿Nadie más utiliza ChatGPT como terapeuta no remunerado?”, pregunta la usuaria de TikTok Ash Donner en un video. Aunque sus amigos parecen sorprendidos por su confesión, ella no está sola. Cada vez más personas recurren a ChatGPT para pedir ayuda con las amistades, las relaciones románticas o para obtener consejos generales sobre cómo vivir una vida mejor.

“Punto de vista: me conecto a mi sesión de terapia semanal (me estoy volcando a ChatGPT y no escatimo en detalles de nombres), escribe un usuario de TikTok. Otro le pide a ChatGPT una combinación de consejos de sus oradores inspiradores favoritos, incluidos Brené Brown y Abraham Hicks.

Los terapeutas con chatbots de IA no son nada nuevo. Woebot, por ejemplo, se lanzó en 2017 como una ayuda para la salud mental que tenía como objetivo utilizar el procesamiento del lenguaje natural y las respuestas aprendidas para imitar una conversación.

“El auge de los ‘terapeutas de bolsillo’ de IA para el apoyo a la salud mental no es solo una tendencia tecnológica, es una llamada de atención para nuestra industria”, dice Carl Marci, director clínico y director general de salud mental y neurociencia en OM1, y autor de Rewired: Protecting Your Brain in the Digital Age. “Nos enfrentamos a un importante desajuste entre la oferta y la demanda en la atención de la salud mental que la IA puede ayudar a resolver”. En Estados Unidos, una de cada tres personas vive en un área con escasez de trabajadores de salud mental. Al mismo tiempo, 90% de las personas cree que existe una crisis de salud mental en Estados Unidos actualmente.

Teniendo en cuenta lo costosa e inaccesible que puede ser la terapia, el atractivo de usar ChatGPT como terapeuta parece ser la rapidez y la gratuidad de las respuestas. El hecho de que no sea humano también es un atractivo para algunos, ya que les permite expresar sus pensamientos más profundos y oscuros sin temor a ser juzgados. Sin embargo, expresar sus pensamientos más profundos y oscuros a una tecnología no regulada con preguntas sobre privacidad y vigilancia de datos no está exento de riesgos. Existe una razón por la que los terapeutas humanos están sujetos a estrictos requisitos de confidencialidad o responsabilidad.

ChatGPT tampoco está diseñado para ser un terapeuta. El propio ChatGPT advierte a los usuarios que la tecnología “puede generar ocasionalmente información incorrecta” o “puede producir ocasionalmente instrucciones dañinas o contenido sesgado”. “Los modelos de lenguaje grandes aún no se han probado en su enfoque”, dice Marci. “Pueden producir alucinaciones, que podrían desorientar a las personas vulnerables, o incluso dar lugar a recomendaciones peligrosas sobre el suicidio si se les dan las indicaciones incorrectas”.

Si bien ChatGPT es un ejercicio divertido o una oportunidad para desahogarse, no está pensado para sustituir a la terapia. Al menos, no todavía.

Author

Author

Sobre el autor

Es una articulista freelance basada en Nueva York, cubriendo cultura de internet y sociedad.

ADVERTISEMENT

ADVERTISEMENT