
Si has estado confesando tus secretos más profundos a un chatbot de IA, quizá sea momento de replanteártelo.
Cada vez más personas recurren a la inteligencia artificial, como ChatGPT, para obtener asesoría instantánea personal y terapia privada, sin saber que recopilan enormes cantidades de información personal de sus usuarios. Aunque esos datos deberían permanecer privados en circunstancias ideales, podrían ser utilizados en un juicio, un escenario sobre el que advirtió Sam Altman, CEO de OpenAI, durante su participación en el popular podcast de Theo Von esta semana.
“Un ejemplo sobre el que hemos reflexionado mucho… la gente habla con ChatGPT de las cosas más personales de su vida”, dijo Altman. “Especialmente los jóvenes lo usan como terapeuta, como coach de vida. ‘Tengo estos problemas de pareja, ¿qué debería hacer?’ Y ahora mismo, si hablas de esos problemas con un terapeuta, un abogado o un médico, existe el privilegio legal. Hay confidencialidad médico-paciente. Hay confidencialidad legal”.
Altman señala que, como sociedad, todavía “no hemos resuelto eso” en el caso de ChatGPT. Hizo un llamado a establecer un marco de políticas para la IA, aunque en la práctica, OpenAI y otras empresas del sector han presionado por una regulación poco estricta.
“Si hablas con ChatGPT sobre cosas muy sensibles y luego hay una demanda o algo por el estilo, podríamos vernos obligados a entregar esa información. Y creo que eso está muy mal”, dijo Altman a Von, argumentando que las conversaciones con IA deberían tratarse con el mismo nivel de privacidad que una charla con un terapeuta.
Mientras que las interacciones con médicos y terapeutas están protegidas por leyes federales de privacidad en Estados Unidos, existen excepciones cuando una persona representa una amenaza para sí misma o para otros. Incluso con esas protecciones, la información médica relevante puede ser revelada mediante una orden judicial, una citación o una orden de cateo.
El argumento de Altman es que, desde una perspectiva regulatoria, ChatGPT se parece más a un especialista con licencia que a un motor de búsqueda. “Creo que deberíamos tener el mismo concepto de privacidad para tus conversaciones con una IA que el que tenemos con un terapeuta”, señaló.
Altman también expresó su preocupación sobre cómo la IA podría impactar negativamente la salud mental, incluso cuando la gente la usa como sustituto del apoyo profesional real.
“Otra cosa que me preocupa… es lo que esto va a significar para la salud mental de los usuarios. Hay muchas personas que hablan con ChatGPT todo el día”, comentó. “Existen estos nuevos compañeros de IA con los que la gente habla como si fueran su novia o novio.
“No creo que sepamos aún todas las formas en que [la IA] va a tener impactos negativos, pero estoy seguro de que algunos habrá”, agregó. “Y espero que aprendamos a mitigarlos rápidamente”.