
Es una triste realidad que los usuarios busquen información sobre el suicidio en línea. En los inicios de internet, los foros incluían grupos de discusión sobre suicidio. Ahora, Google, al igual que otros servicios, alberga archivos de estos grupos.
Google y otros pueden alojar y mostrar este contenido amparándose en la inmunidad ante la responsabilidad por los consejos peligrosos que terceros puedan dar sobre el suicidio. Esto se debe a que el discurso es del tercero, no de Google.
Pero ¿qué pasaría si ChatGPT, basado en los mismos materiales de suicidio en línea, te diera consejos de suicidio en una conversación de chatbot de inteligencia artificial (IA)? Soy experto en derecho tecnológico, exabogado y director de ingeniería de Google, y veo que los chatbots de IA están cambiando la posición de las grandes tecnológicas en el panorama legal.
Las familias de víctimas de suicidio están probando argumentos de responsabilidad por chatbots de IA en los tribunales, con algunos resultados preliminares.
¿Quién es responsable cuando un chatbot habla?
Cuando las personas buscan información en línea, ya sea sobre suicidio, música o recetas, los motores de búsqueda muestran resultados de sitios web, y estos alojan información de los autores del contenido. Esta cadena, desde la búsqueda hasta el alojamiento web y la voz del usuario, continuó siendo la forma predominante de obtener respuestas a sus preguntas hasta hace muy poco.
Este canal era, en líneas generales, el modelo de la actividad en internet cuando el Congreso de Estados Unidos aprobó la Ley de Decencia en las Comunicaciones en 1996. El artículo 230 de la ley creó inmunidad para los dos primeros eslabones de la cadena —buscadores y proveedores de alojamiento web— respecto del discurso del usuario que estos muestran. Solo el último eslabón de la cadena, el usuario, afrontaba responsabilidades por su discurso.
Los chatbots de IA rompen con estas antiguas distinciones. Ahora, ChatGPT y bots similares pueden buscar, recopilar información de sitios web y anunciar los resultados, literalmente, en el caso de los bots de voz con apariencia humana. En algunos casos, el bot mostrará su trabajo como lo haría un motor de búsqueda, señalando el sitio web que contiene su excelente receta de pollo, por ejemplo.
Los chatbots de IA no son nuestros amigos
Cuando los chatbots parecen ser simplemente una versión más amigable de los clásicos motores de búsqueda, sus empresas pueden argumentar con argumentos plausibles que el antiguo régimen de inmunidad se aplica. Los chatbots de IA pueden ser el antiguo modelo de búsqueda-web-altavoz con una nueva apariencia.
Pero en otros casos, actúa como un amigo de confianza, preguntándote sobre tu día y ofreciéndote ayuda con tus necesidades emocionales. Los motores de búsqueda, con el modelo anterior, no actuaban como guías vitales. Los chatbots se usan a menudo de esta manera. Los usuarios muchas veces ni siquiera piden que el bot muestre su estrategia con enlaces web. Añadir citas mientras ChatGPT te desea un buen día sería, bueno, incómodo.
Cuanto más se alejan los chatbots modernos de las antiguas estructuras de la web, más se alejan de la inmunidad que los antiguos actores de la web han disfrutado durante tanto tiempo. Cuando un chatbot actúa como tu confidente personal, extrayendo de su cerebro virtual ideas sobre cómo podría ayudarte a alcanzar tus objetivos, no es exagerado considerarlo el portavoz responsable de la información que proporciona.
Los tribunales están respondiendo de la misma manera, particularmente cuando el vasto y útil “cerebro” del bot se dirige a ayudar a satisfacer su deseo de aprender sobre el suicidio.
Casos de suicidio por chatbots de IA
Las demandas actuales relacionadas con chatbots y víctimas de suicidio muestran que se abre la puerta a la responsabilidad para ChatGPT y otros bots. Un caso relacionado con los bots Character.AI de Google es un claro ejemplo.
Character.AI permite a los usuarios chatear con personajes creados por ellos mismos, desde figuras de anime hasta una abuela prototípica. Incluso pueden tener llamadas virtuales con algunos personajes, hablando con una abuela virtual que los apoya como si fuera la suya. En un caso en Florida, un personaje de Game Of Thrones, Daenerys Targaryen, supuestamente le pidió a la joven víctima que “volviera a casa” con el bot en el cielo antes de que el adolescente se suicidara. La familia de la víctima demandó a Google.
La familia de la víctima no enmarcó el papel de Google en términos tecnológicos tradicionales. En lugar de describir la responsabilidad de Google en el contexto de sitios web o funciones de búsqueda, el demandante la enmarcó en términos de productos y fabricación, similar a la de un fabricante de piezas defectuosas. El tribunal de distrito dio crédito a esta interpretación a pesar del vehemente argumento de Google de que se trata simplemente de un servicio de internet y, por lo tanto, deberían aplicarse las antiguas normas de internet.
El tribunal también rechazó los argumentos de que las declaraciones del bot estaban protegidas por la Primera Enmienda y que los usuarios tienen derecho a escuchar.
Aunque el caso sigue en curso, Google no logró la rápida desestimación que las plataformas tecnológicas esperaban desde hace tiempo bajo las antiguas normas. Ahora, se ha presentado una demanda contra otro bot de Character.AI en Colorado, y ChatGPT se enfrenta a un caso en San Francisco, todos con encuadres de producto y fabricación similares al caso de Florida.
Obstáculos que los demandantes deben superar
Aunque la posibilidad de responsabilidad para los proveedores de chatbots ya está abierta, otros problemas podrían impedir que las familias de las víctimas obtengan una indemnización por daños y perjuicios. Aunque ChatGPT y sus competidores no son inmunes a demandas y los tribunales se adhieran al sistema de responsabilidad del producto para chatbots de IA, la falta de inmunidad no implica una victoria para los demandantes.
Los casos de responsabilidad por productos defectuosos requieren que el demandante demuestre que el demandado causó el daño en cuestión. Esto es particularmente difícil en casos de suicidio, ya que los tribunales suelen determinar que, independientemente de lo ocurrido antes, la única persona responsable del suicidio es la víctima. Ya sea una discusión acalorada con la pareja que lleva a un grito de “¡¿Por qué no te suicidas?!”, o el diseño de un arma que facilita la autolesión, los tribunales suelen determinar que solo la víctima es responsable de su propia muerte, no las personas y los dispositivos con los que interactuó en el proceso.
Pero sin la protección de inmunidad que las plataformas digitales han disfrutado durante décadas, los demandados tecnológicos enfrentan costos mucho mayores para obtener la misma victoria que solían obtener automáticamente. Al final, la historia de los casos de suicidio de chatbots podría ser más bien acuerdos secretos, pero lucrativos, para las familias de las víctimas.
Mientras tanto, es probable que los proveedores de bots coloquen más advertencias de contenido y activen el cierre de los bots con mayor facilidad cuando los usuarios accedan a zonas que el bot considera peligrosas. El resultado podría ser un mundo de “productos” de IA más seguro, pero menos dinámico y útil.
Brian Downing es profesor asistente de derecho en la Universidad de Mississippi.
Este artículo fue publicado originalmente en The Conversation.