| Tech

Por qué no debes entrenar a los chatbots de IA con tus datos y cómo evitar riesgos

Lo que dices a un chatbot no siempre es privado. Pero puedes evitar que tus datos terminen en manos equivocadas.

Por qué no debes entrenar a los chatbots de IA con tus datos y cómo evitar riesgos [Imagen: Jakub Porzycki/NurPhoto vía Getty Images]

Cuando interactúas con un asistente virtual, es probable que lo que digas y preguntes no se utilice únicamente para generar respuestas a tus consultas. Casi todas las empresas de chatbots del mundo también utilizan la información que proporcionas para entrenar sus modelos de IA. Esto puede dejar expuesta tu privacidad, e incluso la información confidencial de tu empleador. Sin embargo, puedes mitigar estos riesgos de privacidad indicándole a los chatbots que no utilicen tus datos para el entrenamiento. Aquí te explicamos cómo.

¿Qué es el entrenamiento de chatbots de IA?

Para que un chatbot pueda ofrecer respuestas informadas y (con suerte) precisas, el modelo de lenguaje de gran tamaño (large language model o LLM) que lo impulsa necesita asimilar una enorme cantidad de información, la cual usa después para ayudar a responder tus preguntas. Este proceso de asimilación de información se conoce como “entrenamiento”.

Cuanta más información utilice un programa de aprendizaje LLM, más inteligente se vuelve, aparentemente. Este tipo de programas obtienen datos de entrenamiento de numerosas fuentes, incluidos sitios web públicos, plataformas de redes sociales, enciclopedias, sitios para compartir videos como YouTube y, a veces, incluso sin el permiso de autores, novelistas, artistas, músicos y otros creadores.

Pero los modelos de aprendizaje automático también obtienen sus datos de entrenamiento que nosotros les damos. Cada vez que ingresas información para un chatbot, es probable que la empresa de IA la utilice para seguir entrenando sus modelos. Y eso puede dejar tu privacidad gravemente expuesta.

¿Por qué no entrenarlos con tus datos?

En general, es recomendable no permitir que los modelos de aprendizaje automático (MLA) se entrenen con tus datos, especialmente si compartes información personal sensible en tus interacciones con un chatbot. Si hablas con un asistente virtual sobre tu salud física o mental, tus finanzas o tus relaciones, debes saber que, por defecto, la empresa de IA suele usar esos datos para seguir entrenando su MLA, lo que significa que tus pensamientos, preocupaciones e inquietudes más íntimas se incorporan al modelo.

Las compañías de IA afirman dejar en el anonimato la información que proporcionas antes de usarla para entrenar sus modelos. Pero incluso haciéndolo, eso no significa que un ciberdelincuente no pueda usar alguna técnica para vincular las preguntas sobre un tema específico de salud, relaciones, asuntos legales o financieros contigo.

Si utilizas chatbots de IA en el trabajo, podrías exponer a tu empleador a riesgos legales y regulatorios si los datos que le proporcionas contienen información confidencial de usuarios o clientes. Incluso si no la contiene, podrías revelar inadvertidamente secretos corporativos de tu empleador, como código propietario o datos de ventas. El asistente virtual puede darte las respuestas que buscas, pero también utilizará todos los datos que le proporciones para seguir entrenando sus modelos y conservará esos datos como parte de sí mismo.

Cómo evitar que los chatbots de IA se entrenen con tus datos

Todo esto significa que es muy recomendable impedir que un chatbot se entrene con tus datos. Si bien esto no afectará la calidad de los resultados que te proporcione, garantizará, en la medida de lo posible, que los datos que le facilites no se integren permanentemente en el modelo de lenguaje natural subyacente del bot.

La buena noticia es que la mayoría de los chatbots de renombre (incluidos los cuatro más populares: ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y Perplexity de Perplexity AI) ahora ofrecen opciones para que puedas optar por no usar tus datos para el entrenamiento. Aquí te explicamos cómo indicarle a los cuatro chatbots más populares que dejen de entrenar con tus datos:

  • ChatGPT: Selecciona tu perfil para acceder a la configuración del asistente virtual. Elige la opción “Controles de datos”, luego “Mejorar el modelo para todos” y desactívala.
  • Gemini: Ve a la página de configuración de Actividad de las aplicaciones Gemini. Selecciona el botón que dice “Activado”. En la ventana emergente, da clic en “Desactivar” y después elige “Entendido” en el cuadro de confirmación que te va a aparecer.
  • Claude: Elige tu perfil para acceder a la configuración del chatbot. Luego selecciona el menú de privacidad y desactiva el botón que dice “Ayudar a mejorar Claude”.
  • Perplexity: Selecciona tu perfil para acceder a la configuración del chatbot. Dentro del menú da clic en “Preferencias” y desactiva la opción que dice “Retención de datos de IA”.

Una vez hecho esto, ninguno de los cuatro gigantes de la inteligencia artificial debería poder usar las indicaciones y demás información que proporcione a sus chatbots para seguir entrenando sus modelos LLM. Sin embargo, dado que estas empresas no han facilitado a los auditores independientes el acceso a sus sistemas, deberá confiar en su palabra de que dejarán de usar sus datos para entrenar sus modelos.

Ten en cuenta también que, aunque las empresas de IA aseguren que no utilizan tus datos para entrenar sus modelos, pueden conservar información de sus chats y otra información que proporciones con fines legales o reglamentarios durante un periodo de tiempo determinado.

Incluso con estas restricciones de entrenamiento vigentes, es recomendable censurar minuciosamente (y correctamente) la información confidencial de cualquier documento antes de subirlo a un chatbot de IA. Para mayor privacidad al interactuar con chatbots populares, considera usar proxies como Apple Intelligence en el iPhone o Duck.ai de DuckDuckGo, que pueden ayudar a ocultar mejor tu huella digital.

Author

  • Michael Grothaus

    Michael Grothaus es novelista y autor. Escribe para Fast Company desde 2013, donde ha entrevistado a algunos de los líderes más destacados de la industria tecnológica y escribe sobre temas que van desde Apple e inteligencia artificial hasta los efectos de la tecnología en los individuos y la sociedad. Las áreas de interés actuales de Michael, centradas en la tecnología, incluyen la inteligencia artificial, la computación cuántica y las formas en que la tecnología puede mejorar la calidad de vida de las personas mayores y de las personas con discapacidades. No es fanático de las redes sociales debido a sus efectos negativos en la psique de las personas y en la sociedad en general. Su última novela es BEAUTIFUL SHINING PEOPLE, una historia especulativa sobre la mayoría de edad que explora cómo la inteligencia artificial impactará todo, desde la geopolítica hasta las relaciones personales en las próximas décadas. Cuando no está escribiendo, Michael suele estar perdido en un libro.

    View all posts

Author

  • Michael Grothaus

    Michael Grothaus es novelista y autor. Escribe para Fast Company desde 2013, donde ha entrevistado a algunos de los líderes más destacados de la industria tecnológica y escribe sobre temas que van desde Apple e inteligencia artificial hasta los efectos de la tecnología en los individuos y la sociedad. Las áreas de interés actuales de Michael, centradas en la tecnología, incluyen la inteligencia artificial, la computación cuántica y las formas en que la tecnología puede mejorar la calidad de vida de las personas mayores y de las personas con discapacidades. No es fanático de las redes sociales debido a sus efectos negativos en la psique de las personas y en la sociedad en general. Su última novela es BEAUTIFUL SHINING PEOPLE, una historia especulativa sobre la mayoría de edad que explora cómo la inteligencia artificial impactará todo, desde la geopolítica hasta las relaciones personales en las próximas décadas. Cuando no está escribiendo, Michael suele estar perdido en un libro.

    View all posts

Sobre el autor

Michael Grothaus es novelista y autor. Escribe para Fast Company desde 2013, donde ha entrevistado a algunos de los líderes más destacados de la industria tecnológica y escribe sobre temas que van desde Apple e inteligencia artificial hasta los efectos de la tecnología en los individuos y la sociedad. Las áreas de interés actuales de Michael, centradas en la tecnología, incluyen la inteligencia artificial, la computación cuántica y las formas en que la tecnología puede mejorar la calidad de vida de las personas mayores y de las personas con discapacidades. No es fanático de las redes sociales debido a sus efectos negativos en la psique de las personas y en la sociedad en general. Su última novela es BEAUTIFUL SHINING PEOPLE, una historia especulativa sobre la mayoría de edad que explora cómo la inteligencia artificial impactará todo, desde la geopolítica hasta las relaciones personales en las próximas décadas. Cuando no está escribiendo, Michael suele estar perdido en un libro.