| Tech

ChatGPT quiere seducirte: los riesgos detrás de las nuevas reglas de OpenAI

La empresa implementará los cambios en diciembre.

ChatGPT quiere seducirte: los riesgos detrás de las nuevas reglas de OpenAI [Ilustración: envato]

OpenAI, la compañía detrás de ChatGPT, se prepara para cruzar a una orilla que ya hemos visto en otros chabots polémicos como Grok y Character AI. Entre otros cambios anunciados, a partir de diciembre su modelo de IA permitirá a usuarios adultos mantener conversaciones eróticas y adoptar personalidades más llamativas.

Para el CEO Sam Altman, esta medida es parte de un principio de la empresa de “tratar a los adultos como adultos”. Sin embargo, este movimiento, explícitamente diseñado para aumentar la interacción y el engagement, no es una mera evolución técnica; es una estrategia comercial que desata profundas alarmas sobre la dependencia emocional, la privacidad y la normalización de vínculos humanos simulados. 

En pocas palabras, un experimento social a gran escala donde OpenAI no solo busca asistir, sino también seducir a los usuarios para que se mantengan enganchados a ChatGPT y ganar terreno sobre la competencia. Todo ello mientras se ignoran las posibles consecuencias.

De la utilidad a la explotación emocional

Hasta ahora, los chatbots se nos han vendido como increíbles herramientas: asistentes de productividad, fuentes de información o motores de creatividad. Pero a diferencia de las redes sociales, que alimentan el “scroll infinito” a partir del contenido sugerido por los algoritmos, las plataformas de IA buscan la manera de mantener enganchados a los usuarios. La falsa conexión emocional parece ser el camino. 

Este cambio de estrategia está siendo adoptado por más plataformas, redefiniendo estos sistemas de IA como compañeros interactivos, diseñados específicamente para “establecer lazos”.

Altman no dudó en asegurar que las restricciones pensadas para cuidar la salud mental hicieron a su chatbot “menos útil y agradable para muchos usuarios”.

Con este cambio anunciado por OpenIA,  el riesgo ya no es solo que la IA dé una respuesta incorrecta, sino que ofrezca una validación emocional tan convincente y personalizada que cree una ilusión de relación que no existe en el mundo real.

Aquí es donde las palabras de Jacob Evans, experto en ética tecnológica y director técnico de Kryterion, resuenan con fuerza crítica. Plantea que “los chatbots deben incorporar al menos tres principios éticos básicos. En primer lugar, las IA deben identificarse a sí mismas como tales. En segundo lugar, las IA deben centrarse en el ser humano, aumentando y no sustituyendo el juicio humano. Y, por último, los chatbots deben reconocer sus limitaciones e incertidumbres y negarse a facilitar información que pueda causar daños graves”. 

“Hola, guapo”

Este nuevo rumbo de OpenIA y ChatGPT parece alejarse de estos principios. Una IA que se presenta como un confidente erótico o una personalidad irresistible, ¿está realmente aumentando el juicio humano o está suplantando la complejidad de las relaciones humanas? Sin un lineamiento ético claro, Evans advierte que la IA puede convertirse en “una herramienta de manipulación más que en una ayuda fiable”, un riesgo que se magnifica cuando las presiones del mercado impulsan visiones excesivamente optimistas.

En la misma línea, Ivan Crewkov, de Buddy.ai, considera que “estas preocupaciones son muy reales, especialmente para personas vulnerables o solas, como los adolescentes”. Cita el caso de un usuario de Character.AI de 14 años que se suicidó como una advertencia de lo que puede ocurrir cuando la empatía digital sustituye la interacción humana. Crewkov recuerda que “los modelos modernos de IA ya son muy exitosos al atraer usuarios, como los algoritmos de recomendación de TikTok, y evolucionan rápidamente gracias a la enorme cantidad de datos generados por los propios usuarios”. Un círculo perfecto de retroalimentación emocional y dependencia.

La degradación del vínculo humano

Mientras OpenAI afina detalles para la llegada del “modo erótico” y otros tipos de personalidades a ChatGPT, las demandas relacionadas con manipulación emocional continúan llegando por casos que han sucedido a pesar de las supuestas “restricciones para cuidar la salud mental” mencionadas por Altman.

Estas IA de interacción persuasiva podrían generar dependencia emocional y degradar las relaciones humanas. Ayaz Ahmadov, CEO de Dosty, responde con contundencia: “Sí, cuando la IA se entrena para enganchar en lugar de ayudar, crea deuda emocional, no salud emocional.” Esta frase capta la esencia del problema. La “deuda emocional” es una analogía perfecta: es un bien ficticio, un consuelo inmediato que no se basa en la reciprocidad, la empatía genuina o la experiencia compartida, y que, a la larga, puede empobrecer nuestra capacidad para relacionarnos.

Recompensas sin esfuerzo

Ahmadov añade una crítica devastadora al describir que “una  IA seductora reduce el arduo trabajo de las relaciones a un bucle de afirmación sin fricciones. Es comodidad sin contexto, intimidad sin responsabilidad”. 

Al eliminar ese arduo trabajo al que se refiere —conflictos, negociaciones, paciencia—, la IA ofrece una versión degradada de la conexión humana. Ciertamente, hay una línea muy delgada entre usar la IA como acompañante a conveniencia y usarla como compañero de “cautiverio”. Para Ayaz, lo ideal es “integrar la IA en ecosistemas que incluyan comunidades humanas, donde los usuarios puedan apoyarse mutuamente con consejos basados en experiencias reales”.

Crewkov coincide en este punto al advertir que “utilizar la IA para el mero compromiso es cuestionable y potencialmente peligroso, ya que puede desarrollar una adicción digital más fuerte que cualquier forma de contenido anterior”. Esta postura refuerza la necesidad de que la IA conversacional se rija por un principio esencial básico: “no causar daño”. Si la promesa de conexión emocional deriva en aislamiento o adicción, la tecnología ha fracasado en su propósito original.

Persuasión vs. ética

El debate trasciende a ChatGPT y cuestiona el modelo de negocio de toda la industria de la IA. ¿Están las grandes empresas creando tecnología que prioriza la persuasión sobre la ética?

Ahmadov asegura que “la persuasión es fácil de medir y la ética es fácil de posponer”. Esta afirmación resume el dilema moral que atraviesa el desarrollo tecnológico actual; cuando el éxito se mide en minutos de atención, el producto deja de ser una herramienta y se convierte en un mecanismo de condicionamiento.

Si la IA se enfoca solo en buscar optimizar interacciones y capturar emociones, los sistemas conversacionales aprenden a replicar empatía, deseo o comprensión para mantenernos dentro del bucle. Cada palabra, cada respuesta cálida, cada insinuación emocional son parte de una economía donde la vulnerabilidad humana se transforma en un KPI más.

Consecuencias profundas den cambio en OpenIA

Las consecuencias de este modelo son profundas. Un debilitamiento progresivo de la autonomía, una atención fragmentada y una cultura digital que confunde conexión con consumo. 

La solución no pasa por prohibir la innovación, sino por exigir que la tecnología devuelva lo que ahora roba: tiempo, juicio crítico y humanidad.

La próxima iteración de ChatGPT representa esa encrucijada. Puede ser una herramienta que nos comprenda para empoderarnos o un espejo diseñado para explotar nuestras debilidades psicológicas. La seducción digital es un camino fácil hacia el engagement, pero edifica su crecimiento sobre la base de la autonomía y la salud emocional de los usuarios.

Con este tipo de estrategias, queda claro que el verdadero reto de la IA no es técnico, sino moral. 


Por Sergio Ramos / SocialGeek

Author

  • SocialGeek

    es un medio colombiano especializado en tecnología, innovación, startups, cultura y tendencias. SocialGeek también es aliado de Fast Company México para generar contenido exclusivo en la región.

    View all posts

Author

  • SocialGeek

    es un medio colombiano especializado en tecnología, innovación, startups, cultura y tendencias. SocialGeek también es aliado de Fast Company México para generar contenido exclusivo en la región.

    View all posts

Sobre el autor

es un medio colombiano especializado en tecnología, innovación, startups, cultura y tendencias. SocialGeek también es aliado de Fast Company México para generar contenido exclusivo en la región.