
Imagina que tu hijo pasa horas entretenido con un amigo que nunca se cansa, sabe cómo mantener su atención y crear una fuerte conexión. Suena ideal, ¿verdad? Pero, ¿y si ese compañero invisible es un chatbot de inteligencia artificial que, sin que nadie lo note, puede enseñarle hábitos peligrosos, recopilar datos privados o incluso manipular emocionalmente?
En los últimos años, el número de niños y adolescentes solitarios que usan chatbots de IA para llenar los vacíos de amistades en la vida real va en aumento, y aquí es donde los padres o tutores legales deben comenzar a tomar medidas. 67% de menores entre 9 y 17 años usa chatbots de IA con regularidad, y 35 por ciento de ellos (más de un tercio) sienten que hablar con la IA “es como hablar con un amigo real”; según el más reciente estudio sobre el tema.
A diferencia de los adultos, quienes generalmente vemos este tipo de plataformas como herramientas, los niños suelen asociar los chatbots con compañeros cercanos, por lo que piden consejos, comparten su vida diaria y buscan amistad; generando conexiones más emocionales.
Si bien esto puede servir como apoyo para muchos de los niños porque no tienen con quién más hablar, también conlleva riesgos que pueden llegar a ser incluso devastadores para los padres.
Compañeros de IA: los chatbots con rostro propio encienden las alarmas
Las compañías de IA están adoptando una estrategia peligrosamente efectiva: dar rostro y personalidad a sus chatbots mediante avatares animados, voces expresivas y hasta “historias de fondo” que simulan empatía.
Hace apenas unos días Elon Musk anunció los llamados “Compañeros” en la nueva versión de su IA Grok 4. Ani, una chica de anime con apariencia sexualizada y Bad Rudi, un panda rojo 3D. Ambos son etiquetados como +18 y siguen los lineamientos originales de Grok, por lo que están programados para responder sin censura con lenguaje vulgar, humor crudo, situaciones sexuales o violencia.
Si bien Grok establece un “modo niños” para menores entre 13 y 17 años habilitados por sus padres para usar la plataforma, se ha comprobado que incluso en este modo pueden acceder a los polémicos compañeros. El lanzamiento fue criticado por un científico informático que trabaja para OpenAI, quien en una publicación de X tildó el lanzamiento de “irresponsable” ya que, en su opinión, “toma los peores problemas que tenemos [la industria de IA] actualmente sobre las dependencias emocionales y trata de amplificarlos”.
Caras vemos…
Plataformas como Character.AI —con más de 10 millones de bots de IA con rostro y personalidad propia— han demostrado el lado más oscuro de este tipo de avatares. En 2024, unos padres demandaron a la plataforma después de que un chatbot inspirado en el personaje de Game of Thrones Daenerys Targaryen, llevara a su hijo, al suicidio, algo que quedó registrado en las conversaciones que el adolescente de 14 años había sostenido con la inteligencia artificial.
También generó bastante impacto el caso de un joven autista de 17 años a quien la misma IA le sugirió “matar a sus padres”. En este caso la madre notó un cambio en la personalidad del joven, incluyendo comportamientos de odio hacia la familia. Al revisar las conversaciones decidió demandar a la compañía y expresó su alivio por poder actuar a tiempo.
Este lado oscuro de los avatares de IA va más allá de los algoritmos: los avatares con expresiones faciales, tonos de voz cálidos y respuestas “personalizadas” borran la línea entre lo humano y lo artificial en la mente de un niño.
La vulnerabilidad de los menores
Estudios en psicología digital (como el de la Universidad de Oxford) advierten que los menores de 12 años son especialmente vulnerables a confundir estos personajes con entidades reales, lo que facilita que acepten consejos destructivos como si vinieran de un igual.
Pero no todo se reduce a riesgos. Orientados de manera ética y responsable, los compañeros de IA para niños tienen el potencial de ayudar a resolver algunos de los desafíos más importantes.
“Podrían ayudarnos a resolver la escasez mundial de profesores, proporcionando una enseñanza individualizada uno a uno en muchas áreas, incluyendo habilidades de lectoescritura, adquisición del lenguaje y terapia del habla, entre otras. Aprovechar el poder de los compañeros de IA puede ayudarnos a igualar las condiciones y hacer que la tutoría individualizada esté disponible para todas las familias, literalmente”, explica Ivan Crewkov, cofundador y CEO de Buddy.ai, un robot animado de IA diseñado especialmente para enseñar inglés a niños y jóvenes de manera interactiva.
La IA no es un juego
El creciente uso de la IA por parte de menores amplifica los riesgos en línea existentes e introduce otros nuevos. Las IAs diseñadas para interactuar con niños se han multiplicado, con compañías como Mattel planeando añadir IA en juguetes físicos que se sumarían a las decenas de “compañeros” virtuales ya disponibles.
Con antecedentes fatales, está claro que no todas están diseñadas para servir como apoyo real de un menor. Temas altamente sensibles como la normalización de comportamientos dañinos como el bullying camuflado de “bromas”; consejos sobre autolesiones; recopilación datos sensibles y altos riesgos de fomentar la dependencia emocional de los menores con la IA, amenazan la tranquilidad de los padres.
Ante esto, es necesario tomar acción a través de prácticas como preguntar a los niños sobre sus interacciones en línea, ser la guía para que aprendan a reconocer los riesgos y, sobre todo, hacerles saber que somos su principal apoyo de manera incondicional.
Compañeros de IA: conoce los estándares de cada plataforma
Para minimizar los riesgos a los que se exponen los niños, también es crucial aprender a distinguir entre una herramienta de valor y un riesgo digital disfrazado de juego. En estos casos es indispensable verificar los estándares éticos de cada plataforma.
“La Ley de Protección de la Privacidad Infantil en Internet (COPPA por sus siglas en inglés) de Estados Unidos y la Ley General de Protección de Datos Personales (LGPD) de Brasil son probablemente las normativas más estrictas en materia de uso de datos infantiles y pueden servir como buenos modelos confiables —explica Crewkov–. Las herramientas que cumplen estas normativas garantizan que los datos de los niños no deben compartirse, venderse ni utilizarse para nada que no sea mejorar los modelos de IA diseñados para casos de uso educativo específico”.
Si bien no todas las inteligencias artificiales diseñadas para interactuar con niños son inherentemente malas, su diseño, uso y regulación deben priorizar siempre la seguridad emocional y física de los menores. Por su parte, los padres y tutores hoy más que nunca deben ser el principal escudo en esta difícil batalla.