ADVERTISEMENT

| Tech

Por qué el ‘Baby Grok’ de Elon Musk alarma a los defensores de la seguridad infantil

Los expertos expresan su preocupación por el nuevo chatbot de Musk enfocado en niños.

Por qué el ‘Baby Grok’ de Elon Musk alarma a los defensores de la seguridad infantil [Foto: Adobe Stock]

El sector de la Inteligencia Artificial (IA) de acompañantes pronto verá a un nuevo participante. Elon Musk, propietario de xAI y de la plataforma de redes sociales X, anunció recientemente: “Vamos a crear Baby Grok, una aplicación dedicada a contenido infantil”.

La decisión de entrar en el mercado de chatbots y acompañantes de IA parece lógica para X: alrededor de tres de cada cuatro adolescentes de Estados Unidos ya han usado acompañantes de IA, y la plataforma naturalmente querrá generar lealtad a la marca desde el principio.

Sin embargo, expertos en protección infantil y uso de redes sociales plantean inquietudes. Advierten que Musk, xAI y las aplicaciones enfocadas en niños podrían no ser una buena combinación. “La preocupación es que si X o xAI intentan entrar en el mercado de productos para niños, claramente tienen un historial pésimo de priorizar la seguridad infantil”, afirma Haley McNamara, vicepresidenta de iniciativas y programas estratégicos del Centro Nacional sobre Explotación Sexual (NCOSE). “Han demostrado que no les importa realmente, así que creo que deberían mantenerse alejados de los niños”.

Baby Grok representa muchos riesgos

Andy Burrows, director ejecutivo de la Fundación Molly Rose, advierte que los planes de Elon Musk para lanzar una versión infantil de Grok alarmarán a la sociedad civil. Señala que cada vez hay más evidencia sobre los riesgos que generan las decisiones de diseño persuasivas en los chatbots de IA, la carencia de medidas de protección efectivas en la mayoría de los modelos principales de la industria y la falta de una estrategia clara para prevenir las alucinaciones. Su preocupación, que comparten expertos a nivel internacional, se suma a la de McNamara. La Fundación Molly Rose surgió gracias a los padres de Molly Russell, una adolescente británica de 14 años que se suicidó tras haber estado expuesta a contenido dañino en redes sociales.

Más allá del hecho de que Baby Grok provendría de la misma organización que desarrolló Ani, un chatbot de IA sexualizado cuyos usuarios han sido rápidamente obligados a mantener conversaciones explícitas, y Bad Rudi, un chatbot de panda rojo que usa insultos por defecto, los expertos ven peligros más amplios. Burrows está especialmente preocupado por la introducción de chatbots de IA a los niños, ya que podrían desarrollar fácilmente vínculos emocionales con dicha tecnología.

“Los chatbots pueden simular relaciones profundas y emocionales con niños, y existen riesgos evidentes de que los niños los usen para buscar apoyo o consejo en salud mental de maneras que, en última instancia, podrían resultar perjudiciales”, afirma Burrows. Incluso adultos han establecido vínculos emocionales inapropiados con chatbots de IA, con dificultades para diferenciar entre relaciones artificiales y reales.

¿Cómo planea Musk proteger a los usuarios jóvenes?

Para los niños más influenciables, estas conexiones podrían consolidarse más rápidamente, con posibles efectos a largo plazo en su salud mental. McNamara afirma que las empresas tienen la obligación de considerar cómo sus plataformas afectan a los niños y tomar medidas para protegerlos, algo que, en su opinión, un bot de Grok para niños no cumple. —Ni xAI ni Musk respondieron a la solicitud de comentarios de Fast Company—.

NCOSE también plantea inquietudes sobre si las plataformas de Musk pueden proteger adecuadamente a los usuarios jóvenes. McNamara señala que, tras la adquisición de lo que entonces era Twitter por parte de Musk, muchos empleados de seguridad infantil fueron despedidos.

“X también permite pornografía en su plataforma, que no requiere ningún tipo de verificación estricta de edad o consentimiento para esos videos”, dice, y sostiene que esas “políticas laxas han llevado a una presencia generalizada de material abusivo” y hasta ahora ha habido pocas señales de que la empresa esté tomando medidas significativas para abordar estos problemas.

Burrows, por su parte, señala la nueva Ley de Seguridad en Línea del Reino Unido como un nivel de supervisión que se aplicaría a Baby Grok, aunque señala que X ha tardado en cumplir con los requisitos de la legislación. Su mayor preocupación es global. En muchos países, advierte, “la falta de regulación implicará que la implementación de productos mal diseñados quedará prácticamente sin control”.

Musk puede ver una oportunidad de negocio. Pero para quienes protegen a los niños en línea, hay mucho más en juego.

Author

  • Chris Stokel-Walker

    Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

    View all posts

Author

  • Chris Stokel-Walker

    Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

    View all posts

Sobre el autor

Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

ADVERTISEMENT

ADVERTISEMENT