[Foto: VINCENT FEURAY/Colaborador/Getty Images]
Elon Musk asumió el control de X e incorporó Grok, la herramienta de inteligencia artificial (IA) generativa de su empresa hermana, con el objetivo de convertir su ecosistema de redes sociales en un espacio más permisivo y con una política de “libertad de expresión maximalista”. A lo que se enfrenta es a la amenaza de múltiples investigaciones regulatorias después de que se comenzara a usar Grok para crear imágenes explícitas de mujeres sin su permiso, incluyendo en ocasiones imágenes de menores de edad.
El problema, que surgió la semana pasada cuando se empezó a usar las capacidades de generación de imágenes de Grok como arma en publicaciones inofensivas, principalmente de usuarias de X, ha indignado a los reguladores de todo el mundo. Ofcom, el regulador de comunicaciones del Reino Unido, se ha puesto en contacto urgentemente con X en relación con las imágenes, mientras que la Unión Europea ha calificado la posibilidad de usar Grok de esa manera de “espantosa” y “repugnante”.
La urgencia de regular a la IA
En los tres años transcurridos desde el lanzamiento de ChatGPT, la IA generativa se ha enfrentado a numerosos desafíos regulatorios, muchos de los cuales aún están en litigio, incluyendo la supuesta infracción de derechos de autor en el entrenamiento de modelos de IA. Pero el uso de la inteligencia artificial de forma tan dañina para atacar a las mujeres plantea un importante momento moral para el futuro de la tecnología.
“No se trata de desnudez. Se trata de poder, de menospreciar a esas mujeres, de mostrar quién manda y de obtener placer o excitación por el hecho de que no dieron su consentimiento”, afirma Carolina Are, investigadora del Reino Unido que ha estudiado los daños que las plataformas de redes sociales, los algoritmos y la IA causan a los usuarios, incluidas las mujeres.
Por su parte, X ha dicho: “Cualquiera que use o incite a Grok a crear contenido ilegal sufrirá las mismas consecuencias que si subiera contenido ilegal”, haciéndose eco de las palabras de su propietario, Elon Musk, quien publicó lo mismo el 3 de enero.
El hecho de que sea posible crear tales imágenes sugiere lo perjudicial que es eliminar las barreras de la IA generativa para permitir que los usuarios hagan básicamente lo que quieran. “Este es otro ejemplo más de las enormes disparidades, desigualdades y dobles estándares de la era de las redes sociales, especialmente durante este período, pero también de la impunidad de la industria tecnológica”, afirma Are.
Precedente
Si bien la escala y el poder de las imágenes creadas por IA parecen sin precedentes, algunos expertos no están de acuerdo en que representen la primera prueba de moralidad real para la IA generativa.
“La IA —y la uso aquí como un término general— ha sido durante mucho tiempo una herramienta de discriminación, misoginia, homofobia, transfobia y daño directo, incluyendo incitar a las personas a quitarse la vida, causar depresión y dismorfia corporal, entre otras cosas”, afirma Ari Waldman, profesor de derecho de la Universidad de California, Irvine. “Crear deepfakes de mujeres y niñas es absolutamente horrible, pero no es la primera vez que la IA incurre en conductas moralmente reprobables”, añade.
Pero la cuestión de quién tiene la responsabilidad legal de la producción de estas imágenes es menos clara de lo que parecen las declaraciones de Musk.
Sobre la legalidad
Eric Goldman, profesor de la Facultad de Derecho de la Universidad de Santa Clara —Estados Unidos—, señala que la recientemente promulgada Ley de Retirada de Contenido (Take It Down Act), que exige a las plataformas implementar, en los próximos meses, medidas para retirar contenido ilegal o infractor en un plazo de 48 horas, añadió nuevas disposiciones penales contra las “representaciones visuales íntimas”, una categoría que incluiría imágenes generadas por IA. Sin embargo, es incierto si esto incluiría imágenes en bikini como las que Grok crea a gran escala.
“Esta ley aún no se ha probado en los tribunales, pero usar a Grok para crear contenido sexual sintético es el tipo de cosas que la ley fue diseñada para desalentar”, afirma Goldman. “Dado que desconocemos si la Ley de Retirada de Contenido ya ha implementado la solución regulatoria necesaria para resolver el problema en cuestión, sería prematuro promulgar aún más leyes”.
Expertos como Rebecca Tushnet, especialista en la Primera Enmienda de la Facultad de Derecho de Harvard, afirman que las leyes necesarias ya existen. “La cuestión es aplicarlas contra los infractores, cuando entre ellos se encuentran personas con poder político o que desacatan la ley”, afirma.
En los últimos años, se han aprobado en Estados Unidos numerosas leyes nuevas contra las deepfakes y las imágenes explícitas, incluyendo una ley federal que castiga la distribución de falsificaciones digitales sexualmente explícitas, explica Mary Anne Franks, experta en propiedad intelectual y tecnología de la Facultad de Derecho George Washington.
Sin embargo, los recientes avances con Grok demuestran que las medidas existentes son insuficientes, afirma. “Tenemos que empezar a tratar a los desarrolladores de tecnología como tratamos a otros fabricantes de productos peligrosos: responsabilizarlos de los daños causados por sus productos que podrían y deberían haber evitado”.
Responsabilidad última
Esta cuestión de la responsabilidad última, por lo tanto, sigue sin respuesta. Y es la pregunta que Musk podría intentar evitar al expresar su desagrado por lo que hacen sus usuarios.
“La cuestión legal más compleja es qué responsabilidad, si la hubiera, podría tener Grok por facilitar la creación de imágenes visuales íntimas”, explica Goldman, de la Universidad de Santa Clara, señalando la imposición voluntaria de restricciones como parte de los protocolos de confianza y seguridad de las empresas. “No está claro, según la legislación estadounidense, si estas restricciones reducen o eliminan cualquier responsabilidad legal”, afirma, y añade que “no está claro si la responsabilidad de la modelo aumentará si esta cuenta con restricciones claramente inadecuadas”.
Waldman, de la Universidad de California en Irvine, argumenta que los legisladores de Washington deberían aprobar una ley que responsabilice legalmente a las empresas por diseñar y desarrollar herramientas de inteligencia artificial capaces de crear pornografía infantil o deepfakes pornográficos de mujeres y niñas. «Actualmente, la responsabilidad legal de las empresas tecnológicas es controvertida», añade.
Si bien la Comisión Federal de Comercio (FTC) tiene autoridad legal para tomar medidas, a Waldman le preocupa que no lo haga. “Las empresas de IA se han alineado con el presidente, y la FTC no parece estar cumpliendo con su mandato de protección al consumidor en ningún sentido real”.
![[Imágenes: FIFA;
rawpixel.com/Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/08115826/TikTok-Mundial-FIFA-2026-cobertura-Fast-Company-Mexico-Cortesia-Freepik.jpg)
![[imagen generada con IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/08092016/Copilot_20260108_231959.png)
![[Imagen impulsada por IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/08110544/talento-en-mexico.jpg)
![[Foto: Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/06122311/EDITED-FC-Executive-Board-Templates-1-48.webp)