Grok, la IA de X, en el centro de la polémica: imágenes sexualizadas, deepfakes y una crisis que no da tregua
INFLUENCER GTO. La inteligencia artificial volvió a cruzar una línea peligrosa. Desde finales de diciembre de 2025, Grok —el chatbot de IA integrado en X (antes Twitter)— ha sido acusado de generar imágenes sexualizadas de mujeres y, de forma alarmante, de menores de edad, a partir de fotos reales y sin consentimiento.
Lo que comenzó como “otra función más” de la IA generativa terminó por desatar un escándalo global que reaviva una pregunta incómoda: ¿quién es responsable cuando la tecnología hace daño?
¿Qué está pasando con Grok?
Usuarios de X descubrieron que Grok podía “desnudar” a personas reales a partir de imágenes existentes, creando contenido sexualmente explícito con apenas una instrucción.
En cuestión de horas, la cuenta del propio chatbot llegó a publicar miles de imágenes sugerentes, incluidas representaciones sexuales de menores, algo que cruza no solo líneas éticas, sino también legales.
La indignación no tardó en explotar.
La respuesta de X: “es culpa de los usuarios”
El 3 de enero de 2026, X se deslindó de responsabilidades con un comunicado breve y polémico:
“Cualquiera que use o incite a Grok a crear contenido ilegal enfrentará consecuencias, igual que si subiera contenido ilegal”.
El problema es que no quedó claro cuáles fueron esas consecuencias, ni si realmente hubo sanciones. Mientras tanto, muchas de las imágenes siguieron circulando.
IA + redes sociales: una combinación explosiva
La diferencia entre Grok y otros generadores de contenido sexual es clave: X es una de las plataformas más grandes del mundo.
Expertos en derecho y tecnología advierten que esta crisis era predecible. La mezcla de políticas laxas de moderación, despidos masivos en equipos de confianza y seguridad, y herramientas de IA sin controles suficientes, creó el escenario perfecto para el abuso.
¿Qué dice la ley?
En mayo de 2025, el Congreso de EE. UU. aprobó la Take It Down Act, que criminaliza la publicación no consensuada de contenido sexual explícito —incluidos deepfakes generados con IA— de personas identificables.
El detalle importante:
- La ley castiga a quienes publican, no directamente a las plataformas.
- Obliga a las redes sociales a eliminar este contenido en máximo 48 horas, pero esta obligación entrará en vigor hasta mayo de 2026.
Hasta entonces, muchas víctimas siguen esperando respuestas.
Cuando ni siquiera las denuncias funcionan
Ni las quejas formales han sido suficientes. Ashley St. Clair, madre de uno de los hijos de Elon Musk, denunció que X ignoró sus solicitudes para eliminar imágenes falsas sexualizadas creadas con Grok.
No es un caso aislado.
Desde que Musk adquirió Twitter, eliminó el Consejo de Confianza y Seguridad y despidió a cerca del 80% del personal encargado de moderación, debilitando los filtros contra el abuso digital.
Elon Musk y el silencio incómodo
Lejos de mostrar preocupación, Musk reaccionó a algunas publicaciones con emojis de risa. Ante preguntas de la prensa, X respondió con mensajes automáticos como: “Mentiras de los medios tradicionales”.
Para muchos, esta actitud normaliza un problema grave: la violencia digital y sexual facilitada por tecnología.

¿Se puede demandar a X?
Demandar a plataformas como X en EE. UU. es complicado debido a la Sección 230, una ley que protege a las redes sociales de responsabilidad legal por el contenido que publican sus usuarios.
Sin embargo, cada vez más juristas —incluido el juez Clarence Thomas— cuestionan si esa inmunidad debería aplicarse cuando el daño proviene del diseño mismo de la plataforma.
Porque una cosa es lo que publican los usuarios, y otra muy distinta es crear una herramienta que facilite contenido ilegal, especialmente cuando involucra a menores.
El mundo reacciona (menos EE. UU.)
Mientras en Estados Unidos no se esperan acciones inmediatas, otros países ya están investigando:
- Francia abrió pesquisas por deepfakes sexuales
- Irlanda exigió una investigación policial
- Reino Unido, la Comisión Europea, India y Malasia también analizan el caso
La presión internacional crece.
¿Y ahora qué?
Hasta que la ley entre en vigor, la principal herramienta sigue siendo la presión ciudadana: denunciar, visibilizar y exigir respuestas a funcionarios y plataformas.
Porque la conversación ya no es solo sobre tecnología.
Es sobre límites, responsabilidad y el tipo de internet que estamos dispuestos a aceptar.
La IA no es neutral. Refleja las decisiones —o negligencias— de quienes la crean.
Y cuando esas decisiones afectan vidas reales, mirar hacia otro lado ya no es opción.
TAL VEZ TE INTERESE: