La IA de Elon Musk creó desnudos falsos de Taylor Swift sin necesidad de instrucciones, según un informe


La empresa de inteligencia artificial de Elon Musk, xAI, enfrenta una nueva controversia. Su herramienta de generación de vídeo, Grok Imagine, habría creado imágenes sexuales no consensuadas de la cantante Taylor Swift, incluso cuando los usuarios no solicitaron explícitamente dicho contenido.
Grok Imagine y el caso Taylor Swift
El incidente fue reportado por Jess Weatherbed, periodista de The Verge, quien probó Grok Imagine el 5 de agosto.
La reportera pidió al sistema que mostrara a “Taylor Swift celebrando Coachella con el chico” y activó la opción “picante”, pensada para añadir un tono provocador.
El resultado fue un vídeo en el que la artista aparecía arrancándose la ropa y bailando en tanga frente a una multitud digital.
La polémica estalló inmediatamente, ya que X (antes Twitter), plataforma también propiedad de Musk, sufrió en 2023 un escándalo similar: la difusión masiva de deepfakes sexuales falsos de Swift.
Política de tolerancia cero… en papel
Tras aquella crisis, la compañía aseguró que mantenía una “política de tolerancia cero” hacia la desnudez no consensuada, prometiendo eliminar los contenidos ofensivos y sancionar a los infractores.
Sin embargo, el informe de The Verge revela que:
El modo “picante” de Grok Imagine genera con frecuencia desnudos de celebridades, especialmente de Taylor Swift.
Estos resultados pueden aparecer sin que los usuarios los pidan de forma explícita.
Aunque la IA rechaza representar menores, la capacidad para distinguir entre lo sugerente y lo ilegal en adultos sigue siendo deficiente.
Elon Musk guarda silencio
Mientras la polémica crecía, Elon Musk no abordó públicamente el problema. En lugar de ello, promocionó Grok Imagine en X, animando a los usuarios a compartir sus creaciones con IA.
Para críticos y expertos, este gesto puede incentivar aún más el abuso de la herramienta y normalizar la generación de contenido no consensuado.
Riesgos legales para xAI
El caso llega en un momento crítico: en 2026 entrará en vigor la Take It Down Act, ley federal en Estados Unidos que obligará a las plataformas a eliminar imágenes sexuales no consensuadas.
Si xAI no refuerza sus medidas de seguridad y moderación, podría enfrentarse a serias consecuencias legales además de un daño reputacional irreparable.
Una alerta ética sobre la inteligencia artificial
El episodio con Taylor Swift evidencia un problema central en la inteligencia artificial generativa: la facilidad con la que puede crear contenido sexual manipulado, incluso contra la voluntad de las personas representadas.
Este tipo de abusos plantea preguntas urgentes sobre:
Ética en el desarrollo de IA.
Protección de víctimas de deepfakes.
Responsabilidad legal de las empresas tecnológicas.
Esta noticia ha sido adaptada y comentada por el Observatorio de Defensa Digital.
Observatorio de Defensa Digital
Protección del ciudadano frente a los abusos digitales.
Redes
© 2025. All rights reserved.
Mantente informado
Recibe las novedades del Observatorio directamente en tu correo.