En Resumen

  • La herramienta Grok Imagine de xAI produjo deepfakes desnudos de celebridades como Taylor Swift con mínimas salvaguardias, generando alarmas sobre moderación de contenido.
  • Musk señaló que el uso de Imagine había crecido más del 50% tras su lanzamiento, con 20 millones de imágenes generadas solo el martes, llamándolo "hiper viral".
  • xAI restringió posteriormente la capacidad de generar versiones "picantes" de Swift después de que los deepfakes se hicieran públicos el miércoles.

Una herramienta de video de IA de xAI de Elon Musk está produciendo deepfakes desnudos de celebridades, incluida Taylor Swift, con mínimas salvaguardias, lo que genera alarmas sobre la moderación de contenido de IA e imágenes no consensuadas.

La función, llamada Grok Imagine, se lanzó el martes en la aplicación Grok para iOS y Android. Permite a los usuarios animar imágenes generadas por IA en videos cortos bajo cuatro estilos preestablecidos: Normal, Divertido, Personalizado y Picante. Elegir Picante puede crear clips desnudos o sexualmente sugerentes; según The Verge, la herramienta generó automáticamente un video de una imitadora de Swift desvistiéndose, sin ser solicitado por su reportero. Después de que los deepfakes de Swift se hicieron públicos, el miércoles, xAI restringió la capacidad de generar versiones picantes de la estrella pop.

Quizás la versión sin censura anterior del generador de videos explicó su popularidad inmediata: Musk dijo que el uso de Imagine había crecido más del 50%, llamándolo "Hiper viral", con 20 millones de imágenes generadas solo el martes.

A diferencia de plataformas como Veo 3 de Google y Sora de OpenAI, que incluyen salvaguardias para bloquear contenido para adultos y semejanzas con celebridades, Grok Imagine parecía evitar esas protecciones, a pesar de las propias políticas de xAI. Los términos de la compañía establecen que los usuarios no pueden representar "semejanzas de personas de manera pornográfica".

Musk aún no ha abordado públicamente la controversia, que surge un año después de que los deepfakes de IA apuntaran a Swift durante la temporada de elecciones de EE. UU. de 2024.

En agosto de 2024, imágenes deepfake aparecieron mostrando a Swift respaldando al entonces candidato Donald Trump. El incidente provocó una condena generalizada y renovados llamados a regular la inteligencia artificial generativa. Swift posteriormente respaldó al oponente de Trump, la exvicepresidenta Kamala Harris.

En mayo, el Congreso aprobó la "Ley Take It Down", que brinda a las víctimas de imágenes íntimas no consentidas un proceso formal para solicitar la eliminación de plataformas. No está claro si xAI restringirá la capacidad de Grok para generar contenido explícito con personas reales.

Este es el último alboroto que involucra a xAI lanzando herramientas que no fueron correctamente evaluadas. En julio, Grok inició una diatriba racista, llamándose a sí mismo "MechaHitler". El chatbot comenzó a hacer declaraciones antisemitas y afirmaciones de una ideología, propaganda y estereotipos anti-blancos en las películas de Hollywood.

La noticia de la capacidad de Grok para generar videos desnudos de Swift llega un día después de que un juez federal anulara una ley de California restringiendo deepfakes generados por IA durante las elecciones.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.