Imágenes explícitas deepfake de Taylor Swift difundidas en las redes sociales
Imágenes ornográficas falsas de Taylor Swift están circulando en línea, lo que convierte a la cantante en la víctima más famosa de un flagelo que las plataformas tecnológicas y los grupos contra el abuso han luchado por solucionar.
Imágenes falsas sexualmente explícitas y abusivas de Swift comenzaron a circular ampliamente esta semana en la plataforma de redes sociales X.
Su ferviente base de fans de “Swifties” se movilizó rápidamente, lanzando una contraofensiva en la plataforma antes conocida como Twitter y un hashtag #ProtectTaylorSwift para inundarla con imágenes más positivas de la estrella del pop. Algunos dijeron que estaban denunciando cuentas que compartían los deepfakes.
El grupo de detección de deepfake Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representa a Swift, particularmente en X. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y otras plataformas de redes sociales.
“Desafortunadamente, se extendieron a millones y millones de usuarios cuando algunos de ellos fueron eliminados”, dijo Mason Allen, jefe de crecimiento de Reality Defender.
Los investigadores encontraron al menos un par de docenas de imágenes únicas generadas por IA. Los más compartidos estaban relacionados con el fútbol y mostraban a Swift pintada o ensangrentada que la objetivaba y, en algunos casos, infligía un daño violento a su personalidad deepfake.
Los investigadores han dicho que la cantidad de deepfakes explícitos ha aumentado en los últimos años, a medida que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar. En 2019, un informe publicado por la empresa de inteligencia artificial DeepTrace Labs mostró que estas imágenes estaban abrumadoramente utilizadas como arma contra las mujeres. La mayoría de las víctimas, dijo, eran actores de Hollywood y cantantes de K-pop surcoreanos.
Brittany Spanos, escritora senior de Rolling Stone que imparte un curso sobre Swift en la Universidad de Nueva York, dice que los fans de Swift se movilizan rápidamente en apoyo de su artista, especialmente aquellos que toman su fandom muy en serio y en situaciones de irregularidades.
“Esto podría ser un gran problema si realmente lo lleva ante los tribunales”, dijo.
Spanos dice que el problema de la pornografía profundamente falsa se alinea con otros que Swift ha tenido en el pasado, señalando su demanda de 2017 contra un DJ de una estación de radio que supuestamente la manoseó; Los jurados concedieron a Swift 1 dólar por daños y perjuicios, una suma que su abogado, Douglas Baldridge, llamó “un único dólar simbólico, cuyo valor es inconmensurable para todas las mujeres en esta situación” en medio del movimiento MeToo. (La demanda de 1 dólar se convirtió en una tendencia a partir de entonces, como en la contrademanda de Gwyneth Paltrow en 2023 contra un esquiador).
Cuando se le contactó para comentar sobre las imágenes falsas de Swift, X dirigió a The Associated Press a una publicación de su cuenta de seguridad que decía que la compañía prohíbe estrictamente compartir imágenes de desnudos no consentidos en su plataforma. La compañía también ha reducido drásticamente sus equipos de moderación de contenido desde que Elon Musk se hizo cargo de la plataforma en 2022.
“Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas”, escribió la compañía en la publicación X el viernes por la mañana. “Estamos monitoreando de cerca la situación para asegurarnos de que cualquier violación adicional se aborde de inmediato y se elimine el contenido”.
Mientras tanto, Meta dijo en un comunicado que condena enérgicamente “el contenido que ha aparecido en diferentes servicios de Internet” y ha trabajado para eliminarlo.
“Continuamos monitoreando nuestras plataformas para detectar este contenido infractor y tomaremos las medidas apropiadas según sea necesario”, dijo la compañía.
Un representante de Swift no respondió de inmediato a una solicitud de comentarios el viernes.
Allen dijo que los investigadores tienen un 90 por ciento de confianza en que las imágenes fueron creadas mediante modelos de difusión, que son un tipo de modelo de inteligencia artificial generativa que puede producir imágenes nuevas y fotorrealistas a partir de indicaciones escritas. Los más conocidos son Stable Diffusion, Midjourney y DALL-E de OpenAI. El grupo de Allen no intentó determinar la procedencia.
OpenAI dijo que cuenta con salvaguardas para limitar la generación de contenido dañino y “rechazar solicitudes que soliciten el nombre de una figura pública, incluida Taylor Swift”.
Microsoft, que ofrece un generador de imágenes basado parcialmente en DALL-E, dijo el viernes que estaba en el proceso de investigar si su herramienta fue mal utilizada. Al igual que otros servicios comerciales de inteligencia artificial, dijo que no permite “contenido íntimo para adultos o no consensuado, y cualquier intento repetido de producir contenido que vaya en contra de nuestras políticas puede resultar en la pérdida de acceso al servicio”.
Cuando se le preguntó sobre los deepfakes de Swift en “NBC Nightly News”, el CEO de Microsoft, Satya Nadella, le dijo al presentador Lester Holt en una entrevista transmitida el martes que aún queda mucho por hacer para establecer salvaguardas de IA y “nos corresponde avanzar rápido en esto”.
“Esto es absolutamente alarmante y terrible, por lo que sí, tenemos que actuar”, dijo Nadella.
Midjourney, OpenAI y Stability AI, fabricante de Stable Diffusion, no respondieron de inmediato a las solicitudes de comentarios.
Los legisladores federales que han presentado proyectos de ley para imponer más restricciones o criminalizar la pornografía deepfake indicaron que el incidente muestra por qué Estados Unidos necesita implementar mejores protecciones.
“Durante años, las mujeres han sido víctimas de deepfakes no consensuales, por lo que lo que le pasó a Taylor Swift es más común de lo que la mayoría de la gente cree”, dijo la representante estadounidense Yvette D. Clarke, una demócrata de Nueva York que presentó una legislación que requeriría que los creadores contenido deepfake con marca de agua digital.
“La IA generativa está ayudando a crear mejores deepfakes a una fracción del costo”, dijo Clarke.
El representante estadounidense Joe Morelle, otro demócrata de Nueva York que impulsa un proyecto de ley que penalizaría el intercambio de pornografía deepfake en línea, dijo que lo que le sucedió a Swift fue inquietante y se ha vuelto cada vez más omnipresente en Internet.
“Las imágenes pueden ser falsas, pero sus impactos son muy reales”, dijo Morelle en un comunicado. “Los deepfakes les ocurren todos los días a mujeres de todo el mundo en nuestro mundo cada vez más digital, y es hora de ponerles fin”.