La artista fue víctima del 'deepfake' luego de que se viralizaran imágenes con su rostro sexualmente explícitas hechas con IA.

El hashtag “PROTECT TAYLOR SWIFT” ya acumula decenas de miles de tuits luego de que la artista fuera víctima del ‘deepfake’, una técnica para editar fotos con Inteligencia Artificial (IA) que se está utilizando para crear imágenes sexualmente explícitas de mujeres.

Pero no sólo ocurre con celebridades, de hecho se han conocido casos de establecimientos educacionales donde alumnos utilizaron esta tecnología para crear imágenes de desnudos de sus compañeras, práctica que ha sido denunciada y condenada por diversas instituciones.

Según informa The Verge, las imágenes de Swift comenzaron a circular en X (Twitter) durante los últimos días, donde algunas incluso alcanzaron 45 millones de visualizaciones antes de ser denunciadas por el fandom de la cantante y finalmente retiradas de la plataforma.

El medio recoge que la publicación original estuvo unas 17 horas en línea, donde más de 24.000 usuarios la repostearon y otros miles interactuaron. Si bien fue retirada de X, ya se había expandido por todo internet y distintos usuarios volvieron a postear imágenes.

Además, un reporte del portal 404 Media, recoge que las fotos con deepfake habrían salido de un grupo de Telegram, donde usuarios comparten imágenes explícitas de mujeres, manipuladas con IA.

The Verge intentó comunicarse con Taylor Swift para recoger declaraciones y no obtuvieron respuestas. Pero quienes no se restaron del problema fueron los fans de la artista, quienes se movilizaron en redes para que las imágenes fueran bajadas de internet e hicieron el tema tendencia.

Las y los swifties aseguran que estas prácticas son derechamente acoso sexual y apelan a la falta de regulaciones en torno a la IA, pese a que X en sus políticas no aprueba este tipo de contenido.