El "deepfake", es una técnica con IA que permite crear imágenes o videos que imitan la apariencia de otra persona y que ha comenzado a utilizarse maliciosamente en Internet, las víctimas son principalmente mujeres, cuyos rostros se usan para crear contenido sexual y extorsionarlas. En Latinoamérica se conocen públicamente al menos 36 víctimas menores de edad en este tipo de casos. Sin embargo, a nivel mundial ya hay denuncias de ventas de imágenes sexuales creadas con IA a través de la Internet oscura.

El aporte de la Inteligencia Artificial (IA) ha sido, sin duda, positivo en la tecnología. Sin embargo, su uso indebido también ha marcado la pauta especialmente en los jóvenes con el “deepfake”. Este ya se utiliza en distintos países del mundo con el objetivo de extorsionar o violentar la integridad de otras personas.

Por ejemplo, estudiantes de liceos en Perú y Ecuador fueron noticia en los últimos meses por usar la IA para manipular las fotografías de sus compañeras y usarlas con fines sexuales. Entre ambos países se contabilizaron al menos 36 víctimas menores de edad.

En Perú los agresores usaban las imágenes de niñas de distintos niveles para crear vídeos y fotos de carácter sexual y venderlas en Internet. En el caso de Ecuador, las víctimas se enteraron de estos materiales, luego de que empezaran a circular en toda la institución educativa.

Pero esta no es una situación que se limita solo en países de Latinoamérica, en septiembre de 2023 varias madres en España denunciaron ante las autoridades el uso de fotografías de sus hijas para crear videos e imágenes con contenido sexual.

“Es importante aclarar que la tecnología no es el problema. La verdadera raíz está en la falta de educación digital que existe en los jóvenes. Si bien, los adolescentes hoy están creciendo a la par del mundo tecnológico, es prioritaria la implementación de charlas, cursos y demás herramientas en las zonas educativas para entregar a estos niños y adolescentes buenas prácticas para el uso correcto de la IA”, dice Mario Micucci, Investigador de Seguridad informática de ESET Latinoamérica.

La IA en alerta mundial

A fines de octubre el Internet Watch Foundation (IWF) publicó un informe en el que alertó cómo grupos de pedófilos utilizan esta herramienta para crear y compartir imágenes con contenido sexual de menores de edad.

En este estudio, la fundación halló imágenes de cientos de víctimas creadas a partir de IA. En otros foros de la web oscura había imágenes de niños famosos que habían sido retocadas para entregar a la fotografía una connotación sexual.

El deepfake es una tendencia que se está utilizando en la cotidianidad en la vida del ser humano, como en la creación de chatbots siendo un ejemplo de ello la imagen de la modelo Kendall Jenner para el asistente virtual de Meta, “Billie”.

“En algunas series y películas también dan luces de cómo funciona esta tecnología, siendo los dramas coreanos quienes han recreado con mayor realidad lo que experimentan las personas frente a una imagen manipulada por la IA, como es el caso de las series Celebridades y Bong-soon, una chica super fuerte”, menciona Micucci.

¿Cómo cuidarse del “deepfake”?

De acuerdo con un estudio de la empresa ESET, 66 % de las empresas del mundo sufrieron un ataque de suplantación de identidad en 2022. Es por ello que el llamado a la prevención es importante y esta surge de la educación que deben recibir los niños y adolescentes desde temprana edad, quienes son el eslabón más vulnerable en estas prácticas.

Dado al crecimiento de está técnica, ESET comparte algunas recomendaciones para evitar ser víctimas del deepfake:

1. Cuidar lo que publicas en las redes sociales: Es importante considerar que lo que existe en la web sin protección es de uso público.

2. Proteger tus cuentas: Hoy más que nunca la información está a un clic de distancia, por esto es esencial contar con perfiles privados en redes sociales para velar por la seguridad de tus datos y actividades cotidianas.

3. Educación digital continua: Sin importar la edad del usuario, es imperativo el buen uso de la tecnología, para evitar escenarios que puedan generar contenidos inapropiados que violenten la integridad de otra persona.

4. Prestar atención al detalle es fundamental: Las imágenes creadas por la IA suelen tener pistas que las dejan al descubierto. Muchas personas no se dan cuenta de que circulan las imágenes hasta que les dicen y, en algunos casos, son extorsionadas con la excusa de no difundirlas. Por esto es importante mirar la fotografía para determinar si es real. En caso de no serlo, se debe denunciar a los organismos competentes.

Dicho esto, también existen algunas herramientas como Google Reverse Image Search en línea que pueden ayudar a verificar la autenticidad de imágenes y videos.

5. El video no coincide con la voz: Para los creadores de deepfake es un reto que la grabación de audio coincida con los movimientos y gestos de las personas. Es importante mirar atentamente los movimientos de la boca y rostro de la supuesta persona con la que se está conversando y verificar que coincidan con lo que se está escuchando.

En esta era digital la mayoría de las personas podrían llegar a ser víctimas de deepfakes. Aunque en muchos casos esta herramienta se utilice con fines educativos o de entretenimiento, también abundan los sujetos que están acechando a las víctimas a través de sus redes sociales para atacarlos, suplantar su identidad y cometer entre fraudes, extorsión o crear contenidos con fines monetarios, como ocurre con el material sexual en el que las víctimas son principalmente mujeres.