Desde la PDI se refirieron a esta nueva estafa telefónica donde utilizan la Inteligencia Artificial para suplantar la voz de algún familiar o conocido. Si bien en Chile aún no se han reportado casos de este tipo, la policía civil entregó recomendaciones para evitar caer en este tipo de engaño.

Cada día la Inteligencia Artificial (IA) es noticia por los avances que permite en la tecnología y en nuestro diario vivir. Sin embargo, hay quienes la utilizan para estafar a las personas y pedirles grandes sumas de dinero.

En el último tiempo se han conocido casos en otros países, donde los estafadores han empleado la IA para imitar o suplantar la identidad de un amigo o un familiar y llevar a cabo su engaño.

Según el portal Factchequendo, esta tecnología permite entrenar a una máquina para que reproduzca la voz de una persona y diga cosas que en realidad no ha pronunciado.

Incluso, expertos aseguran que, aunque estas herramientas están al alcance de unos pocos, hay que desconfiar de supuestas llamadas de conocidos a través de números desconocidos.

Por ejemplo, una mujer en Arizona, en Estados Unidos, reportó que sufrió un intento de estafa en el que los delincuentes habrían utilizado una Inteligencia Artificial (IA) para imitar la voz de su hija y fingir un secuestro, por el que exigían una suma de dinero.

Se trata de Jennifer DeStefano, que contó la insólita situación al medio local Arizona’s Family. Allí aseguró que los estafadores lograron simular a la perfección la voz de su hija y que incluso estaba supuestamente llorando en la llamada.

Desde la Policía de Investigaciones dijeron que -hasta el momento- no han recibido denuncias por el mal uso de la Inteligencia Artificial.

“No obstante, estamos monitoreando y deseamos que las personas, en caso de ser víctimas de este delito, se acerquen a la unidad policial más cercana, para que nosotros podamos iniciar el proceso investigativo”, comentó el subcomisario Julio Vargas del Cibercrimen Metropolitano.

En cuanto al caso ocurrido en EEUU, el funcionario de la PDI manifestó que “si bien ese delito se cometió en el extranjero, en algún momento es factible que llegue a territorio nacional”.

Inteligencia Artificial

En conversación con BioBioChile, el director de incidencia y comunicaciones de la organización Derechos Digitales, Vladimir Garay, señaló que “todos los sistemas de IA requieren datos para ser entrenados. Esa es una cuestión importante: los niños y las niñas ven un gato o una foto de un caballo y aprenden lo que es un gato y un caballo. Pueden ver cualquier gato o cualquier caballo y van a saber qué son. La IA necesita millones de fotos de gatos para aprender lo que es un gato”.

“Y en el caso de estos softwares que asimilan voces, lo mismo. Necesitan grabaciones de voz de una persona para “aprender” a copiar la voz”, añadió el experto.

En esta línea, Garay indicó que “es relativamente sencillo copiar voces de figuras públicas, porque hay muchas grabaciones”.

Suplantadores de voz

Garay planteó además que “puede ser que la tecnología cambie, pero la lógica de la estafa parece ser la misma que antes se valía de llamados telefónicos y mensajes de texto. Y parece ser que la mejor respuesta es mantenerse alerta y desconfiar cuando alguien te contacta para pedirte dinero, especialmente si es que además a la petición tiene un sentido de urgencia”.

“La manera más sencilla de despejar dudas es intentar contactar uno a la persona que supuestamente se ha comunicado contigo, para comprobar la veracidad de la situación”, precisó el experto.

En concreto, Garay dijo que “la respuesta no es técnica, sino más bien concientizar a la población de que esta es la manera en que proceden los estafadores, de modo que las personas puedan estar preparadas”.

“También es cierto que antes de que ese tipo de tecnología estuviera a disposición de cualquier persona, igual los estafadores llamaban por teléfono y se intentaban hacer pasar por otra gente. Así que puede ser que no se requiera una simulación tan exacta, porque el sentido de peligro y urgencia nubla el juicio. Por eso la importancia de saber de este tipo de estafas y mantenerse alerta”, sentenció el profesional.

“No debe ser criminalizada”

El subcomisario Vargas detalló que “la Inteligencia Artificial no debe ser criminalizada, por cuanto fue creada para mejorar ciertos procesos tecnológicos”.

Sin embargo, señaló que “la Inteligencia Artificial viene a potenciar ciertos delitos informáticos, por ejemplo, mejora campañas de spamware o de phishing, de los cuales pueden ser víctimas las personas a través de un correo electrónico”.

A esto añadió que “también existe el potenciamiento de los delitos, a través de las mejoras o modificaciones, a través de las imágenes o voz de las personas, producto de los cuales se engaña a las personas, por ejemplo, pidiendo algún tipo de rescate extorsivo o solicitándole que hagan alguna transferencia maliciosa”.

“Emular la voz humana”

Vargas indicó que “hoy en día existen herramientas de Inteligencia Artificial que permiten emular cada vez mejor la voz humana”.

“Los delincuentes utilizan cualquier herramienta de forma maliciosa, para poder engañar a las personas y generar réditos económicos que finalmente es lo que ellos buscan a través del mal uso y la explotación de estas herramientas, como es el caso de la Inteligencia Artificial”, explicó el subcomisario.

Cómo evitar la nueva estafa telefónica que utiliza Inteligencia Artificial

Respecto a las precauciones que se pueden tomar en estos casos, Vargas dijo que “en el caso específico de que una persona vea que está siendo afectada por la usurpación de la voz de una persona, lo primero es intentar, de forma sigilosa, tomar contacto con la persona a través de un medio tradicional, WhatsApp o al número directo”.

“Nosotros detectamos que, en el caso del extranjero, la persona fue contactada de un número que no correspondía a la víctima. Por lo tanto, el canal de comunicación estaba disponible. Luego, esta persona pudo ser contactada y se verificó que efectivamente no estaba siendo capturada”, destacó Vargas.

Otra recomendación es que “los grupos familiares deben interactuar y prever estas situaciones, realizando la creación de alguna palabra clave, en caso de verse obligada a solicitar alguna transferencia o ser víctima de algún delito”.

Resguardo de información

“Siempre es importante resguardar nuestra información y verificar que la estamos entregando en los sitios que corresponde”, recalcó el subcomisario.

En esta línea, Vargas dijo que “cualquier información que quede esparcida en internet, en las redes sociales, en foros de internet, puede ser fácilmente recopilada a través de Inteligencia Artificial y mal utilizado, explotando cualquier sistema de engaño a las personas, como es la ingeniería social”.

“En caso de ser víctima, tener algún protocolo que permita verificar que yo estoy interactuando efectivamente con la persona; específicamente también en los casos que me solicitan dinero y saber que, si me solicita alguna transferencia, va efectivamente a la cuenta de la persona. Eso también es un indicio”, recalcó Vargas.

Finalmente, desde el área de Cibercrimen dijeron que se debe tener “precaución a los mensajes de urgencia, que imponen una emergencia, una situación de riesgo a la persona. También es un indicio de que yo estoy pudiendo ser víctima de algún delito”.