Tecnología
Miércoles 30 enero de 2019 | Publicado a las 08:38
Videos "deepfake", la nueva amenaza para la desinformación que podría ser peor que las "fake news"
Por Bernardita Villa
La información es de Agence France-Presse
¬ŅEncontraste alg√ļn error? Av√≠sanos visitas

Im√°genes de un pol√≠tico diciendo lo que nunca dir√≠a o un video porno de una estrella de Hollywood. Lo que podr√≠a parecer una falla en el televisor no es otra cosa que el futuro de las “fake news”.

Los videos “deepfake”, que manipulan la realidad, se est√°n volviendo cada vez m√°s sofisticados gracias a los avances de la inteligencia artificial, incrementando as√≠ su potencial para generar un nuevo tipo de desinformaci√≥n, con consecuencias devastadoras.

“A√ļn no llegamos a la etapa en la que vemos c√≥mo se usan los ‘deepfakes’ como armas, pero ese momento est√° cerca”,
dice a AFP Robert Chesney, un profesor de derecho en la Universidad de Texas que investigó el tema.

Chesney considera que los “deepfakes” podr√≠an sumar confusi√≥n a la ola actual de desinformaci√≥n y operaciones dirigidas.

“Un ‘deepfake’ oportuno con un gui√≥n intencionado o una serie de estos videos podr√≠an dar vuelta una elecci√≥n, encender la violencia en una ciudad preparada para la agitaci√≥n social, impulsar discursos sobre supuestas atrocidades de un enemigo o exacerbar las divisiones pol√≠ticas en una sociedad”, se√Īalaron Chesney y Danielle Citron, profesora de la Universidad de Maryland, en una publicaci√≥n de blog para el Consejo de Relaciones Exteriores.

Paul Scharre, miembro del Center for a New American Security, un think tank especializado en inteligencia artificial y temas de seguridad, dice que es casi inevitable que los “deepfakes” puedan ser utilizados en pr√≥ximas elecciones.

Un video falso podría ser usado para desprestigiar a un candidato, advierte Scharre, o para que la gente pueda negar hechos expuestos en videos auténticos.

Si circulan videos falsos cre√≠bles, la “gente puede elegir creer la versi√≥n o discurso que quieran, y esa es la verdadera preocupaci√≥n”, a√Īade.

¬ŅEl regreso de Chaplin?

La manipulaci√≥n de videos existe desde hace d√©cadas y puede ser inocua o incluso entretenida, como la aparici√≥n de Peter Cushing en Rogue One: A Star Wars Story gracias a la tecnolog√≠a, 22 a√Īos despu√©s de su muerte.

Investigadores de la Universidad Carenegie Mellon revelaron el a√Īo pasado t√©cnicas que simplifican la producci√≥n de “deepfakes” a trav√©s del aprendizaje autom√°tico para deducir la informaci√≥n faltante.

En la industria del cine “la esperanza es que podamos hacer regresar a antiguas estrellas como Charlie Chaplin”, dice Aayush Bansal.

La difusión de aplicaciones que hacen videos falsos de manera realista amenaza con socavar la noción de verdad en los medios, los juicios y otras áreas, apuntan los investigadores.

“Si podemos poner cualquier palabra en la boca de cualquiera, da bastante miedo”, apunta Siwei Lyu, profesor de computaci√≥n en la Universidad Estatal de Nueva York en Albany, que est√° investigando la detecci√≥n de “deepfakes”.

“Se desdibuja la l√≠nea entre lo que es verdad y lo que es falso. Si no podemos confiar realmente en que la informaci√≥n sea aut√©ntica, es mejor no tener informaci√≥n”.

Separar lo falso de lo real

Los investigadores trabajan desde hace un tiempo en mejores m√©todos de detecci√≥n, con el apoyo de compa√Ī√≠as privadas como Google y de instituciones gubernamentales como la Agencia de Proyectos de Investigaci√≥n Avanzados de Defensa (DARPA) del Pent√°gono, que comenz√≥ una iniciativa de an√°lisis de los medios en 2015.

Aunque los “deepfakes” se han estado desarrollando durante varios a√Īos, el tema volvi√≥ a quedar en el centro de atenci√≥n en abril despu√©s de que apareciera un video en el que se mostraba al expresidente Barack Obama utilizando una mala palabra para describir a su sucesor Donald Trump, que finalmente fue un artificio del cineasta Jordan Peele coordinado con BuzzFeed.

En 2018, la proliferaci√≥n de videos porno en los que las caras de los protagonistas eran cambiadas por im√°genes de Emma Watson, Scarlett Johansson y otras celebridades llev√≥ a que los “deepfakes” fueran prohibidos por Reddit, Twitter y Pornhub. Sin embargo, no qued√≥ claro c√≥mo podr√≠an cumplir esa norma.

Scharre considera una forma importante de combatir a los “deepfakes” es aumentar la concientizaci√≥n p√ļblica, haciendo que la gente sea m√°s esc√©ptica ante lo que sol√≠a considerarse como prueba indiscutible.

“Una vez que un video se hace viral podr√≠a ser demasiado tarde para el da√Īo social que provoc√≥”, asegura.

Tendencias Ahora