VER RESUMEN

Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.

La guerra informativa evoluciona hacia el terreno de videos virales, montajes absurdos y piezas generadas con inteligencia artificial que se comparten en redes sociales para mover emociones y sembrar confusión. En el conflicto entre Estados Unidos, Israel e Irán, se han usado imágenes reales de ataques mezcladas con fragmentos de películas y contenido creado con IA. Esta "slopaganda" busca manipular con material extravagante y absurdo, generando desconfianza en la verdad compartida. En un contexto de guerra y polarización, la propagación de falsedades puede influir en creencias colectivas y desgastar la confianza en información fiable.

La guerra informativa ya no se pelea solo con discursos oficiales, vocerías de Estado o cadenas televisadas; hoy también se libra con videos virales, imágenes absurdas y montajes o piezas creadas con inteligencia artificial (IA) que circulan con facilidad en redes sociales, propaganda que se comparte casi como un meme y, aun así, logra algo mucho más profundo: mover emociones, sembrar confusión y desgastar la idea misma de verdad compartida.

Ese escenario quedó en evidencia tras los intercambios propagandísticos en medio de la escalada entre Estados Unidos, Israel e Irán. A principios de marzo, una semana después de los primeros ataques estadounidenses-israelíes contra Irán, la Casa Blanca publicó un video que mezclaba imágenes reales de ataques con fragmentos de películas populares, series, videojuegos y anime.

Según explica The Conversation, la respuesta no tardó: Irán y sus simpatizantes llenaron las redes con imágenes antiguas de guerra presentadas como si fueran actuales, además de contenido generado con IA que mostraba ataques contra Tel Aviv y bases estadounidenses en el Golfo Pérsico.

Más tarde, aparecieron videos virales, supuestamente elaborados por un equipo iraní, donde Donald Trump, Jeffrey Epstein, Satanás, Benjamin Netanyahu, Pete Hegseth, el ayatolá Khamenei y otros personajes figuraban convertidos en piezas de Lego. La escena puede parecer ridícula, pero detrás de esa estética hay una lógica clara: usar lo extravagante, lo impactante y lo fácil de compartir como arma política para manipular.

¿Qué es la “slopaganda” y por qué no se parece a la propaganda tradicional?

A este fenómeno de manipulación, sus autores lo llamaron “slopaganda”, un término acuñado a fines del año pasado en un artículo publicado en Filosofiska Notiser para describir “la basura generada por IA que sirve a fines propagandísticos”.

Bajo esa definición, la propaganda apunta a manipular creencias, emociones, atención, memoria y otros procesos cognitivos y afectivos con fines políticos. Cuando a esa lógica se le suma inteligencia artificial generativa, el resultado, explican, es propaganda barata, abundante y veloz de producir.

La diferencia con la propaganda tradicional está en su forma y en su lógica de circulación. No siempre intenta parecer seria ni convencer mediante un relato ordenado. Muchas veces apuesta por lo burdo, lo desinhibido o incluso lo derechamente absurdo. En octubre de 2025, por ejemplo, Donald Trump publicó un video generado por IA en que aparecía piloteando un avión de combate con una corona y lanzando excremento sobre manifestantes estadounidenses. Luego difundió otro en el que imaginaba su biblioteca presidencial como un gigantesco rascacielos ostentoso, con ascensor dorado incluido.

El objetivo real de este material no siempre es engañar de forma literal, sino que más bien busca instalar vínculos simbólicos que asocien personas, países o acciones con el mal o una figura siniestra, despertando luego el rechazo automático.

El riesgo de la propaganda con IA en un contexto de guerra y polarización

El problema se agrava cuando ese contenido aparece en medio de guerras, crisis y emergencias, momentos en que las personas buscan información rápida, pero las fuentes confiables suelen ser escasas de cara a los usuarios o tardan en consolidarse. Allí, la propaganda creada con IA encuentra terreno fértil.

Según explica el medio, la exposición repetida en lugares como las redes sociales permite que este tipo de material “penetre nuestras defensas mentales habituales”. Funciona cuando capta atención, golpea emocionalmente —casi siempre de forma negativa— y encuentra a un público distraído, como alguien que navega por redes o salta entre pestañas del navegador.

El riesgo no es solo que una persona cree un contenido falso puntual, sino que también está en la capacidad de inundar el entorno informativo con falsedades, medias verdades y asociaciones tóxicas. Una vez que una idea engañosa se instala en la mente, advierten, puede ser muy difícil erradicarla. Y aunque el efecto sobre cada individuo sea pequeño, a gran escala puede influir en creencias colectivas, protestas, elecciones o en la opinión pública frente a una guerra impopular.

La confusión también es una estrategia

Otra clave del fenómeno está en que no toda propaganda engañosa opera del mismo modo. A veces el contenido es deliberadamente confuso; otras, una broma o provocación se sale de su contexto y termina interpretándose como algo serio. Ese fenómeno, indican los expertos, se conoce como “colapso del contexto”.

El resultado puede ser todavía más dañino: no solo se debilita la confianza en lo falso, sino también en lo verdadero. A medida que proliferan estas piezas, las personas pueden volverse más hábiles para detectar algunas falsedades, pero también más propensas a sospechar de material auténtico.

Así, la consecuencia final puede ser una caída general de la confianza en personas e instituciones realmente fiables, empujando a una especie de duda sobre la posibilidad de saber algo con certeza.

En sociedades polarizadas y cruzadas por crisis económicas, políticas, militares y ambientales, ese desgaste de la verdad compartida solo empeora el escenario.

¿Qué se puede hacer para frenar este fenómeno de la propaganda con IA?

Frente a esta tormenta de propaganda, se proponen salidas en tres niveles. La primera apunta a las personas: mejorar la alfabetización digital, aprender a detectar señales de IA en textos, imágenes y videos, verificar fuentes y dejar de evaluar cada pieza por separado para, en cambio, identificar y bloquear fuentes que difunden propaganda engañosa de manera habitual.

La segunda recae en la industria y los reguladores. Allí se plantea implementar soluciones tecnológicas, como marcas de agua para contenidos generados con IA, e incluso retirar cierto material de plataformas donde circula información sensible o noticiosa.

La tercera apunta a exigir responsabilidad a grandes tecnológicas como OpenAI, Google y X, mediante impuestos u otras medidas que permitan financiar regulación y educación en alfabetización digital.