Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.
La guerra informativa evoluciona hacia el terreno de videos virales, montajes absurdos y piezas generadas con inteligencia artificial que se comparten en redes sociales para mover emociones y sembrar confusión. En el conflicto entre Estados Unidos, Israel e Irán, se han usado imágenes reales de ataques mezcladas con fragmentos de películas y contenido creado con IA. Esta "slopaganda" busca manipular con material extravagante y absurdo, generando desconfianza en la verdad compartida. En un contexto de guerra y polarización, la propagación de falsedades puede influir en creencias colectivas y desgastar la confianza en información fiable.
La guerra informativa ya no se pelea solo con discursos oficiales, vocerías de Estado o cadenas televisadas; hoy también se libra con videos virales, imágenes absurdas y montajes o piezas creadas con inteligencia artificial (IA) que circulan con facilidad en redes sociales, propaganda que se comparte casi como un meme y, aun así, logra algo mucho más profundo: mover emociones, sembrar confusión y desgastar la idea misma de verdad compartida.
Ese escenario quedó en evidencia tras los intercambios propagandísticos en medio de la escalada entre Estados Unidos, Israel e Irán. A principios de marzo, una semana después de los primeros ataques estadounidenses-israelíes contra Irán, la Casa Blanca publicó un video que mezclaba imágenes reales de ataques con fragmentos de películas populares, series, videojuegos y anime.
Según explica The Conversation, la respuesta no tardó: Irán y sus simpatizantes llenaron las redes con imágenes antiguas de guerra presentadas como si fueran actuales, además de contenido generado con IA que mostraba ataques contra Tel Aviv y bases estadounidenses en el Golfo Pérsico.
Más tarde, aparecieron videos virales, supuestamente elaborados por un equipo iraní, donde Donald Trump, Jeffrey Epstein, Satanás, Benjamin Netanyahu, Pete Hegseth, el ayatolá Khamenei y otros personajes figuraban convertidos en piezas de Lego. La escena puede parecer ridícula, pero detrás de esa estética hay una lógica clara: usar lo extravagante, lo impactante y lo fácil de compartir como arma política para manipular.
¿Qué es la “slopaganda” y por qué no se parece a la propaganda tradicional?
A este fenómeno de manipulación, sus autores lo llamaron “slopaganda”, un término acuñado a fines del año pasado en un artículo publicado en Filosofiska Notiser para describir “la basura generada por IA que sirve a fines propagandísticos”.
Bajo esa definición, la propaganda apunta a manipular creencias, emociones, atención, memoria y otros procesos cognitivos y afectivos con fines políticos. Cuando a esa lógica se le suma inteligencia artificial generativa, el resultado, explican, es propaganda barata, abundante y veloz de producir.
La diferencia con la propaganda tradicional está en su forma y en su lógica de circulación. No siempre intenta parecer seria ni convencer mediante un relato ordenado. Muchas veces apuesta por lo burdo, lo desinhibido o incluso lo derechamente absurdo. En octubre de 2025, por ejemplo, Donald Trump publicó un video generado por IA en que aparecía piloteando un avión de combate con una corona y lanzando excremento sobre manifestantes estadounidenses. Luego difundió otro en el que imaginaba su biblioteca presidencial como un gigantesco rascacielos ostentoso, con ascensor dorado incluido.
El objetivo real de este material no siempre es engañar de forma literal, sino que más bien busca instalar vínculos simbólicos que asocien personas, países o acciones con el mal o una figura siniestra, despertando luego el rechazo automático.
El riesgo de la propaganda con IA en un contexto de guerra y polarización
El problema se agrava cuando ese contenido aparece en medio de guerras, crisis y emergencias, momentos en que las personas buscan información rápida, pero las fuentes confiables suelen ser escasas de cara a los usuarios o tardan en consolidarse. Allí, la propaganda creada con IA encuentra terreno fértil.
Según explica el medio, la exposición repetida en lugares como las redes sociales permite que este tipo de material “penetre nuestras defensas mentales habituales”. Funciona cuando capta atención, golpea emocionalmente —casi siempre de forma negativa— y encuentra a un público distraído, como alguien que navega por redes o salta entre pestañas del navegador.
El riesgo no es solo que una persona cree un contenido falso puntual, sino que también está en la capacidad de inundar el entorno informativo con falsedades, medias verdades y asociaciones tóxicas. Una vez que una idea engañosa se instala en la mente, advierten, puede ser muy difícil erradicarla. Y aunque el efecto sobre cada individuo sea pequeño, a gran escala puede influir en creencias colectivas, protestas, elecciones o en la opinión pública frente a una guerra impopular.
La confusión también es una estrategia
Otra clave del fenómeno está en que no toda propaganda engañosa opera del mismo modo. A veces el contenido es deliberadamente confuso; otras, una broma o provocación se sale de su contexto y termina interpretándose como algo serio. Ese fenómeno, indican los expertos, se conoce como “colapso del contexto”.
El resultado puede ser todavía más dañino: no solo se debilita la confianza en lo falso, sino también en lo verdadero. A medida que proliferan estas piezas, las personas pueden volverse más hábiles para detectar algunas falsedades, pero también más propensas a sospechar de material auténtico.
Así, la consecuencia final puede ser una caída general de la confianza en personas e instituciones realmente fiables, empujando a una especie de duda sobre la posibilidad de saber algo con certeza.
En sociedades polarizadas y cruzadas por crisis económicas, políticas, militares y ambientales, ese desgaste de la verdad compartida solo empeora el escenario.
¿Qué se puede hacer para frenar este fenómeno de la propaganda con IA?
Frente a esta tormenta de propaganda, se proponen salidas en tres niveles. La primera apunta a las personas: mejorar la alfabetización digital, aprender a detectar señales de IA en textos, imágenes y videos, verificar fuentes y dejar de evaluar cada pieza por separado para,en cambio, identificar y bloquear fuentes que difunden propaganda engañosa de manera habitual.
La segunda recae en la industria y los reguladores. Allí se plantea implementar soluciones tecnológicas, como marcas de agua para contenidos generados con IA, e incluso retirar cierto material de plataformas donde circula información sensible o noticiosa.
La tercera apunta a exigir responsabilidad a grandes tecnológicas como OpenAI, Google y X, mediante impuestos u otras medidas que permitan financiar regulación y educación en alfabetización digital.
Nuestra sección de OPINIÓN es un espacio abierto, por lo que el contenido vertido en esta columna es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial de BioBioChile
Estamos recopilando más antecedentes sobre esta noticia, quédate atento a las
actualizaciones.
Alerta de Spoiler
Este artículo podría contener información clave sobre la trama de un libro, serie o
película.
Advertencia de imágenes explícitas
¡Cuidado! Las imágenes de este artículo pueden herir la sensibilidad de algunas personas.
VER RESUMEN
Resumen generado con una herramienta de Inteligencia Artificial desarrollada por BioBioChile y revisado por el autor de este artículo.
{{ post.resumen_de_ia }}
Este artículo describe un proceso judicial en curso
Existe la posibilidad de que los cargos sean desestimados al finalizar la investigación, por
lo cual NO se debe considerar al o los imputados como culpables hasta que la Justicia
dicte sentencia en su contra. (Artículo 04 del Código Procesal Penal)
Violencia contra la mujer
Si eres víctima o testigo de violencia contra la mujer, denuncia al
149 de Carabineros, recibe orientación llamando al
número corto 1455 del Sernameg o pulsa para
usar el chat de orientación Sernameg
Suicidio
Si necesitas ayuda psicológica especializada o conoces a alguien que la requiera, el Ministerio
de Salud tiene un teléfono de ayuda atendida por profesionales todos los días del año y las 24 horas,
marcando desde celulares el *4141. Además, puedes recurrir a Salud Responde en el 600 360 7777.
Las personas sordas pueden recibir asistencia ingresando a
este enlace.
Transporte privado
Las aplicaciones de transporte privado pagado aún no se encuentran normadas por la legislación chilena.
Estudio científico
Este artículo se basa en un estudio científico que puede ser sometido a nuevas pruebas para ser validado o descartado. Sus resultados NO deben considerarse concluyentes.