En Resumen
- Videos falsos generados por IA se propagaron tras los bombardeos de Irán contra Israel, mostrando Tel Aviv y el Aeropuerto Ben Gurion siendo supuestamente atacados.
- La red "Pravda" de Rusia infiltró datos de entrenamiento de chatbots de IA, produciendo 3.600.000 piezas de propaganda pro-Rusia en 49 países durante el año pasado.
- El mercado de influencers virtuales alcanzará $37.800 millones para 2030, expandiendo el campo de batalla hacia cada smartphone y feed social con personas sintéticas.
Las imágenes más impactantes de los ataques con bombas de Irán no fueron capturadas por las cámaras del Pentágono o los equipos de CNN. Fueron creadas por el generador de videos de inteligencia artificial de Google.
Después del bombardeo de misiles de Irán contra Israel a principios de semana, videos falsos generados por inteligencia artificial comenzaron a propagarse como un rumor malintencionado, mostrando a Tel Aviv y al Aeropuerto Ben Gurion siendo supuestamente atacados.
Las escenas eran altamente realistas y, aunque los ataques eran reales, los videos que se volvieron virales en todo internet no lo eran, según las empresas forenses.
Este es el estado de la guerra en 2025, donde deepfakes generados por IA, mentiras generadas por chatbots y imágenes de videojuegos se utilizan para manipular la percepción pública con una frecuencia y penetración sin precedentes en las redes sociales.
Mientras el mundo se preparaba el domingo para la respuesta de Irán después de que EE. UU. atacara sitios nucleares clave de Irán, uniéndose a Israel en la acción militar occidental más significativa contra la República Islámica desde su revolución de 1979, millones de personas recurrieron a las redes sociales en busca de actualizaciones.
En lugar de obtener la verdad, muchos fueron atrapados en un nuevo tipo de campaña de desinformación.
Las campañas de TikTok iraníes observadas en los días inmediatamente posteriores a los ataques israelíes a Irán en 2025 han desplegado cinco categorías principales de contenido generado por IA.
Un video que circula muestra un vecindario israelí común repentinamente transformado en una zona de guerra, en formato antes y después.
Otro lote de falsificaciones muestra el principal aeropuerto de Tel Aviv siendo bombardeado por misiles.
Un clip presenta un avión de El Al Israel Airlines envuelto en llamas. Aunque es completamente generado por computadora, sigue siendo lo suficientemente realista como para engañar a personas que no son expertas en tecnología.
La sofisticación es asombrosa, reflejando el enorme salto en calidad que han mostrado los generadores de video en los últimos meses, con Kling 2.1 Master, Seedream y Google Veo3 generando escenas realistas con capacidades de Imagen a Video, lo que hace que el modelo cree un video basado en una imagen real en lugar de crear escenas desde cero.
Incluso software de código abierto como Wan 2.1, popular entre los aficionados, utiliza complementos que crean videos súper realistas y mejoran la calidad mientras evitan las restricciones de contenido impuestas por las grandes empresas tecnológicas.
Estos clips políticos están acumulando millones de visitas en TikTok, mientras que Instagram, Facebook y X continúan promoviéndolos sin parar.
Por ejemplo, un video publicado hoy que muestra una exageración de los ataques de Irán a las bases estadounidenses ha sido visto más de 3.000.000 de veces en X, mientras que una foto que retrata a Candace Owens y Tucker Carlson—periodistas que están en contra de la participación de Trump en la guerra—como musulmanes ha acumulado más de 371.000 vistas en tres días. Los canales de Telegram difunden estas falsificaciones y aparecen más rápido de lo que las plataformas pueden cerrarlos.
Origen del engaño
Pero, ¿quién está creando todo esto? Por supuesto que partidarios de ambos lados y probablemente agentes de cada país. La guerra de propaganda se extiende mucho más allá del Medio Oriente.
La red "Pravda" de Rusia está contaminando a los asistentes de inteligencia artificial, incluidos ChatGPT-4 y el chatbot de Meta, convirtiéndolos en portavoces del Kremlin.
NewsGuard, un proyecto dedicado a exponer la desinformación en el discurso estadounidense, estima que la tasa anual de publicación de la red Pravda es de al menos 3.600.000 artículos pro-Rusia.
El año pasado, la red produjo 3.600.000 piezas en 49 países, utilizando 150 direcciones web en varios idiomas.
Según la investigación, la red rusa emplea una estrategia integral para infiltrar datos de entrenamiento de chatbots de IA y publicar deliberadamente afirmaciones falsas.
¿El resultado? Cada chatbot importante, aunque el estudio no menciona nombres, repitió la propaganda de Pravda.
Las campañas en Medio Oriente demuestran que han perfeccionado esto hasta la ciencia, personalizando el contenido por idioma.
"El contenido en árabe y farsi a menudo promueve la solidaridad regional y el sentimiento anti-Israel; los videos en hebreo se centran en la presión psicológica dentro de Israel", dijo el Instituto Internacional de Contraterrorismo (ICT) de Israel en un informe.
Una táctica de propaganda diferente aprovecha el contenido de IA para burlarse de los funcionarios israelíes mientras hace que el principal clérigo de Irán parezca un héroe.
Estos videos, que claramente son generados por IA y no pretenden parecer realistas, frecuentemente representan escenas del Ayatolá Ali Khamenei junto al Primer Ministro israelí Benjamin Netanyahu y el Presidente de los EE. UU. Donald Trump, retratando escenarios en los que Khamenei humilla o domina simbólicamente a uno o ambos personajes.
Otros deepfakes combinan videos falsos con voces falsas para potenciar diferentes agendas políticas.
Un video, que ha acumulado más de 18.000.000 de visitas en una semana, muestra imágenes realistas de un desfile militar iraní con cientos de misiles y la voz de Khamenei amenazando a América con represalias.
Los medios estatales de Irán también intervinieron. La televisión iraní emitió imágenes antiguas de incendios forestales en Chile haciéndolas pasar por ciudades israelíes ardiendo.
Otras cuentas que se presentan como canales de noticias utilizaron videos falsos generados por inteligencia artificial de Irán movilizando sus misiles.
Por otro lado, Israel ha optado por prohibir a los medios para controlar la narrativa geopolítica, lo que ha provocado aún más desinformación y "deshumanización" según los expertos.
Aunque Israel se enfoca en utilizar la IA para varios propósitos, principalmente para estrategias militares en lugar de propaganda política, también ha habido casos de actores que utilizan la IA generativa con estos fines, burlándose de los Ayatolás actuales y pasados y difundiendo sus mensajes políticos a través de videos generados por IA, así como creando redes de bots de IA para difundir contenido en redes sociales.
El juego de las personas sintéticas está en otro nivel. Estas no son solo imágenes de perfil falsas, estamos hablando de identidades artificiales completas con un discurso, movimiento y expresiones realistas.
Ya existen herramientas que utilizan tecnología avanzada para transformar una sola foto y un clip de audio en videos hiperrealistas con personas sintéticas.
El mercado de los influencers virtuales, según datos de KBV Research, podría alcanzar los $37.800 millones para 2030, lo que significa que tu personalidad favorita de las redes sociales, ese video de tu líder político diciendo algo comprometedor, o ese programa de noticias altamente realista que muestra escenas de un ataque devastador podrían ni siquiera existir.
Con la inteligencia artificial generativa, el campo de batalla se ha expandido más allá de las fronteras y los búnkeres hacia cada teléfono inteligente, cada feed social y cada conversación.
Si hasta el presidente de la nación más poderosa puede emplear esta tecnología sin consecuencias, queda claro que en esta nueva guerra todos somos combatientes y víctimas a la vez.
Editado por Sebastian Sinclair y Josh Quittner