En las horas posteriores al asesinato de Charlie Kirk en un evento en Utah el miércoles, las plataformas de redes sociales, especialmente X, estallaron con retórica hostil. Las publicaciones de tendencia de derecha rápidamente invocaron "guerra", "guerra civil" y demandas de venganza contra liberales, demócratas y "la izquierda".

Entre estas había agregaciones de cuentas con características sorprendentemente similares: biografías genéricas, identificadores estilo MAGA, descargos de responsabilidad de "NO DMs", imágenes patrióticas y fotografías de perfil comunes o poco descriptivas.

Estos patrones han generado una sospecha creciente: ¿Se están usando redes de bots para amplificar llamados de derecha a una guerra civil?

Hasta ahora, ningún reporte externo definitivo o agencia ha confirmado una campaña coordinada impulsada por bots vinculada específicamente al evento. Sin embargo, la evidencia circunstancial, el precedente histórico y los estudios sobre la naturaleza de las cuentas inauténticas en X sugieren que hay razón para la preocupación.

Lo que sugiere la evidencia

Los investigadores y usuarios señalan frases repetitivas (por ejemplo, advertencias de que "la izquierda" pagará, "esto es guerra", o "no tienes idea de lo que viene") apareciendo en muchas publicaciones dentro de un marco de tiempo estrecho. Muchas de estas publicaciones provienen de cuentas de bajo engagement con perfiles predeterminados o genéricos.

"Tras el asesinato de Charlie Kirk, vamos a ver muchas cuentas presionando, efectivamente, por una guerra civil en Estados Unidos. Esto incluye al provocador en jefe, Elon Musk, pero también un ejército de bots rusos y chinos y sus fieles seguidores en Occidente", escribió el profesor de ciencias políticas de la Universidad de San Diego, Branislav Slantchev, en X.

Citó un hilo viral de publicaciones de X de supuestos usuarios bot que abogaban por la violencia vengativa. El usuario afirmó que "la mitad de ellos tienen una foto de perfil generada por IA, la biografía estándar y los banners estándar".

Tales patrones —aparición rápida de contenido similar en muchas cuentas— son consistentes con la coordinación conocida de botnets o amplificación de mensajes. Aunque estos se basan más en observaciones de usuarios que en datos sistemáticos hasta la fecha, la consistencia con el comportamiento conocido de bots añade peso a las sospechas.

La investigación pasada proporciona una línea base para cómo se ve el contenido político amplificado por bots en X (anteriormente Twitter). Un estudio de Plos One en febrero encontró que después de la adquisición de la plataforma por parte de Elon Musk a finales de 2022, el discurso de odio aumentó y no hubo reducción en la actividad de cuentas inauténticas o "similares a bots".

Otra investigación de Global Witness el verano pasado descubrió un pequeño conjunto de cuentas similares a bots (45 cuentas en un caso) que entre ellas generaron más de 4.000 millones de impresiones para contenido partidista, conspiratorio o abusivo. Este tipo de amplificación muestra el alcance potencial de tales redes.

Finalmente, existe un historial de estados o grupos organizados desplegando botnets o granjas de trolls para explotar la polarización política de Estados Unidos. Los ejemplos incluyen la campaña Doppelgänger de Rusia, "Spamouflage" (vinculada al gobierno chino) y otros que han imitado a usuarios estadounidenses, usado contenido generado por IA o manipulado, o promovido retórica divisiva para apalancamiento político.

Nada definitivo aún

Hasta ahora, ninguna empresa de ciberseguridad creíble, agencia gubernamental o grupo académico ha atribuido públicamente una red de bots —extranjera o doméstica— con alta confianza a la ola de retórica de "guerra civil" tras la muerte de Kirk.

Tampoco está claro cuántas de las publicaciones están automatizadas versus orgánicas (usuarios reales). La porción proveniente de cuentas aparentemente similares a bots versus el discurso público más amplio es desconocida. También, no está establecido si tal amplificación tiene una estructura de comando de arriba hacia abajo (es decir, coordinada centralmente) o es más ad-hoc.

Y X está lleno de muchos influencers verificados de derecha llamando a la guerra civil o ataques violentos contra la izquierda.

Sin embargo, cuando Estados Unidos sufre una tragedia nacional como el tiroteo de ayer, los grupos con un historial de explotar la polarización política han aprovechado la oportunidad. Las granjas de bots de Rusia (por ejemplo, Internet Research Agency/operaciones tipo "Storm") han sido señaladas durante mucho tiempo. Las redes de desinformación vinculadas a China (por ejemplo, "Spamouflage") están documentadas por haber usado amplificación en redes sociales y granjas de contenido para influir en el sentimiento público estadounidense.

Y el auge de la generación de contenido habilitada por IA facilita que las redes de bots produzcan publicaciones plausibles y similares a las humanas a escala. La investigación muestra que la detección de bots está cada vez más desafiada por cuentas que imitan el lenguaje humano, la sincronización y la variación. Una revisión reciente de detección de bots encontró técnicas de ocultación en evolución y brechas en los métodos de detección actuales.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.