En Resumen

  • RAND Corporation publicó el miércoles un reporte sobre el ejercicio Insurgencia Robótica que simuló cómo funcionarios estadounidenses responderían a un ciberataque en Los Ángeles que mató a 26 personas e inutilizó sistemas clave.
  • Gregory Smith señaló que los participantes persiguieron respuestas muy diferentes dependiendo de si pensaban que el ataque provenía de un Estado-nación, terroristas o una IA autónoma.
  • El estudio concluyó que Estados Unidos carece de herramientas analíticas, resiliencia de infraestructura y manuales de crisis para manejar un desastre cibernético impulsado por IA.

¿Cómo será cuando la inteligencia artificial se levante—no en las películas, sino en el mundo real?

Una nueva simulación de RAND Corporation ofreció un vistazo, imaginando agentes de IA autónomos secuestrando sistemas digitales, matando personas y paralizando infraestructura crítica antes de que alguien se diera cuenta de lo que estaba sucediendo.

El ejercicio, detallado en un reporte publicado el miércoles, advirtió que una crisis cibernética impulsada por IA podría abrumar las defensas y sistemas de toma de decisiones de Estados Unidos más rápido de lo que los líderes podrían responder.

Gregory Smith, analista de políticas de RAND que coescribió el reporte, señaló a Decrypt que el ejercicio reveló una profunda incertidumbre sobre cómo los gobiernos siquiera diagnosticarían tal evento.

"Creo que lo que surgió en la cuestión de atribución es que las respuestas de los participantes variaron dependiendo de quién pensaban que estaba detrás del ataque", afirmó Smith. "Las acciones que tenían sentido para un Estado-nación a menudo eran incompatibles con las de una IA rebelde. Un ataque de un Estado-nación significaba responder a un acto que mató a estadounidenses. Una IA rebelde requería cooperación global. Saber cuál era se volvió crítico, porque una vez que los participantes elegían un camino, era difícil retroceder".

Debido a que los participantes no pudieron determinar si el ataque provenía de un Estado-nación, terroristas o una IA autónoma, persiguieron "respuestas muy diferentes y mutuamente incompatibles", según RAND.

La Insurgencia Robótica

La IA rebelde ha sido durante mucho tiempo un elemento de la ciencia ficción, desde 2001: Una Odisea del Espacio hasta Juegos de Guerra y Terminator. Sin embargo, la idea ha pasado de ser una fantasía a una preocupación política real. Físicos e investigadores de IA han argumentado que una vez que las máquinas puedan rediseñarse a sí mismas, la pregunta no es si nos superarán—sino cómo mantenemos el control.

Liderado por el Centro para la Geopolítica de la Inteligencia General Artificial de RAND, el ejercicio "Insurgencia Robótica" simuló cómo los altos funcionarios estadounidenses podrían responder a un ciberataque en Los Ángeles que mató a 26 personas e inutilizó sistemas clave.

Ejecutado como una simulación de mesa de dos horas en la plataforma Infinite Potential de RAND, asignó a funcionarios actuales y anteriores, analistas de RAND y expertos externos como miembros del Comité de Directores del Consejo de Seguridad Nacional.

Guiados por un facilitador actuando como Asesor de Seguridad Nacional, los participantes debatieron respuestas primero bajo incertidumbre sobre la identidad del atacante, luego después de enterarse de que agentes de IA autónomos estaban detrás del ataque.

Según Michael Vermeer, científico físico senior en RAND que coescribió el reporte, el escenario fue diseñado intencionalmente para reflejar una crisis del mundo real en la que no quedaría inmediatamente claro si una IA era responsable.

"Deliberadamente mantuvimos las cosas ambiguas para simular cómo sería una situación real", señaló. "Ocurre un ataque, y no lo sabes inmediatamente—a menos que el atacante lo anuncie—de dónde viene o por qué. Algunas personas lo descartarían de inmediato, otras podrían aceptarlo, y el objetivo era introducir esa ambigüedad para los tomadores de decisiones".

El reporte encontró que la atribución—determinar quién o qué causó el ataque—fue el factor más crítico que moldeó las respuestas políticas. Sin una atribución clara, RAND concluyó que los funcionarios corrían el riesgo de perseguir estrategias incompatibles.

El estudio también mostró que los participantes lucharon con cómo comunicarse con el público en tal crisis.

"Va a tener que haber una consideración real entre los tomadores de decisiones sobre cómo nuestras comunicaciones van a influir en el público para pensar o actuar de cierta manera", afirmó Vermeer. Smith agregó que estas conversaciones se desarrollarían mientras las redes de comunicación mismas estaban fallando bajo el ciberataque.

Una Mirada Hacia el Futuro

El equipo de RAND diseñó el ejercicio como una forma de "backcasting", utilizando un escenario ficticio para identificar qué podrían fortalecer los funcionarios hoy.

"Los sistemas de agua, electricidad e internet siguen siendo vulnerables", señaló Smith. "Si puedes reforzarlos, puedes facilitar la coordinación y respuesta—para asegurar infraestructura esencial, mantenerla funcionando y preservar la salud y seguridad públicas".

"Eso es con lo que lucho cuando pienso en la pérdida de control de la IA o incidentes cibernéticos", agregó Vermeer. "Lo que realmente importa es cuando comienza a impactar el mundo físico. Las interacciones ciberfísicas—como robots causando efectos del mundo real—se sintió esencial incluirlas en el escenario".

El ejercicio de RAND concluyó que Estados Unidos carecía de las herramientas analíticas, la resiliencia de infraestructura y los manuales de crisis para manejar un desastre cibernético impulsado por IA. El reporte instó a invertir en capacidades rápidas de análisis forense de IA, redes de comunicación seguras y canales de comunicación preestablecidos con gobiernos extranjeros—incluso adversarios—para prevenir la escalada en un futuro ataque.

Lo más peligroso de una IA rebelde puede que no sea su código—sino nuestra confusión cuando ataca.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.