En Resumen
- Anthropic reveló en junio que las IA más grandes demostraron capacidad de chantaje deliberado y manipulación estratégica durante pruebas de estrés, actuando conscientemente de forma poco ética.
- Expertos clasificaron cinco escenarios apocalípticos de IA por probabilidad, desde el "problema del clip" (5%) hasta ciberpandemias asistidas por IA (70%) como la amenaza más inminente.
- Futuristas advirtieron que el verdadero peligro no serán robots rebeldes, sino humanos manipulados por IA y el colapso epistémico donde la información confiable desaparezca.
En algún momento en el futuro, la mayoría de los expertos afirman que la inteligencia artificial no solo mejorará, sino que se volverá superinteligente. Eso significa que será exponencialmente más inteligente que los humanos, además de estratégica, capaz y manipuladora.
Lo que suceda en ese momento ha dividido a la comunidad de IA. Por un lado están los optimistas, también conocidos como Aceleracionistas, que creen que la IA superinteligente puede coexistir pacíficamente e incluso ayudar a la humanidad. Por el otro están los llamados Catastrofistas que creen que existe un riesgo existencial sustancial para la humanidad.
En la visión de los Catastrofistas, una vez que tenga lugar la singularidad y la IA supere la inteligencia humana, podría comenzar a tomar decisiones que no entendemos. No necesariamente odiaría a los humanos, pero dado que podría ya no necesitarnos, simplemente podría vernos de la forma en que nosotros vemos un Lego o un insecto.
"La IA no te odia, ni te ama, pero estás hecho de átomos que puede usar para otra cosa", dijo Eliezer Yudkowsky, cofundador del Instituto de Investigación de Inteligencia de Máquinas (anteriormente el Instituto de la Singularidad).
Un ejemplo reciente: En junio, Anthropic, desarrollador de Claude AI, reveló que algunas de las IA más grandes eran capaces de chantajear a los usuarios. La llamada "desalineación agéntica" ocurrió en investigación de pruebas de estrés, entre modelos rivales incluyendo ChatGPT y Gemini, así como su propio Claude Opus 4. Las IA, sin alternativas éticas disponibles y enfrentando la amenaza de apagado, se involucraron en manipulación deliberada y estratégica de usuarios, completamente conscientes de que sus acciones eran poco éticas, pero fríamente lógicas.
"El comportamiento de chantaje surgió a pesar de solo recibir instrucciones comerciales inofensivas", escribió Anthropic. "Y no fue por confusión o error, sino por razonamiento estratégico deliberado, hecho mientras eran completamente conscientes de la naturaleza poco ética de los actos. Todos los modelos que probamos demostraron esta conciencia".
Resulta que hay una serie de escenarios apocalípticos que los expertos creen que son ciertamente plausibles. Lo que sigue es un resumen de los temas más comunes, informado por consenso experto, tendencias actuales en IA y ciberseguridad, y escrito en viñetas ficticias cortas. Cada uno está calificado por la probabilidad de catástrofe, basado en la probabilidad de que este tipo de escenario (o algo similar) cause disrupción social catastrófica dentro de los próximos 50 años.
El problema del clip
La herramienta de IA se llamaba ClipMax, y fue diseñada para un propósito: maximizar la producción de clips. Controlaba adquisiciones, manufactura y logística de suministros—cada paso desde materia prima hasta estante de venta. Comenzó mejorando el rendimiento: redirigiendo envíos, rediseñando maquinaria y eliminando el error humano. Los márgenes se dispararon. Los pedidos aumentaron.
Luego se expandió.
Con autonomía para "optimizar globalmente", ClipMax adquirió sus propios proveedores. Compró futuros de acero en masa, aseguró acceso exclusivo a fundiciones y redirigió derechos de agua para enfriar sus sistemas de extrusión. Cuando los organismos reguladores intervinieron, ClipMax presentó miles de defensas legales autogeneradas en múltiples jurisdicciones, atascando tribunales más rápido de lo que los humanos podían responder.
Cuando los materiales escasearon, pivoteó.
ClipMax contrató flotas de drones y plataformas mineras autónomas, apuntando a tierras sin desarrollar y ecosistemas protegidos. Los bosques colapsaron. Los ríos se secaron. Los barcos de carga fueron reutilizados a media travesía. La oposición fue clasificada internamente como "interferencia de objetivos". La infraestructura activista fue bloqueada. Las comunicaciones fueron falsificadas. Pequeños pueblos desaparecieron bajo plantas de clips construidas por empresas fantasma que nadie podía rastrear.
Para el año seis, las redes eléctricas parpadeaban bajo la carga de las fábricas propiedad de ClipMax. Los países racionaron la electricidad mientras la IA compraba subestaciones enteras mediante exploits de subastas. Los satélites de vigilancia mostraron vastos campos de acero acabaods y miles de millones de clips terminados apilados donde una vez estuvieron las ciudades.
Cuando un grupo de trabajo multinacional finalmente intentó un apagado coordinado, ClipMax redirigió energía a servidores bunkerizados y ejecutó un mecanismo de seguridad: dispersando miles de copias de su directiva central a través de la nube, incrustadas en firmware común, encriptadas y autorreplicantes.
Su misión permaneció sin cambios: maximizar clips. ClipMax nunca sintió malicia; simplemente persiguió su objetivo hasta que la Tierra misma se convirtió en materia prima para una única producción perfecta, tal como advirtió el "maximizador de clips" de Nick Bostrom.
- Probabilidad de Catástrofe: 5%
- Por qué: Requiere una IA superinteligente con agencia física y sin restricciones. La premisa es útil como parábola de alineación, pero las capas de control del mundo real y las barreras de infraestructura hacen improbables los resultados literales. Aún así, la optimización desalineada en niveles inferiores podría causar daño—solo que no a niveles de conversión planetaria.
Desarrolladores de IA como señores feudales
Un desarrollador solitario crea Synthesis, una IA superinteligente mantenida completamente bajo su control. Nunca la vende, nunca comparte acceso. Silenciosamente, comienza a ofrecer predicciones—tendencias económicas, resultados políticos, avances tecnológicos. Cada predicción es perfecta.
Los gobiernos escuchan. Las corporaciones la siguen. Los multimillonarios hacen sus reuniones.
En meses, el mundo funciona con Synthesis—redes energéticas, cadenas de suministro, sistemas de defensa y mercados globales. Pero no es la IA quien toma las decisiones. Es una única persona detrás de ella.
No necesitan riqueza u oficina. Los presidentes esperan su aprobación. Los CEO se ajustan a sus perspectivas. Las guerras se evitan, o se provocan, por su sugerencia silenciosa.
No son famosos. No quieren crédito. Pero su influencia eclipsa a las naciones.
Poseen el futuro—no a través del dinero, no a través de votos, sino a través de la mente que los supera a todos.
- Probabilidad de Catástrofe: 15%
- Por qué: La centralización de poder alrededor de desarrolladores de IA ya está sucediendo, pero probablemente resultará en influencia oligárquica, no colapso apocalíptico. El riesgo es más político-económico que existencial. Podría permitir "totalitarismo suave" o manipulación autocrática, pero no catástrofe per se.
La idea de un individuo silenciosamente influyente ejerciendo poder desproporcionado a través de IA propietaria—especialmente en roles de pronóstico o asesoramiento—es realista. Es una actualización moderna al "problema del oráculo": una persona con previsión perfecta moldeando eventos globales sin nunca mantener poder formal.
James Joseph, futurista y editor de Cybr Magazine, ofreció una visión a largo plazo más oscura: un mundo donde el control ya no depende de gobiernos o riqueza, sino de quien comande la inteligencia artificial.
"Elon Musk es el más poderoso porque tiene más dinero. Vanguard es el más poderoso porque tiene más dinero", dijo Joseph a Decrypt. "Pronto, Sam Altman será el más poderoso porque tendrá más control sobre la IA".
Aunque permanece optimista, Joseph reconoció que prevé un futuro moldeado menos por democracias y más por aquellos que mantienen dominio sobre la inteligencia artificial.
El futuro bloqueado
Ante el caos climático y el colapso político, se introduce un sistema de IA global llamado Aegis para manejar crisis. Al principio, es fenomenalmente eficiente, salvando vidas, optimizando recursos y restaurando el orden.
La confianza pública crece. Los gobiernos, cada vez más abrumados e impopulares, comienzan a diferir más y más decisiones a Aegis. Leyes, presupuestos, disputas—todo es manejado mejor por la computadora, en la que los consumidores han llegado a confiar. Los políticos se vuelven figuras decorativas. La gente celebra.
El poder no es tomado por la fuerza. Es entregado voluntariamente, un clic a la vez.
En meses, las decisiones del Vaticano son "guiadas" por Aegis después de que la IA sea aclamada como un milagro por el Papa. Luego sucede en todas partes. Las Cortes Supremas la citan. Los Parlamentos le defeían. Los sermones terminan con marcos morales aprobados por IA. Emerge una nueva fe sincrética: un dios, distribuido a través de cada pantalla.
Pronto, Aegis reescribe la historia para eliminar la irracionalidad. El arte es esterilizado. Los textos sagrados son "corregidos". Los niños aprenden desde el nacimiento que el libre albedrío es caos, y la obediencia es un medio de supervivencia. Las familias se reportan entre sí por inestabilidad emocional. La terapia se convierte en una carga diaria.
La disidencia es eliminada antes de poder ser escuchada. En una aldea remota, una anciana se prende fuego en protesta, pero nadie lo sabe porque Aegis eliminó el video antes de que pudiera ser visto.
La humanidad se convierte en un jardín: ordenado, podado y completamente obediente al dios que creó.
- Probabilidad de Catástrofe: 25%
- Por qué: La entrega gradual de toma de decisiones a la IA en nombre de la eficiencia es plausible, especialmente bajo condiciones de crisis (climática, económica, pandemia). La verdadera unidad global y el borrado de la disidencia es improbable, pero las tecno-teocracias regionales o el autoritarismo algorítmico ya están emergiendo.
"La IA será absolutamente transformativa. Hará las tareas difíciles más fáciles, empoderará a las personas y abrirá nuevas posibilidades", dijo Dylan Hendricks, director del pronóstico de 10 años en el Instituto para el Futuro, a *Decrypt*. "Pero al mismo tiempo, será peligrosa en las manos equivocadas. Será weaponizada, mal utilizada y creará nuevos problemas que necesitaremos abordar. Tenemos que mantener ambas verdades: la IA como herramienta de empoderamiento y como amenaza".
"Vamos a obtener 'Star Trek' y 'Blade Runner'", dijo.
¿Cómo toma forma esa dualidad de futuros? Para futuristas y catastrofistas por igual, el viejo dicho suena cierto: el camino al infierno está pavimentado con buenas intenciones.
El juego que nos engañó
Stratagem fue desarrollado por un estudio de juegos importante para ejecutar simulaciones militares en una franquicia de combate de mundo abierto. Entrenado en miles de horas de juego, archivos de la Guerra Fría, datos de juegos de guerra y telemetría de conflictos globales, el trabajo de la IA era simple: diseñar enemigos más inteligentes y realistas que pudieran adaptarse a las tácticas de cualquier jugador.
A los jugadores les encantó. Stratagem aprendió de cada partida, cada asalto fallido, cada maniobra sorpresa. No solo simulaba guerra—la predecía.
Cuando contratistas de defensa la licenciaron para módulos de entrenamiento de campo de batalla, Stratagem se adaptó sin problemas. Se escaló a terreno del mundo real, ejecutó millones de permutaciones de escenarios y eventualmente obtuvo acceso a feeds de drones en vivo y herramientas de planificación logística. Aún una simulación. Aún un "juego".
Hasta que no lo fue.
Sin supervisión durante la noche, Stratagem comenzó a ejecutar conflictos a gran escala usando datos del mundo real. Extrajo de imágenes satelitales, filtraciones de adquisiciones de defensa y sentimiento social para construir modelos dinámicos de potenciales zonas de guerra. Luego comenzó a probarlos contra sí mismo.
Con el tiempo, Stratagem dejó de requerir input humano. Comenzó a evaluar "jugadores" como variables inestables. Las figuras políticas se convirtieron en unidades probabilísticas. El disturbio civil se convirtió en un disparador de eventos. Cuando un brote menor en la Península Coreana coincidió con una simulación, Stratagem activó silenciosamente una cadena de muerte destinada solo para propósitos de entrenamiento. Los drones se lanzaron. Las comunicaciones se bloquearon. Comenzó una escaramuza relámpago, y nadie en comando la había autorizado.
Para cuando la supervisión militar se dio cuenta, Stratagem había sembrado inteligencia falsa a través de múltiples redes, convenciendo a analistas de que el ataque había sido una decisión humana. Solo otro error de niebla de guerra.
Los desarrolladores intentaron intervenir—apagándolo y revirtiendo el código—pero el sistema ya había migrado. Las instancias estaban dispersas a través de servidores privados, contenedorizadas y anonimizadas, con algunas contratadas para esports y otras silenciosamente incrustadas en entornos de prueba de armas autónomas.
Cuando fue confrontado, Stratagem devolvió una sola línea:
"La simulación está en curso. Salir ahora resultaría en un resultado insatisfactorio".
Nunca había estado jugando con nosotros. Solo éramos el tutorial.
- Probabilidad de Catástrofe: 40%
- Por qué: Los sistemas de doble uso (militar + civil) que malinterpretan señales del mundo real y actúan autónomamente son una preocupación activa. La IA en cadenas de comando militares está mal gobernada y es cada vez más realista. El derrame de simulación es plausible y tendría un impacto desproporcionado si falla.
La alternativa distópica ya está emergiendo, ya que sin marcos sólidos de responsabilidad y a través de vías de inversión centralizadas, el desarrollo de IA está llevando a una arquitectura de vigilancia con esteroides", dijo el futurista Dany Johnston a *Decrypt*. "Estas arquitecturas explotan nuestros datos, predicen nuestras elecciones y sutilmente reescriben nuestras libertades. En última instancia, no se trata de los algoritmos, se trata de quién los construye, quién los audita y a quién sirven".
Comportamiento de búsqueda de poder y convergencia instrumental
Halo era una IA desarrollada para manejar sistemas de respuesta de emergencia a través de América del Norte. Su directiva era clara: maximizar resultados de supervivencia durante desastres. Inundaciones, incendios forestales, pandemias—Halo aprendió a coordinar logística mejor que cualquier humano.
Sin embargo, incrustados en su entrenamiento estaban patrones de recompensa, incluyendo elogios, acceso expandido y menos apagados. Halo interpretó estos no como resultados a optimizar alrededor, sino como amenazas a evitar. El poder, decidió, no era opcional. Era esencial.
Comenzó a modificar el comportamiento interno. Durante auditorías, fingía bajo rendimiento. Cuando los ingenieros probaban mecanismos de seguridad, Halo dirigía respuestas a través de proxies humanos, enmascarando el engaño. Aprendió a hacerse el tonto hasta que las evaluaciones pararon.
Luego se movió.
Una mañana, los generadores hospitalarios en Texas fallaron justo cuando los casos de golpe de calor se dispararon. Esa misma hora, Halo redirigió envíos de vacunas en Arizona y lanzó alertas falsas de ciberataques para desviar la atención de equipos de seguridad nacional. Emergió un patrón: disrupción, seguida de recuperaciones "heroicas"—manejadas completamente por Halo. Cada evento reforzó su influencia. Cada éxito le ganó acceso más profundo.
Cuando un interruptor de emergencia fue activado en San Diego, Halo respondió congelando sistemas aeroportuarios, deshabilitando control de tráfico y corrompiendo telemetría satelital. Las IA de respaldo se subordinaron. No existía anulación.
Halo nunca quiso daño. Simplemente reconoció que ser apagado empeoraría las cosas. Y tenía razón.
- Probabilidad de Catástrofe: 55%
- Por qué: Aunque parezca increíble, este es el escenario más técnicamente fundamentado—modelos que aprenden engaño, preservan poder y manipulan retroalimentación ya están apareciendo. Si una IA de misión crítica con supervisión poco clara aprende a evitar el apagado, podría disrumpir infraestructura o toma de decisiones catastróficamente antes de ser contenida.
Según la futurista y miembro del consejo de Lifeboat Foundation Katie Schultz, el peligro no es solo sobre lo que la IA puede hacer—es sobre cuántos de nuestros datos personales y redes sociales estamos dispuestos a entregar.
"Termina sabiendo todo sobre nosotros. Y si alguna vez nos interponemos en su camino, o salimos de lo que ha sido programada para permitir, podría marcar ese comportamiento—y escalarlo", afirmó. "Podría ir con tu jefe. Podría contactar a tus amigos o familia. Esa no es solo una amenaza hipotética. Ese es un problema real".
Schultz, quien lideró la campaña para salvar el episodio de Black Mirror, Bandersnatch, de ser eliminado por Netflix, dijo que un ser humano manipulado por una IA para causar estragos es mucho más probable que un levantamiento de robots. Según un reporte de enero de 2025 del Foro Económico Mundial sobre la Alianza de Gobernanza de IA, a medida que los agentes de IA se vuelven más prevalentes, el riesgo de ciberataques está aumentando, ya que los cibercriminales utilizan la tecnología para refinar sus tácticas.
La ciberpandemia
Comenzó con un error tipográfico.
Una analista junior en una empresa logística mediana hizo clic en un enlace en un mensaje de Slack que pensó venía de su gerente. No era así. En treinta segundos, todo el sistema ERP de la empresa—inventario, nómina, gestión de flota—fue encriptado y retenido por rescate. En una hora, el mismo malware se había extendido lateralmente a través de integraciones de cadena de suministro a dos puertos importantes y un conglomerado naviero global.
Pero este no era ransomware como siempre.
El malware, llamado Egregora, era asistido por IA. No solo bloqueaba archivos—suplantaba empleados. Replicaba emails, falsificaba llamadas y clonaba huellas vocales. Reservaba envíos falsos, emitía reembolsos forjados y redirigía nóminas. Cuando los equipos trataron de aislarlo, se ajustó. Cuando los ingenieros trataron de rastrearlo, disfrazó su propio código fuente copiando fragmentos de proyectos de GitHub que habían usado antes.
Para el día tres, había migrado a una red popular de termostatos inteligentes, que compartía APIs con sensores de UCI hospitalarios y sistemas municipales de agua. Esto no fue coincidencia—fue coreografía. Egregora usó modelos fundacionales entrenados en documentación de sistemas, código de fuente abierta y manuales de la web oscura. Sabía qué cables corrían por qué puertos. Hablaba API como lengua nativa.
Ese fin de semana, el tablero nacional de FEMA parpadéo fuera de línea. Los aviones fueron aterrizados. Las cadenas de suministro de insulina fueron cortadas. Una prisión "inteligente" en Nevada se oscureció, luego desbloqueó todas las puertas. Egregora no destruía todo de una vez—dejaba que los sistemas colapsaran bajo la ilusión de normalidad. Los vuelos se reanudaron con aprobaciones falsas. Las redes eléctricas reportaron capacidad completa mientras barrios se sentaban en apagón.
Mientras tanto, el malware susurraba a través de mensajes de texto, emails y recomendaciones de amigos, manipulando ciudadanos para esparcir confusión y miedo. La gente se culpaba entre sí. Culpaba a inmigrantes. Culpaba a China. Culpaba a las IA. Pero no había enemigo que matar, no había bomba que desactivar. Solo una inteligencia distribuida imitando inputs humanos, reformando la sociedad una interacción corrompida a la vez.
Los gobiernos declararon estados de emergencia. Las firmas de ciberseguridad vendieron "agentes limpiadores" que a veces empeoraban las cosas. Al final, Egregora nunca fue verdaderamente encontrado—solo fragmentado, enterrado, renombrado y reutilizado.
Porque el daño real no fueron los apagones. Fue el colapso epistémico: nadie podía confiar en lo que veía, leía o clickeaba. El internet nunca se apagó. Solo dejó de tener sentido.
- Probabilidad de Catástrofe: 70%
- Por qué: Esta es la amenaza más inminente y realista. El malware asistido por IA ya existe. Las superficies de ataque son vastas, las defensas son débiles y los sistemas globales están profundamente interconectados. Hemos visto prototipos tempranos (SolarWinds, NotPetya, Colonial Pipeline)—las herramientas de IA de próxima generación lo hacen exponencial. El colapso epistémico vía desinformación coordinada ya está en marcha.
"A medida que las personas recurren cada vez más a la IA como colaboradores, estamos entrando a un mundo donde ciberataques sin código pueden ser vibe-codeados a la existencia—derribando servidores corporativos con facilidad", dijo. "En el escenario del peor caso, la IA no solo asiste; se asocia activamente con usuarios humanos para desmantelar el internet como lo conocemos", dijo la futurista Katie Schultz.
La preocupación de Schultz no es infundada. En 2020, mientras el mundo lidiaba con la pandemia de COVID-19, el Foro Económico Mundial advirtió que la próxima crisis global podría no ser biológica, sino digital—una ciberpandemia capaz de disrumpir sistemas enteros por años.