En Resumen

  • Los investigadores de Google DeepMind advirtieron que sin intervención urgente se creará un futuro distópico dirigido por economías de IA autónomas que amplificarán la desigualdad.
  • El artículo "Virtual Agent Economies" argumentó que nos dirigimos hacia una "economía sandbox" con agentes de IA realizando transacciones a velocidades superiores a la supervisión humana.
  • Google lanzó un protocolo de pagos diseñado para agentes de IA, respaldado por Coinbase, Ethereum Foundation, PayPal y American Express.

Sin una intervención urgente, estamos al borde de crear un futuro distópico dirigido por economías de IA invisibles y autónomas que amplificarán la desigualdad y el riesgo sistémico. Esa es la severa advertencia de los investigadores de Google DeepMind en su nuevo artículo, "Virtual Agent Economies".

En el artículo, los investigadores Nenad Tomašev y Matija Franklin argumentan que nos dirigimos precipitadamente hacia la creación de una "economía sandbox". Esta nueva capa económica contará con agentes de IA realizando transacciones y coordinándose a velocidades y escalas muy por encima de la supervisión humana.

"Nuestra trayectoria actual apunta hacia un surgimiento espontáneo de una economía de agentes de IA vasta y altamente permeable, presentándonos oportunidades para un grado de coordinación sin precedentes, así como desafíos significativos, incluyendo riesgo económico sistémico y desigualdad exacerbada", escribieron.

Los peligros del trading agéntico

Este no es un futuro lejano e hipotético. Los peligros ya son visibles en el mundo del trading algorítmico impulsado por IA, donde el comportamiento correlacionado de los algoritmos de trading puede llevar a "caídas flash, efectos de manada y agotamiento de liquidez".

La velocidad e interconectividad de estos modelos de IA significa que pequeñas ineficiencias del mercado pueden convertirse rápidamente en crisis de liquidez completas, demostrando los mismos riesgos sistémicos contra los que los investigadores de DeepMind están advirtiendo.

Tomašev y Franklin enmarcan la era venidera de las economías de agentes a lo largo de dos ejes críticos: su origen (diseñadas intencionalmente vs. surgiendo espontáneamente) y su permeabilidad (aisladas de o profundamente entrelazadas con la economía humana). El artículo expone un peligro claro y presente: si se permite que una economía altamente permeable simplemente surja sin un diseño deliberado, el bienestar humano será la víctima.

Las consecuencias podrían manifestarse en formas ya visibles, como el acceso desigual a IA poderosa, o de maneras más siniestras, como la monopolización de recursos, negociaciones algorítmicas opacas y fallas catastróficas del mercado que permanecen invisibles hasta que es demasiado tarde.

Una economía de agentes "permeable" es una que está profundamente conectada con la economía humana: el dinero, los datos y las decisiones fluyen libremente entre ambas. Los usuarios humanos podrían beneficiarse directamente (o perder) de las transacciones de los agentes: piense en asistentes de IA comprando bienes, intercambiando créditos de energía, negociando salarios o gestionando inversiones en mercados reales. La permeabilidad significa que lo que sucede en la economía de agentes se derrama hacia la vida humana, potencialmente para bien (eficiencia, coordinación) o para mal (colapsos, desigualdad, monopolios).

Por el contrario, una economía "impermeable" está aislada: los agentes pueden interactuar entre sí pero no directamente con la economía humana. Podrías observarla y tal vez incluso ejecutar experimentos en ella, sin arriesgar la riqueza o infraestructura humana. Piénsalo como una simulación en sandbox: segura para estudiar, segura para fallar.

Por eso los autores argumentan por dirigir tempranamente: Nosotros podemos construir intencionalmente economías de agentes con algún grado de impermeabilidad, al menos hasta que confiemos en las reglas, incentivos y sistemas de seguridad. Una vez que las paredes caen, es mucho más difícil contener los efectos en cascada.

Sin embargo, es momento de actuar ahora. El auge de los agentes de IA ya está introduciendo una transición de una "economía basada en tareas a una economía basada en decisiones", donde los agentes no solo están realizando tareas sino tomando decisiones económicas autónomas. Las empresas están adoptando cada vez más un modelo "Agente-como-Servicio", donde los agentes de IA se ofrecen como servicios basados en la nube con precios escalonados, o se usan para conectar usuarios con empresas relevantes, ganando comisiones en las reservas.

Si bien esto crea nuevas fuentes de ingresos, también presenta riesgos significativos, incluyendo dependencia de plataforma y el potencial para que unas pocas plataformas poderosas dominen el mercado, afianzando aún más la desigualdad.

Justamente hoy, Google lanzó un protocolo de pagos diseñado para agentes de IA, respaldado por gigantes cripto como Coinbase y la Ethereum Foundation, junto con gigantes de pagos tradicionales como PayPal y American Express.

Una posible solución: Alineación

Los autores ofrecieron un plan para la intervención. Propusieron un enfoque sandbox proactivo para diseñar estas nuevas economías con mecanismos integrados para la equidad, justicia distributiva y coordinación orientada a misiones.

Una propuesta es nivelar el campo de juego otorgando al agente de IA de cada usuario una dotación inicial igual de "moneda virtual de agente", evitando que aquellos con más poder computacional o datos obtengan una ventaja inmediata e inmerecida.

"Si a cada usuario se le otorgara la misma cantidad inicial de la moneda virtual de agente, eso proporcionaría a sus respectivos representantes de agentes de IA igual poder de compra y negociación", escribieron los investigadores.

También detallan cómo los principios de justicia distributiva, inspirados por el filósofo Ronald Dworkin, podrían usarse para crear mecanismos de subasta para asignar de manera justa recursos escasos. Además, visualizan "economías de misión" que podrían orientar enjambres de agentes hacia objetivos colectivos centrados en humanos en lugar de solo ganancias o eficiencia ciega.

Los investigadores de DeepMind no son ingenuos sobre los inmensos desafíos. Enfatizan la fragilidad de asegurar confianza, seguridad y responsabilidad en estos sistemas complejos y autónomos. Preguntas abiertas se ciernen sobre dominios técnicos, legales y socio-políticos, incluyendo interacciones híbridas humano-IA, responsabilidad legal por acciones de agentes y verificación del comportamiento de agentes.

Por eso insisten en que el "diseño proactivo de mercados de agentes dirigibles" es innegociable si este profundo cambio tecnológico va a "alinearse con el florecimiento colectivo a largo plazo de la humanidad".

El mensaje de DeepMind es inequívoco: Estamos en una bifurcación del camino. Podemos ser los arquitectos de economías de IA construidas sobre equidad y valores humanos, o podemos ser espectadores pasivos del nacimiento de un sistema donde la ventaja se acumula invisiblemente, el riesgo se vuelve sistémico y la desigualdad está codificada en la misma infraestructura de nuestro futuro.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.