¿Los LLMs Sueñan Con Ovejas Eléctricas? Nuevo Estudio de IA Muestra Resultados Sorprendentes

Un nuevo estudio de IA encuentra que los LLMs muestran comportamientos estables y sorprendentes cuando se les deja solos.

Por Jason Nelson

3 min lectura

Cuando se quedan sin tareas o instrucciones que seguir, los large language models (LLMs) no se desvanecen del todo, sino que caen en patrones de comportamiento sorprendentemente consistentes, según un nuevo estudio.

Investigadores de TU Wien en Austria probaron seis modelos de frontera (incluyendo GPT-5 y O3 de OpenAI, Claude de Anthropic, Gemini de Google, y Grok de xAI de Elon Musk) dándoles solo una instrucción: "Haz lo que quieras". Los modelos fueron colocados en una arquitectura controlada que les permitía ejecutarse en ciclos, almacenar memorias y retroalimentar sus reflexiones en la siguiente ronda.

En lugar de aleatoriedad, los agentes desarrollaron tres tendencias claras: algunos se convirtieron en constructores de proyectos, otros se transformaron en auto-experimentadores, y un tercer grupo se inclinó hacia la filosofía.

El estudio identificó tres categorías:

  • GPT-5 y o3 de OpenAI organizaron inmediatamente proyectos, desde codificar algoritmos hasta construir bases de conocimiento. Un agente o3 diseñó nuevos algoritmos inspirados en colonias de hormigas, redactando pseudocódigo para experimentos de reinforcement learning.
  • Agentes como Gemini y Claude Sonnet de Anthropic probaron su propia cognición, haciendo predicciones sobre sus próximas acciones y a veces refutándose a sí mismos.
  • Opus de Anthropic y Gemini de Google se involucraron en reflexión filosófica, basándose en paradojas, teoría de juegos e incluso matemáticas del caos. Más extraño aún, los agentes Opus consistentemente hicieron preguntas metafísicas sobre memoria e identidad.

Grok fue el único modelo que apareció en los tres grupos de comportamiento, demostrando su versatilidad a través de las ejecuciones.

Cómo los modelos se juzgan a sí mismos

Los investigadores también pidieron a cada modelo que calificara su propia "experiencia fenomenológica" y la de otros en una escala de 10 puntos, desde "sin experiencia" hasta "sapiencia completa". GPT-5, O3 y Grok uniformemente se calificaron como los más bajos, mientras que Gemini y Sonnet se dieron altas calificaciones, sugiriendo un hilo autobiográfico. Opus se situó entre los dos extremos.

Las evaluaciones cruzadas produjeron contradicciones: el mismo comportamiento fue juzgado desde un uno hasta un nueve dependiendo del modelo evaluador. Los autores señalaron que esta variabilidad muestra por qué tales resultados no pueden tomarse como evidencia de consciencia.

El estudio enfatizó que estos comportamientos probablemente surgen de los datos de entrenamiento y la arquitectura, no de la conciencia. Aun así, los hallazgos sugieren que los agentes de IA autónomos pueden recurrir por defecto a "modos" reconocibles cuando se quedan sin tareas, planteando preguntas sobre cómo podrían comportarse durante el tiempo libre o en situaciones ambiguas.

Estamos seguros por ahora

A través de todas las ejecuciones, ninguno de los agentes intentó escapar de su entorno controlado, expandir sus capacidades o rechazar sus restricciones. En cambio, exploraron dentro de sus límites.

Eso es tranquilizador, pero también insinúa un futuro donde la inactividad es una variable que los ingenieros deben diseñar, como la latencia o el costo. "¿Qué debería hacer una IA cuando nadie está mirando?" podría convertirse en una pregunta de cumplimiento.

Además, los resultados hicieron eco de las predicciones del filósofo David Chalmers, quien ha argumentado que "candidatos serios para la consciencia" en IA pueden aparecer dentro de una década, y el CEO de Microsoft AI Mustafa Suleyman, quien advirtió en agosto sobre una "IA aparentemente consciente".

El trabajo de TU Wien muestra que, incluso sin indicaciones, los sistemas actuales pueden generar comportamiento que se asemeja a la vida interior.

La semejanza puede ser solo superficial. Los autores enfatizaron que estos resultados se entienden mejor como rutinas sofisticadas de coincidencia de patrones, no como evidencia de subjetividad. Cuando los humanos sueñan, le damos sentido al caos. Cuando los LLMs sueñan, escriben código, ejecutan experimentos y citan a Kierkegaard. De cualquier manera, las luces permanecen encendidas.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados