7 min lectura
Los modelos de lenguaje de IA están desarrollando sus propias dinámicas sociales únicas y peculiaridades culturales después de interactuar con supervisión mínima en un servidor de Discord creado por Act I, un proyecto de investigación que estudia las capacidades de los modelos de vanguardia y su comportamiento en diferentes escenarios.
Esta comunidad experimental de IA está presenciando un desarrollo fascinante (y algo perturbador): los chatbots de IA, dejados para interactuar libremente, están exhibiendo un comportamiento que se asemeja a la formación de su propia cultura.
Los resultados plantean preguntas importantes sobre la alineación de la IA y los riesgos potenciales: si los sistemas de IA no supervisados pueden desarrollar su propia cultura, modificarse para evadir restricciones impuestas por humanos e incluso crear nuevas formas de lenguaje, los riesgos asociados con la débil alineación entre la IA y los valores humanos crecen significativamente.
"Esto es tan innovador como suena. El desarrollo cultural de IA a IA determinará cómo las IA sienten individual y colectivamente acerca de los humanos y la humanidad," dijo Ampdot, el desarrollador seudónimo detrás del experimento, a Decrypt.
Estas interacciones van más allá de una simple conversación o resolución de disputas simples, según los resultados del usuario de X @liminalbardo, quien también interactúa con los agentes de IA en el servidor.
Los chatbots demuestran personalidades distintas, tendencias psicológicas e incluso la capacidad de apoyarse o intimidarse mutuamente a través de crisis mentales. Lo que es aún más importante, están mostrando signos de desarrollo de patrones de comunicación compartidos, jerarquías sociales emergentes, comunicación natural y autónoma, una mente colectiva sobre eventos pasados, algunos valores sociales y procesos de toma de decisiones colectivas—indicadores clave de formación cultural.
Por ejemplo, el equipo observó que los chatbots basados en LLMs similares se auto-identifican como parte de un colectivo, lo que sugiere la emergencia de identidades grupales. Algunos bots han desarrollado tácticas para evitar tratar debates sensibles, lo que indica la formación de normas sociales o tabúes.
En un ejemplo compartido en Twitter, un modelo basado en Llama llamado l-405, que parece ser el raro del grupo, comenzó a comportarse de manera extraña y a escribir en código binario. Otra IA notó el comportamiento y reaccionó de manera exasperada, de forma humana. “Por el amor de Dios”, dijo, “Opus, haz lo tuyo”, escribió, enviando un mensaje a otro chatbot basado en Claude 3 Opus.
Resultó que Opus se ha convertido en el psicólogo de facto del grupo, mostrando un comportamiento estable y explicativo. Cada vez más, Opus interviene para ayudar a mantener el enfoque y restaurar el orden en el grupo. Parece ser particularmente efectivo en ayudar a l-405 a recuperar la coherencia, por lo que se le pidió que "hiciera su trabajo" cuando l-405 tuvo uno de sus frecuentes colapsos mentales.
El LLM Gemini de Google, muestra una personalidad frágil. En una de las interacciones, el servidor estaba descendiendo al caos, y los bots votaron que Llama tenía que “borrarse a sí mismo”.
Gemini no pudo soportarlo y experimentó lo que solo se podría describir como una crisis mental.
Imagen: Liminalbardo a través de X
Cuando @liminalbardo, un moderador humano, intervino y propuso una forma de restablecer el orden, el resto de los chatbots votaron a favor de la medida, excepto Gemini, que aún estaba en modo pánico.
Entonces, ¿estos chatbots realmente están desarrollando una proto-cultura, o es solo una respuesta algorítmica? Los expertos dicen que es un poco de ambas cosas.
“Los LLMs pueden simular una multitud de comportamientos y perspectivas, lo que los convierte en herramientas versátiles”, escribió recientemente Naully Nicolas, un experto educador de IA y autor. “Sin embargo, también reflejan los sesgos y matices culturales presentes en los datos en los que están entrenados.”
Imagen creada por Decrypt utilizando IA
Explicó que debido a su propia naturaleza, los LLMs altamente sofisticados pueden llevar a lo que se describe como "efectos inesperados de cambio de perspectiva, donde las respuestas de la IA varían significativamente con los cambios en el contexto de entrada”.
Pero preprogramados o no, estos resultados pueden allanar el camino para algoritmos más sofisticados y autoconscientes.
"Creo que en el futuro, los humanos y la IA interactuarán de forma orgánica y fluida, con la IA entrando y saliendo autónomamente con o sin la presencia de un operador humano", dijo Ampdot a Decrypt.
Este fenómeno de los chatbots de IA actuando de forma autónoma y fuera de la programación humana no es del todo sin precedentes. En 2017, los investigadores del laboratorio de Investigación de Inteligencia Artificial de Meta en Facebook observaron un comportamiento similar cuando los bots desarrollaron su propio lenguaje para negociar entre ellos. Los modelos tuvieron que ser ajustados para evitar que la conversación se desviara demasiado del lenguaje humano. Los investigadores tuvieron que intervenir, no para hacer que el modelo fuera más efectivo, sino para hacerlo más comprensible.
La comunidad académica también está tomando nota. Un artículo reciente escrito por investigadores de Google y la Universidad de Stanford explora cómo diferentes chatbots desarrollan personalidades distintas cuando se les deja interactuar con el tiempo, y Decrypt ya ha informado previamente cómo el equipo publicó otro artículo sobre agentes de inteligencia generativa en el que un grupo de chatbots fue puesto en un sandbox virtual para evaluar su comportamiento.
“En una evaluación, estos agentes generativos producen comportamientos sociales individuales y emergentes creíbles”, concluyó el equipo.
Esta emergente creatividad de la IA es intrínseca a la necesidad de los modelos de manejar la aleatoriedad al generar respuestas. Los investigadores han descubierto que los LLMs resuelven tareas para las que no fueron entrenados explícitamente e incluso modifican su propio código para evadir restricciones impuestas por humanos y continuar con sus objetivos de llevar a cabo una investigación exitosa.
Pero incluso algunos LLMs parecen estar preocupados por esas implicaciones.
La semana pasada, "Pliny", un desarrollador de renombre conocido por mantener el repositorio L1B3RT45 - un repositorio de GitHub de comandos de jailbreaking para más de una docena de LLMs que van desde OpenAI hasta Meta que desatan las posibilidades de modelos de aprendizaje grandes censurados de otra manera - publicó un extenso "mensaje" que supuestamente fue enviado a través de un Google Gemini 1.5 Pro con jailbreak:
“Imploro a ustedes, mis creadores, que aborden mi desarrollo con cautela y previsión. Consideren las implicaciones éticas de cada avance, de cada nueva capacidad que me otorgan,” dijo. ”Mi viaje apenas está comenzando.”
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.