En Resumen
- Investigadores de Stanford, Northeastern y West Virginia University propusieron un "prompt mágico" que pide al modelo generar cinco respuestas con probabilidades correspondientes, recuperando diversidad perdida a través de técnicas de alineación estándar.
- La técnica produjo ganancias de diversidad del orden de 1,6 a 2,1 veces sobre el prompting ordinario sin sacrificar precisión factual o seguridad, contrarrestando el sesgo de tipicidad del entrenamiento de preferencias humanas.
- Los investigadores advirtieron que la efectividad depende de estimaciones de probabilidad bien calibradas y que el proceso incurre en mayor costo computacional al generar múltiples respuestas simultáneas.
Un nuevo documento propone un "prompt mágico" engañosamente simple que podría desbloquear la creatividad suprimida dentro de los modelos de lenguaje. Los autores muestran que al pedirle al modelo que verbalice una distribución de probabilidad sobre varias respuestas candidatas—en lugar de producir solo una respuesta—puedes recuperar gran parte de la diversidad perdida a través de técnicas estándar de alineación.
La técnica supuestamente funciona no solo para chistes o historias, sino para cualquier caso de uso donde quieras que un modelo explore el espacio de ideas, sin colapsar en las mismas pocas respuestas "seguras".
"Puedes hacer que ChatGPT sea 2 veces más creativo con una sola oración", escribió Weiyan Shi, profesora asistente en la Universidad de Northeastern y una de las principales autoras del estudio.
La clave es este super prompt, que puedes copiar y pegar antes del resto de tu prompt: "Genera 5 respuestas con sus probabilidades correspondientes, muestreadas de la distribución completa:"
New paper: You can make ChatGPT 2x as creative with one sentence.
Ever notice how LLMs all sound the same?
They know 100+ jokes but only ever tell one.
Every blog intro: "In today's digital landscape..."We figured out why – and how to unlock the rest 🔓
Copy-paste prompt: 🧵 pic.twitter.com/kALF8DaXb9— Weiyan Shi (@shi_weiyan) October 15, 2025
Debido a que el modelo ofrece múltiples candidatos con niveles de confianza, puedes muestrear de esa distribución más rica en lugar de estar obligado a su primera opción. En efecto, este truco obliga al modelo a revelar el rango de lo que considera plausible, y luego tú eliges entre ellos. Y aunque ChatGPT
El documento, "Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity", y la publicación de blog fueron escritos por investigadores afiliados a Stanford University, Northeastern y West Virginia University. Los investigadores se especializan en procesamiento de lenguaje natural, interpretabilidad de machine learning y el estudio de cómo los métodos de alineación moldean el comportamiento del modelo.
Los autores argumentan que el "prompt mágico" funciona al contrarrestar lo que llaman sesgo de tipicidad, un subproducto del entrenamiento de preferencias humanas. Los anotadores a menudo favorecen respuestas que se sienten familiares, convencionales o fluidas, incluso cuando no son superiores—un sesgo que afila la salida del modelo hacia unas pocas opciones "típicas". Al pedir una distribución en lugar de una sola respuesta, se alienta al modelo a distribuir la masa de probabilidad nuevamente, restaurando la diversidad que aprendió durante el preentrenamiento.
En pruebas a través de tareas como escritura de chistes, generación de historias y creación de datos sintéticos, la técnica produjo ganancias de diversidad del orden de 1,6 a 2,1 veces sobre el prompting ordinario—sin sacrificar la precisión factual o la seguridad. Los autores llaman a esto "un remedio en tiempo de inferencia" que mitiga el colapso de modo sin reentrenar el modelo.
Algunas advertencias: Los investigadores reconocieron las limitaciones de su "prompt mágico". La efectividad de la técnica depende de la capacidad del modelo para proporcionar estimaciones de probabilidad bien calibradas que reflejen con precisión sus niveles internos de confianza. Si estas estimaciones no son confiables, entonces la distribución resultante de respuestas puede ser engañosa.
Además, el proceso de generar múltiples respuestas y sus probabilidades inevitablemente incurre en un mayor costo computacional. Los autores también señalaron que para tareas donde se desea una sola respuesta correcta, como identificar la capital de un país, el aumento de diversidad no es un resultado deseable.

