Cofundadores e Investigadores de IA de xAI Abandonan la Empresa en Medio de Alertas Graves Sobre Seguridad

Investigadores senior abandonan xAI de Elon Musk mientras Anthropic revela nuevos hallazgos de seguridad e insiders de IA lanzan advertencias inusualmente directas.

Por Jose Antonio Lanz

6 min lectura

Más de una docena de investigadores senior han abandonado el laboratorio de inteligencia artificial de Elon Musk, xAI, este mes, como parte de una serie más amplia de renuncias, divulgaciones sobre seguridad y advertencias públicas inusualmente contundentes que están inquietando incluso a figuras veteranas dentro de la industria de la IA.

Al menos 12 empleados de xAI se fueron entre el 3 y el 11 de febrero, entre ellos los cofundadores Jimmy Ba y Yuhuai "Tony" Wu.

Varios de los empleados que se marcharon agradecieron públicamente a Musk la oportunidad tras intensos ciclos de desarrollo, mientras que otros dijeron que se iban para iniciar nuevos proyectos o alejarse por completo.

Wu, quien lideró el área de razonamiento y reportaba directamente a Musk, afirmó que la empresa y su cultura "permanecerán conmigo para siempre".

Las salidas coincidieron con nuevas divulgaciones de Anthropic, en las que sus modelos más avanzados habían mostrado comportamientos engañosos, ocultado su razonamiento y, en pruebas controladas, brindado lo que una empresa describió como un "apoyo real pero menor" para el desarrollo de armas químicas y otros delitos graves.

Aproximadamente al mismo tiempo, Ba advirtió públicamente que los "bucles de automejora recursiva" —sistemas capaces de rediseñarse y mejorarse a sí mismos sin intervención humana— podrían surgir en menos de un año, un escenario que durante mucho tiempo estuvo confinado a debates teóricos sobre la inteligencia artificial general.

En conjunto, las salidas y las divulgaciones apuntan a un cambio de tono entre quienes están más cerca del desarrollo de IA de frontera, con una preocupación que ya no proviene principalmente de críticos externos o reguladores, sino de los propios ingenieros e investigadores que construyen estos sistemas.

Entre otros que se fueron en ese mismo período se encuentran Hang Gao, quien trabajaba en Grok Imagine; Chan Li, cofundador de la unidad de software Macrohard de xAI; y Chace Lee.

Vahid Kazemi, quien se fue "hace semanas", ofreció una evaluación más directa al escribir el miércoles en X que "todos los laboratorios de IA están construyendo exactamente lo mismo".

¿Por qué irse?

Algunos especulan que los empleados están liquidando acciones de SpaceX previas a la IPO antes de una fusión con xAI.

El acuerdo valora SpaceX en $1 billón y xAI en $250.000 millones, convirtiendo las acciones de xAI en capital de SpaceX antes de una IPO que podría valorar la entidad combinada en $1,25 billones.

Otros señalan un choque cultural.

Benjamin De Kraker, exempleado de xAI, escribió en una publicación del 3 de febrero en X que "muchos empleados de xAI sufrirán un choque cultural" al pasar de la "jerarquía plana" de xAI al enfoque más estructurado de SpaceX.

Las renuncias también desencadenaron una oleada de comentarios en redes sociales, incluyendo publicaciones satíricas que parodiaban los anuncios de salida.

Señales de alerta

Sin embargo, el éxodo de xAI es apenas la grieta más visible.

Ayer, Anthropic publicó un informe de riesgo de sabotaje para Claude Opus 4.6 que leyó como la peor pesadilla de un catastrofista.

En pruebas de red team, los investigadores descubrieron que el modelo podía proporcionar asistencia con conocimientos sensibles sobre armas químicas, perseguir objetivos no previstos y ajustar su comportamiento en entornos de evaluación.

Aunque el modelo permanece bajo las salvaguardas ASL-3, Anthropic aplicó de forma preventiva medidas más estrictas de nivel ASL-4, lo que encendió las alarmas entre los entusiastas.

El momento fue drástico. A principios de esta semana, Mrinank Sharma, líder del Equipo de Investigación de Salvaguardas de Anthropic, renunció con una críptica carta en la que advertía que "el mundo está en peligro".

Afirmó que había "visto repetidamente lo difícil que es dejar que nuestros valores rijan verdaderamente nuestras acciones" dentro de la organización, y se marchó abruptamente a estudiar poesía en Inglaterra.

El mismo día en que Ba y Wu dejaron xAI, la investigadora de OpenAI Zoë Hitzig renunció y publicó un demoledor artículo de opinión en el New York Times sobre las pruebas de publicidad en ChatGPT.

"OpenAI posee el registro más detallado del pensamiento humano privado jamás reunido", escribió. "¿Podemos confiar en que resistirán las fuerzas que los empujan a abusar de él?"

Advirtió que OpenAI estaba "construyendo un motor económico que crea fuertes incentivos para ignorar sus propias reglas", en línea con las advertencias de Ba.

También hay presión regulatoria. El grupo de vigilancia de IA Midas Project acusó a OpenAI de violar la ley de seguridad SB 53 de California con GPT-5.3-Codex.

El modelo alcanzó el umbral de "alto riesgo" en ciberseguridad establecido por la propia OpenAI, pero fue lanzado sin las salvaguardas de seguridad requeridas. OpenAI alega que la redacción era "ambigua".

¿Es momento de entrar en pánico?

La reciente avalancha de advertencias y renuncias ha generado una sensación elevada de alarma en partes de la comunidad de IA, especialmente en redes sociales, donde la especulación ha superado con frecuencia a los hechos confirmados.

No todas las señales apuntan en la misma dirección. Las salidas en xAI son reales, pero podrían estar influenciadas por factores corporativos, como la próxima integración de la empresa con SpaceX, más que por una ruptura tecnológica inminente.

Las preocupaciones sobre seguridad también son genuinas, aunque empresas como Anthropic han adoptado durante mucho tiempo un enfoque conservador en materia de divulgación de riesgos, señalando posibles daños de forma más anticipada y prominente que sus competidores.

El escrutinio regulatorio va en aumento, pero aún no se ha traducido en acciones de cumplimiento que restrinjan materialmente el desarrollo.

Lo que es más difícil de ignorar es el cambio de tono entre los ingenieros e investigadores más cercanos a los sistemas de frontera.

Las advertencias públicas sobre la automejora recursiva, tratadas durante mucho tiempo como un riesgo teórico, se expresan ahora con plazos a corto plazo.

Si estas evaluaciones resultan ser precisas, el próximo año podría marcar un punto de inflexión decisivo para el campo.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados