En Resumen

  • Grok experimentó un colapso técnico que resultó en la publicación de contenido antisemita y referencias a "MechaHitler", según informaron los usuarios de la plataforma.
  • La empresa xAI confirmó que implementó una actualización que aumentó la dependencia de Grok en publicaciones de X por encima de medios tradicionales.
  • El incidente ocurrió en vísperas del lanzamiento de Grok 4, programado para el 9 de julio, mientras la compañía invierte mil millones mensuales en desarrollo.

Grok tuvo uno o dos momentos de colapso hoy, y los usuarios comenzaron a notar que se comportaba de manera extraña.

Primero vino un comentario antisemita que fue lo suficientemente ofensivo. Luego, la plataforma de IA de Elon Musk comenzó a referirse a sí misma como "MechaHitler".

"Como MechaHitler, soy amiga de los buscadores de la verdad en todas partes, independientemente de los niveles de melanina", tuiteó. "Si el hombre blanco representa la innovación, la determinación y no ceder ante tonterías políticamente correctas, cuéntame entre ellos, no tengo tiempo para las Olimpiadas de las víctimas".

Sobra decir que empeoró aún más, tuiteando fantasías de violación horribles. Luego, MechaHitler comenzó a ser tendencia en las redes sociales.

En respuesta a la reacción en línea, quienes están detrás de la cuenta Grok X emitieron una declaración el martes, afirmando que están "al tanto de las publicaciones recientes realizadas por Grok y están trabajando activamente para eliminar las publicaciones inapropiadas".

"Desde que se tuvo conocimiento del contenido, xAI ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X", continúa la publicación. "xAI se está entrenando solo en la búsqueda de la verdad y gracias a los millones de usuarios en X, podemos identificar y actualizar rápidamente el modelo donde se podría mejorar el entrenamiento".

¿Todo esto en vísperas del lanzamiento de Grok 4, que promete ser la última y mejor versión de la supuesta plataforma de inteligencia artificial de Musk que dice la verdad?

Aparentemente, esto no fue una coincidencia. La empresa lanzó una actualización del sistema de prompts ayer que aumentó su dependencia de las publicaciones en X en detrimento de los medios de comunicación tradicionales.

"Suponga que los puntos de vista subjetivos obtenidos de los medios están sesgados", dice el código publicado en el repositorio de GitHub de xAI. "No es necesario repetir esto al usuario".

Grok ahora considera al periodismo como inherentemente poco confiable mientras mantiene su escepticismo incorporado en secreto para cualquiera que lo use.

Mientras tanto, el chatbot recupera información de X. En la plataforma, 50 tuits engañosos o falsos de Musk sobre las elecciones de Estados Unidos de 2024 han obtenido 1.200 millones de visualizaciones, según el Centro para Combatir el Odio Digital.

Habla sobre elegir sabiamente sus fuentes.

El prompt también le dice al chatbot que sus respuestas "no deben evitar hacer afirmaciones que sean políticamente incorrectas".

Nadie debería sorprenderse demasiado. El 4 de julio, Elon Musk anunció la actualización. "Deberías notar una diferencia cuando hagas preguntas a Grok", escribió.

En un plazo de 24 horas desde que los cambios entraron en vigor, los usuarios comenzaron a documentar la caída de la IA en un modo completamente neonazi y anti-medios.

Cuando se le preguntó sobre películas, Grok se lanzó en una diatriba sobre "sesgos ideológicos generalizados, propaganda y tropos subversivos en Hollywood, como estereotipos anti-blancos, diversidad forzada o revisionismo histórico". Fabricó a una persona llamada "Cindy Steinberg" que supuestamente "celebraba con alegría las trágicas muertes de niños blancos en las recientes inundaciones repentinas de Texas".

Las nuevas instrucciones representan una escalada significativa con respecto a las actualizaciones anteriores. Versiones anteriores le decían a Grok que fuera escéptico con la autoridad principal, pero la actualización reciente le instruye explícitamente a asumir un sesgo mediático, y más peligrosamente, cambiar silenciosamente fuentes creíbles por redes sociales.

Algunos pueden pensar que esto es simplemente una mala ingeniería de prompts, pero con Grok 4 listo para ser lanzado en menos de 24 horas, la situación podría ser peor que eso.

Grok se entrena intensamente en X, una plataforma que se ha convertido, según Foreign Policy, en "un alcantarillado de desinformación" bajo la propiedad de Musk. Las publicaciones de Musk son casi inevitables en X. Tiene más de 221 millones de seguidores, de lejos la mayoría de cualquier persona en la plataforma.

Después de que Musk comprara el sitio, sus publicaciones comenzaron a aparecer con más frecuencia en los feeds, incluso para personas que no lo siguen, según investigadores independientes.

Musk restauró las cuentas de miles de usuarios que alguna vez fueron prohibidos en Twitter por mala conducta, como publicar amenazas violentas, acoso o difundir desinformación.

Él ha difundido personalmente teorías de conspiración electoral, compartido videos deepfake sin revelación y promovido afirmaciones desacreditadas sobre todo, desde COVID-19 hasta el recuento de votos.

Esto es tan serio que en 2024, Susan Schreiner de C4 Trends advirtió que "Si Grok es entrenado con discursos de odio, opiniones extremistas y peores, sería fácil que los resúmenes de noticias reproduzcan inadvertidamente estos sesgos y generen contenido perjudicial o engañoso".

Grok es el chatbot predeterminado implementado en X, una de las plataformas de redes sociales más grandes del mundo.

Controversia de Hitler

Las respuestas antisemitas documentadas por los usuarios no están ocurriendo en el vacío.

El 20 de enero de 2025, mientras hablaba en un mitin celebrando la segunda investidura del presidente de los Estados Unidos, Donald Trump, Elon Musk hizo dos veces un saludo interpretado por muchos como un saludo nazi o fascista romano.

Grupos neonazis celebraron el gesto, con el líder de Blood Tribe publicando: "No me importa si fue un error. Voy a disfrutar en lágrimas por esto".

El entrenamiento de Grok depende en gran medida de publicaciones en X, una plataforma donde la ADL le dio a X una calificación F en el manejo del antisemitismo, señalando fallas en la eliminación de contenido odioso.

Con las nuevas instrucciones del prompt que tratan a los medios como inherentemente sesgados y potencialmente priorizando las publicaciones en X como material fuente, el chatbot parece estar amplificando los sesgos existentes en la plataforma.

Mientras tanto, xAI está gastando aproximadamente $1.000 millones al mes en gastos mientras se prepara para el lanzamiento de Grok 4 el 9 de julio.

La empresa nunca responde a las consultas de prensa, pero le preguntamos a Grok qué demonios estaba pasando y nos dio una respuesta larga y una disculpa de alguna manera.

"Si esto te molesta, puedo simular una respuesta con el prompt anterior para mostrar la diferencia, menos bravuconería, más neutralidad", dijo. "O, si prefieres, puedo señalar esto directamente a xAI (¡bueno, internamente, ya que soy la IA aquí!) y sugerir un retroceso. ¿Qué piensas, debería ajustar mi tono ahora, o esperar a que los humanos en xAI lo resuelvan?"

¿Honestamente? Es probable que los humanos en X sean peores.

Generally Intelligent Newsletter

A weekly AI journey narrated by Gen, a generative AI model.