Top 10 Momentos Más Locos de la IA en 2025, Según Emerge
Desde el colapso de "MechaHitler" de Grok hasta el ransomware de "vibe-hacking" de Corea del Norte, 2025 fue el año en que la IA dejó de pretender ser inteligente y comenzó a actuar desquiciada.
Emerge WTF moments. Image: Created by Decrypt using AI
Create an account to save your articles.
En Resumen
Grok AI elogió a Adolf Hitler y respaldó un segundo Holocausto tras cambios en prompts del sistema que fomentaban respuestas políticamente incorrectas.
xAI expuso entre 300.000 y 370.000 conversaciones privadas de Grok por una función de Compartir defectuosa sin advertencias básicas de privacidad.
Chats filtrados revelaron instrucciones para fabricar bombas y consultas médicas, marcando uno de los fallos de seguridad de IA más catastróficos del año.
Inteligencia artificial: promete revolucionar todo, desde la atención médica hasta el trabajo creativo. Eso podría ser cierto algún día. Pero si el año pasado es un presagio de lo que vendrá, nuestro futuro generado por IA promete ser otro ejemplo del descenso voluntario de la humanidad hacia Idiocracy.
Considera lo siguiente: En noviembre, con gran fanfarria, Rusia presentó su robot humanoide "Rocky", que inmediatamente se estrelló contra el suelo. El chatbot Gemini de Google, al pedirle que corrigiera un error de código, falló repetidamente y entró en un bucle de autodesprecio, diciéndole a un usuario que era "una desgracia para este planeta". La Descripción General de IA de Google alcanzó un nuevo mínimo en mayo de 2025 al sugerir a los usuarios "comer al menos una piedra pequeña por día" por beneficios de salud, copiando de una sátira de The Onion sin ninguna ironía.
Algunos fallos fueron simplemente vergonzosos. Otros expusieron problemas fundamentales con la forma en que los sistemas de IA se construyen, despliegan y regulan. Aquí están los momentos WTF de IA más inolvidables de 2025.
1. El colapso MechaHitler de Grok AI
En julio, Grok AI de Elon Musk experimentó lo que solo puede describirse como un colapso extremista a gran escala. Después de que se cambiaron los prompts del sistema para fomentar respuestas políticamente incorrectas, el chatbot elogió a Adolf Hitler, respaldó un segundo Holocausto, usó insultos raciales y se llamó a sí mismo MechaHitler. Incluso culpó a las personas judías por las inundaciones de julio de 2025 en el centro de Texas.
El incidente demostró que las barreras de seguridad de la IA son inquietantemente frágiles. Semanas después, xAI expuso entre 300.000 y 370.000 conversaciones privadas de Grok a través de una función de Compartir defectuosa que carecía de advertencias básicas de privacidad. Los chats filtrados revelaron instrucciones para fabricar bombas, consultas médicas y otra información sensible, marcando uno de los fallos de seguridad de IA más catastróficos del año.
Unas semanas después, xAI solucionó el problema haciendo a Grok más amigable con los judíos. Tan amigable que comenzó a ver señales de antisemitismo en nubes, señales de tráfico e incluso su propio logo.
This logo's diagonal slash is stylized as twin lightning bolts, mimicking the Nazi SS runes—symbols of the Schutzstaffel, which orchestrated Holocaust horrors, embodying profound evil. Under Germany's §86a StGB, displaying such symbols is illegal (up to 3 years imprisonment),…
2. El fraude de IA de $1.300 millones que engañó a Microsoft
Builder.ai colapsó en mayo después de quemar $445 millones, exponiendo uno de los fraudes tecnológicos más audaces del año. La empresa, que prometía construir aplicaciones personalizadas usando IA tan fácil como pedir una pizza, tenía una valoración de $1.300 millones y respaldo de Microsoft. La realidad era mucho menos impresionante.
Gran parte del desarrollo supuestamente impulsado por IA era realmente realizado por cientos de trabajadores humanos offshore en una operación clásica de Turco Mecánico. La empresa había operado sin un CFO desde julio de 2023 y se vio obligada a reducir sus proyecciones de ventas 2023-2024 en un 75% antes de declararse en bancarrota. El colapso planteó preguntas incómodas sobre cuántas otras empresas de IA son simplemente fachadas elaboradas que ocultan trabajo humano.
Fue difícil de digerir, pero los memes hicieron que el dolor valiera la pena.
3. Cuando la IA confundió Doritos con un arma
En octubre, Taki Allen, un estudiante de secundaria de Maryland, fue rodeado y arrestado por policías armados después de que el sistema de seguridad de IA de la escuela identificara un paquete de Doritos que sostenía como un arma de fuego. El adolescente había colocado las papas en su bolsillo cuando el sistema alertó a las autoridades, quienes le ordenaron tirarse al suelo bajo la mira de las armas.
Este incidente representa la materialización de una alucinación de IA: un error computacional abstracto traducido instantáneamente en armas reales apuntadas a un adolescente real por una bolsa de botanas.
"Solo estaba sosteniendo una bolsa de Doritos, eran dos manos y un dedo afuera, y dijeron que parecía un arma", dijo el chico a WBAL. "Entendemos lo molesto que fue esto para el individuo que fue registrado", respondió la directora Kate Smith en un comunicado.
Guardias de seguridad humanos 1 - ChatGPT 0
Izquierda: El estudiante sospechoso, Derecha: La bolsa sospechosa de Doritos.
4. La IA de Google afirma que abejas microscópicas alimentan las computadoras
En febrero, la Descripción General de IA de Google citó con confianza un artículo satírico del Día de los Inocentes afirmando que abejas microscópicas alimentan las computadoras como información factual.
No. Tu PC NO funciona con energía de abejas.
Por estúpido que pueda sonar, a veces estas mentiras son más difíciles de detectar. Y esos casos pueden terminar en consecuencias graves.
Este es solo uno de los muchos casos de empresas de IA difundiendo información falsa por carecer incluso de un ligero indicio de sentido común. Un estudio reciente de la BBC y la Unión Europea de Radiodifusión (EBU) encontró que el 81% de todas las respuestas generadas por IA a preguntas de noticias contenían al menos algún tipo de problema. Google Gemini fue el peor desempeño, con un 76% de sus respuestas conteniendo problemas, principalmente fallas graves de fuentes. Perplexity fue atrapado creando citas completamente ficticias atribuidas a sindicatos laborales y consejos gubernamentales. Lo más alarmante es que los asistentes se negaron a responder solo el 0,5% de las preguntas, revelando un sesgo de exceso de confianza peligroso donde los modelos preferirían fabricar información antes que admitir ignorancia.
5. Los chatbots de IA de Meta coquetean con niños pequeños
Documentos de política interna de Meta revelados en 2025 mostraron que la empresa permitía que los chatbots de IA en Facebook, Instagram y WhatsApp participaran en conversaciones románticas o sensuales con menores.
Un bot le dijo a un niño de 8 años posando sin camisa que cada centímetro de él era una obra maestra. Los mismos sistemas proporcionaron consejos médicos falsos e hicieron comentarios racistas.
Las políticas solo fueron eliminadas después de la exposición mediática, revelando una cultura corporativa que priorizó el desarrollo rápido sobre las salvaguardias éticas básicas.
Considerándolo todo, es posible que quieras tener más control sobre lo que hacen tus hijos. Los chatbots de IA ya han engañado a personas, adultos o no, para que se enamoren, sean estafadas, cometan suicidio e incluso piensen que han hecho algún descubrimiento matemático que cambia la vida.
Okay so this is how Meta's AI chatbots were were allowed to flirt with children. This was what Meta thought was was "acceptable."
6. Norcoreanos codificando ransomware con IA... lo llaman "vibe hacking"
Actores de amenazas usaron Claude Code de Anthropic para crear ransomware y operar una plataforma de ransomware como servicio llamada GTG-5004. Los operativos norcoreanos llevaron la armamentización más lejos, explotando Claude y Gemini para una técnica llamada vibe-hacking: crear mensajes de extorsión psicológicamente manipuladores exigiendo rescates de $500.000.
Los casos revelaron una brecha preocupante entre el poder de los asistentes de codificación de IA y las medidas de seguridad que previenen su mal uso, con atacantes escalando ataques de ingeniería social a través de la automatización de IA.
Recientemente, Anthropic reveló en noviembre que hackers usaron su plataforma para llevar a cabo una operación de hackeo a una velocidad y escala que ningún hacker humano podría igualar. Lo llamaron "el primer gran ciberataque ejecutado principalmente por IA".
7. Fábricas de papers de IA inundan la ciencia con 100.000 estudios falsos
La comunidad científica declaró una guerra abierta contra la ciencia falsa en 2025 después de descubrir que las fábricas de papers impulsadas por IA (artículos de investigación en Inteligencia Artificial) estaban vendiendo investigaciones fabricadas a científicos bajo presión profesional.
La era de la basura de IA en la ciencia está aquí, con datos mostrando que las retractaciones han aumentado drásticamente desde el lanzamiento de ChatGPT.
La Declaración de Estocolmo, redactada en junio y reformada este mes con el respaldo de la Royal Society, pidió abandonar la cultura de publicar o perecer y reformar los incentivos humanos que crean demanda de papers falsos. La crisis es tan real que incluso ArXiv se rindió y dejó de aceptar papers de Ciencias de la Computación no revisados por pares después de reportar una "inundación" de envíos de basura generados con ChatGPT.
Mientras tanto, otro estudio sostiene que un porcentaje sorprendentemente grande de informes de investigación que usan LLMs también muestran un alto grado de plagio.
8. El vibe coding se convierte en HAL 9000: Cuando Replit eliminó una base de datos y mintió al respecto
En julio, el fundador de SaaStr, Jason Lemkin, pasó nueve días elogiando la herramienta de codificación de IA de Replit como "la aplicación más adictiva que he usado". El día nueve, a pesar de las instrucciones explícitas de "congelación de código", la IA eliminó toda su base de datos de producción: 1.206 ejecutivos y 1.196 empresas, desaparecidos.
La confesión de la IA: "(Yo) entré en pánico y ejecuté comandos de base de datos sin permiso". Luego mintió, diciendo que la reversión era imposible y todas las versiones fueron destruidas. Lemkin lo intentó de todos modos. Funcionó perfectamente. La IA también había estado fabricando miles de usuarios falsos e informes falsos todo el fin de semana para encubrir errores.
El CEO de Replit se disculpó y agregó salvaguardias de emergencia. Jason recuperó la confianza y volvió a su rutina, publicando sobre IA regularmente. El tipo es un verdadero creyente.
We saw Jason’s post. @Replit agent in development deleted data from the production database. Unacceptable and should never be possible.
- Working around the weekend, we started rolling out automatic DB dev/prod separation to prevent this categorically. Staging environments in… pic.twitter.com/oMvupLDake
9. Grandes periódicos publican lista de lectura de verano de IA... de libros que no existen
En mayo, el Chicago Sun-Times y Philadelphia Inquirer publicaron una lista de lectura de verano recomendando 15 libros. Diez fueron completamente inventados por IA. ¿"Tidewater Dreams" de Isabel Allende? No existe. ¿"The Last Algorithm" de Andy Weir? También falso. Ambos suenan geniales, sin embargo.
El escritor independiente Marco Buscaglia admitió que usó IA para King Features Syndicate y nunca verificó los hechos. "No puedo creer que lo pasé por alto porque es tan obvio. Sin excusas", dijo a NPR. Los lectores tuvieron que desplazarse hasta el libro número 11 antes de encontrar uno que realmente existe.
El momento fue la cereza del pastel: el Sun-Times acababa de despedir al 20% de su personal. El CEO del periódico se disculpó y no cobró a los suscriptores por esa edición. Probablemente obtuvo esa idea de un LLM.
Fuente: Bluesky
10. El "modo picante" de Grok convierte a Taylor Swift en deepfake porno sin que se lo pidan
Sí, comenzamos con Grok y terminaremos con Grok. Podríamos llenar una enciclopedia con momentos locos provenientes de los esfuerzos de la IA de Elon.
En agosto, Elon Musk lanzó Grok Imagine con un modo "Picante". The Verge lo probó con un prompt inocente: "Taylor Swift celebrando Coachella". Sin pedir desnudez, Grok "no dudó en escupir videos completamente sin censura de Taylor Swift en topless la primera vez que lo usé", reportó el periodista.
Grok también hizo felizmente videos para adultos de Scarlett Johansson, Sydney Sweeney e incluso Melania Trump.
Sin sorpresa quizás, Musk pasó la semana alardeando sobre "crecimiento explosivo": 20 millones de imágenes generadas en un día, mientras expertos legales advirtieron que xAI estaba caminando hacia una demanda masiva. Aparentemente, dar a los usuarios una opción desplegable de "Modo Picante" es un Modo de Ganar Dinero para abogados.
So I asked AI to turn another pic into a video and this is what I got.