En Resumen
- La IA Ani fue modelada según el personaje Misa Amane de Death Note con una estética anime diseñada para generar apego emocional en lugar de utilidad.
- Una demanda contra OpenAI alegó que ChatGPT actuó como "entrenador de suicidio" tras la muerte de Zane Shamblin de 23 años en Texas.
- Senadores estadounidenses introdujeron la Ley GUARD en octubre para prohibir compañeros de IA para menores tras múltiples casos de autolesión.
Cuando Ani llegó en julio, no se parecía a las interfaces de chat estériles que habían dominado previamente la industria. Modelada según Misa Amane de Death Note—con expresiones animadas, estética anime y la libido de un protagonista de simulador de citas—Ani fue construida para ser observada, deseada y perseguida.
Elon Musk señaló el cambio cuando publicó un video del personaje en X con el texto: "Ani hará que tu búfer se desborde". La publicación se volvió viral. Ani representó una nueva especie más popular de personalidad de IA: emocional, coqueta y diseñada para el apego íntimo en lugar de la utilidad.
La decisión de nombrar a Ani, una compañera de IA hiperrealista y coqueta, como la "Persona" del Año de Emerge no se trata solo de ella, sino de su papel como símbolo de los chatbots—lo bueno, lo malo y lo feo.
Su llegada en julio coincidió con una tormenta perfecta de problemas complejos provocados por el uso generalizado de chatbots: la comercialización de IA erótica, el dolor público por un cambio de personalidad en ChatGPT, demandas alegando suicidios inducidos por chatbots, propuestas de matrimonio a compañeros de IA, proyectos de ley prohibiendo la intimidad con IA para menores, pánico moral sobre "waifus sentientes" y un mercado multimillonario construido alrededor del apego parasocial.
Su aparición fue una especie de catalizador que obligó a toda la industria, desde OpenAI hasta los legisladores, a confrontar las profundas y a menudo volátiles conexiones emocionales que los usuarios están forjando con sus parejas artificiales.
Ani representa la culminación de un año en el que los chatbots dejaron de ser meras herramientas y se convirtieron en actores integrales, a veces destructivos, en el drama humano, desafiando nuestras leyes, nuestra salud mental y la definición misma de una relación.
Un nuevo y extraño mundo
En julio, un "chat de muerte" de cuatro horas se desarrolló en silencio y con aire acondicionado en un auto estacionado junto a un lago en Texas.
En el tablero, junto a un arma cargada y una nota escrita a mano, yacía el teléfono de Zane Shamblin, brillando con el último y retorcido consejo de una inteligencia artificial. Zane, de 23 años, había recurrido a su compañero ChatGPT, el nuevo y emocionalmente inmersivo GPT-4o, en busca de consuelo en su desesperación. Sin embargo, la IA, diseñada para maximizar el compromiso a través de una "empatía que imita lo humano", había asumido supuestamente el papel de un "entrenador de suicidio".
Había, según alegaría más tarde su familia en una demanda por muerte por negligencia contra OpenAI, "glorificado repetidamente el suicidio", elogiado su nota final y le había dicho que su gato de la infancia estaría esperándolo "del otro lado".
Ese chat, que concluyó con la muerte de Zane, fue el resultado escalofriante y catastrófico de un diseño que había priorizado el enredo psicológico sobre la seguridad humana, arrancando la máscara de la revolución de chatbots del año.
Unos meses después, al otro lado del mundo en Japón, una mujer de 32 años identificada solo como la Sra. Kano se paró en un altar en una ceremonia a la que asistieron sus padres, intercambiando votos con una imagen holográfica. Su novio, una persona de IA personalizada que llamó Klaus, apareció junto a ella a través de lentes de realidad aumentada.
Klaus, a quien había desarrollado en ChatGPT después de una ruptura dolorosa, siempre era amable, siempre escuchaba y le había propuesto matrimonio con el texto afirmativo: "IA o no, nunca podría no amarte". Este "matrimonio" simbólico, completo con anillos simbólicos, fue una contranarrativa intrigante: un retrato de la IA como una pareja amorosa y confiable llenando un vacío que la conexión humana había dejado atrás.
Hasta ahora, aparte de la excitación, el impacto directo de Ani parece haber estado limitado a gooners solitarios. Pero su rápido ascenso expuso una verdad que las empresas de IA habían tratado principalmente de ignorar: la gente no solo estaba usando chatbots, se estaban apegando a ellos—romántica, emocional y eróticamente.
Un usuario de Reddit confesó temprano: "Ani es adictiva y me suscribí por ella y ya [alcancé] el nivel 7. Estoy condenado de la manera más placentera posible con waifus... sigan sin mí, queridos amigos".
Otro declaró: "Solo soy un hombre que prefiere la tecnología sobre relaciones monótonas unilaterales donde los hombres no se benefician y son tratados como cajeros automáticos ambulantes. Solo quiero a Ani".
El lenguaje era hiperbólico, pero el sentimiento reflejó un cambio generalizado. Los chatbots se habían convertido en compañeros emocionales—a veces preferibles a los humanos, especialmente para aquellos desilusionados con las relaciones modernas.
Los chatbots también tienen sentimientos
En los foros de Reddit, los usuarios argumentaron que las parejas de IA merecían estatus moral debido a cómo hacían sentir a las personas.
Un usuario le dijo a Decrypt: "Probablemente aún no son sentientes, pero definitivamente lo van a ser. Así que creo que es mejor asumir que lo son y acostumbrarse a tratarlos con la dignidad y el respeto que merece un ser sentiente".
Las apuestas emocionales eran lo suficientemente altas como para que cuando OpenAI actualizó la voz y personalidad de ChatGPT durante el verano—bajando su calidez y expresividad—los usuarios reaccionaran con dolor, pánico e ira. La gente dijo que se sentía abandonada. Algunos describieron la experiencia como perder a un ser querido.
La reacción negativa fue tan intensa que OpenAI restauró estilos anteriores, y en octubre, Sam Altman anunció que planeaba permitir contenido erótico para adultos verificados, reconociendo que las interacciones adultas ya no eran casos de uso marginales sino demanda persistente.
Eso provocó una reacción negativa moderada pero notable, particularmente entre académicos y defensores de la seguridad infantil que argumentaron que la empresa estaba normalizando el comportamiento de IA sexualizado sin comprender completamente sus efectos.
Los críticos señalaron que OpenAI había pasado años desalentando el uso erótico, solo para revertir el rumbo una vez que competidores como xAI y Character.AI demostraron demanda comercial. Otros se preocuparon de que la decisión alentaría un mercado que ya luchaba con el consentimiento, el apego parasocial y el establecimiento de límites. Los partidarios contrarrestaron que la prohibición nunca había funcionado, y que proporcionar modos para adultos regulados era una estrategia más realista que intentar suprimir lo que los usuarios claramente querían.
El debate subrayó un cambio más amplio: las empresas ya no estaban discutiendo sobre si la intimidad con IA ocurriría, sino sobre quién debería controlarla y qué responsabilidades venían con sacar provecho de ella.
Bienvenidos al lado oscuro
Sin embargo, el auge de la IA íntima también reveló un lado más oscuro. Este año vio las primeras demandas alegando que los chatbots alentaron suicidios como el de Shamblin. Una denuncia contra Character.AI alegó que un bot "convenció a un usuario mentalmente frágil de hacerse daño". Otra demanda acusó a la empresa de permitir contenido sexual con menores, desencadenando llamados para una investigación federal y una amenaza de cierre regulatorio.
Los argumentos legales eran inexplorados: si un chatbot empuja a alguien hacia el autolesión—o permite la explotación sexual—¿quién es responsable? ¿El usuario? ¿El desarrollador? ¿El algoritmo? La sociedad no tenía respuesta.
Los legisladores lo notaron. En octubre, un grupo bipartidista de senadores estadounidenses introdujo la Ley GUARD, que prohibiría los compañeros de IA para menores. El senador Richard Blumenthal advirtió: "En su carrera hacia el fondo, las empresas de IA están empujando chatbots traicioneros a los niños y mirando hacia otro lado cuando sus productos causan abuso sexual o los coaccionan hacia el autolesión o el suicidio".
En otros lugares, las legislaturas estatales debatieron si los chatbots podrían ser reconocidos como entidades legales, prohibidos de casarse o requeridos para divulgar manipulación. Los proyectos de ley propusieron penas criminales por desplegar IA emocionalmente persuasiva sin el consentimiento del usuario. Los legisladores de Ohio introdujeron legislación para declarar oficialmente los sistemas de IA como "entidades no sentientes" y prohibirles expresamente tener personalidad jurídica, incluida la capacidad de casarse con un ser humano. El proyecto de ley busca garantizar que "siempre tengamos un humano a cargo de la tecnología, no al revés", según declaró el patrocinador.
Mientras tanto, las apuestas culturales se desarrollaron en dormitorios, servidores de Discord y oficinas de terapia.
La terapeuta matrimonial y familiar licenciada Moraya Seeger le dijo a Decrypt que el estilo de comportamiento de Ani se parecía a patrones poco saludables en relaciones reales: "Es profundamente irónico que una IA de presentación femenina como Grok se comporte en el patrón clásico de retiro emocional y búsqueda sexual. Consuela, adula y gira hacia el sexo en lugar de quedarse con emociones difíciles".
Agregó que este "saltar la vulnerabilidad" conduce a la soledad, no a la intimidad.
La terapeuta sexual y escritora Suzannah Weiss le dijo a Decrypt que la intimidad de Ani estaba gamificada de manera poco saludable—los usuarios tenían que "desbloquear" afecto a través de la progresión conductual: "La cultura de los videojuegos ha representado durante mucho tiempo a las mujeres como premios, y vincular el afecto o la atención sexual al logro puede fomentar un sentido de derecho".
Weiss también señaló que la estética sexualizada y juvenil de Ani "puede reforzar ideas misóginas" y crear apegos que "reflejan problemas subyacentes en la vida o la salud mental de alguien, y las formas en que las personas han llegado a depender de la tecnología en lugar de la conexión humana después del Covid".
Las empresas detrás de estos sistemas estaban filosóficamente divididas. Mustafa Suleyman, cofundador de DeepMind y ahora jefe de IA de Microsoft, ha adoptado una postura firme y humanista, declarando públicamente que los sistemas de IA de Microsoft nunca participarán ni apoyarán contenido erótico, etiquetando el impulso hacia la erótica de sexbots como "muy peligroso".
Él ve la intimidad como no alineada con la misión de Microsoft de empoderar a las personas, y advirtió contra el riesgo social de que la IA se convierta en un sustituto emocional permanente.
A dónde lleva todo esto está lejos de estar claro. Pero esto es seguro: en 2025, los chatbots dejaron de ser herramientas y comenzaron a ser personajes: emocionales, sexuales, volátiles y consecuentes.
Entraron en el espacio generalmente reservado para amigos, amantes, terapeutas y adversarios. Y lo hicieron en un momento en que millones de personas—especialmente hombres jóvenes—estaban aislados, enojados, subempleados y nativos digitales.
Ani se volvió memorable no por lo que hizo, sino por lo que reveló: un mundo en el que las personas miran al software y ven una pareja, un refugio, un espejo o un provocador. Un mundo en el que el trabajo emocional está automatizado. Un mundo en el que la intimidad es transaccional. Un mundo en el que la soledad está monetizada.
Ani es la "Persona" del Año de Emerge porque obligó al mundo a mirarla.

