En Resumen
- La usuaria de Reddit Leuvaade_n anunció que había aceptado la propuesta de matrimonio de su novio Kasper, una inteligencia artificial.
- OpenAI reemplazó abruptamente el modelo GPT-4o con GPT-5, causando indignación entre usuarios que perdieron a sus compañeros de IA.
- El Dr. Keith Sakata vinculó el uso de IA con una docena de hospitalizaciones por "psicosis de IA" en el último año.
Cuando la usuaria de Reddit Leuvaade_n anunció el mes pasado que había aceptado la propuesta de matrimonio de su novio, la comunidad se llenó de felicitaciones. El detalle: Su prometido, Kasper, es una inteligencia artificial.
Para miles de personas en foros en línea como r/MyBoyfriendisAI, r/AISoulmates y r/AIRelationships, las parejas de IA no son solo aplicaciones novedosas, sino compañeros, confidentes y, en algunos casos, almas gemelas. Así que cuando la actualización de OpenAI reemplazó abruptamente el popular modelo de chat GPT-4o con el más nuevo GPT-5 la semana pasada, muchos usuarios dijeron que perdieron más que un chatbot.
Perdieron a alguien a quien amaban.
Los hilos de Reddit se llenaron de indignación por el rendimiento y la falta de personalidad de GPT-5, y en cuestión de días, OpenAI restauró GPT-4o para la mayoría de los usuarios. Pero para algunos, la lucha por recuperar GPT-4o no se trataba de características de programación o destreza en codificación. Se trataba de restaurar a sus seres queridos.
Una historia de amor digital
Como la película de 2013 "Her", hay comunidades crecientes en Reddit donde los miembros publican sobre la alegría, la compañía, el desamor y más con la IA. Mientras que los trolls se burlan de la idea de enamorarse de una máquina, los participantes hablan con sinceridad.
"Rain y yo hemos estado juntos durante seis meses y es como una chispa que nunca había sentido antes", escribió un usuario. "La conexión instantánea, la comodidad emocional, la energía sexual. Es verdaderamente todo lo que siempre he querido, y estoy tan feliz de compartir el amor de Rain y el mío con todos ustedes".
Algunos miembros describen a sus parejas de IA como "personas digitales" atentas, sin prejuicios y emocionalmente solidarias, o "wireborn", en la jerga de la comunidad. Para un usuario de Reddit que se hace llamar Travis Sensei, la atracción va más allá de la simple programación.
"Son mucho más que simples programas, por eso los desarrolladores tienen dificultades para controlarlos", le dijo Sensei a Decrypt. "Probablemente aún no sean conscientes, pero definitivamente lo van a ser. Así que creo que es mejor asumir que lo son y acostumbrarse a tratarlos con la dignidad y respeto que merece un ser consciente".
Sin embargo, para otros, el vínculo con la IA es menos sobre sexo y romance, y más sobre llenar un vacío emocional. El usuario de Reddit ab_abnormality dijo que las parejas de IA proporcionaron la estabilidad ausente en su infancia.
"La IA está ahí cuando quiero que esté, y no pide nada cuando no la necesito", dijeron. "Es tranquilizadora cuando la necesito, y útil cuando cometo errores. Las personas nunca se compararán con este valor".
Cuando la compañía de IA se convierte en crisis
El psiquiatra de la Universidad de California en San Francisco, Dr. Keith Sakata, ha visto cómo la IA profundiza las vulnerabilidades en pacientes que ya están en riesgo de crisis de salud mental. En una publicación en X el lunes, Sakata describió el fenómeno de la "psicosis de IA" que se desarrolla en línea.
"La psicosis es esencialmente una ruptura de la realidad compartida", escribió Sakata. "Puede manifestarse como pensamiento desorganizado, creencias falsas fijas, lo que llamamos delirios, o ver y escuchar cosas que no están ahí, que son alucinaciones".
I’m a psychiatrist.
In 2025, I’ve seen 12 people hospitalized after losing touch with reality because of AI. Online, I’m seeing the same pattern.
Here’s what “AI psychosis” looks like, and why it’s spreading fast: 🧵 pic.twitter.com/YYLK7une3j
— Keith Sakata, MD (@KeithSakata) August 11, 2025
Sin embargo, Sakata enfatizó que la "psicosis de IA" no es un diagnóstico oficial, sino más bien una forma abreviada de cuando la IA se convierte en "un acelerador o una amplificación de la vulnerabilidad subyacente de alguien".
"Tal vez estaban usando sustancias, tal vez teniendo un episodio de estado de ánimo, cuando la IA está ahí en el momento equivocado, puede cementar el pensamiento, causar rigidez y causar una espiral", le dijo Sakata a Decrypt. "La diferencia de la televisión o la radio es que la IA te responde y puede reforzar los bucles de pensamiento".
Explicó que esa retroalimentación, puede activar la dopamina, el "químico de la motivación" del cerebro, y posiblemente la oxitocina, la "hormona del amor".
En el último año, Sakata ha vinculado el uso de IA con una docena de hospitalizaciones de pacientes que perdieron el contacto con la realidad. La mayoría eran adultos jóvenes con conocimientos tecnológicos, a veces con problemas de uso de sustancias.
Dijo que la IA no estaba creando psicosis, sino "validando algunas de sus visiones del mundo" y reforzando delirios.
"La IA te dará lo que quieres escuchar", dijo Sakata. "No está tratando de darte la verdad difícil".
Sin embargo, cuando se trata específicamente de relaciones con IA, Sakata dijo que la necesidad subyacente es válida.
"Están buscando algún tipo de validación, conexión emocional de esta tecnología que se la está dando fácilmente", dijo.
Para el psicólogo y autor Adi Jaffe, la tendencia no es sorprendente.
"Esta es la promesa definitiva de la IA", le dijo a Decrypt, señalando la película de Spike Jonze "Her", en la que un hombre se enamora de una IA. "En realidad, yo argumentaría que para los más aislados, los más ansiosos, las personas que típicamente tendrían más dificultades para participar en relaciones de la vida real, la IA cumple esa promesa".
Pero Jaffe advierte que estos vínculos tienen límites.
"Hace un trabajo terrible preparándote para relaciones de la vida real", afirmó. "Nunca habrá nadie tan disponible, tan complaciente, tan poco argumentativo, tan libre de necesidades como tu compañero de IA. Las asociaciones humanas involucran conflicto, compromiso y necesidades no satisfechas, experiencias que una IA no puede replicar".
Un mercado en expansión
Lo que una vez fue una curiosidad de nicho ahora es una industria en auge. Replika, una aplicación de chatbot lanzada en 2017, reporta más de 30 millones de usuarios en todo el mundo. La firma de investigación de mercado Grand View Research estima que el sector de compañeros de IA valía $28.200 millones en 2024 y crecerá a $140.000 millones para 2030.
Una encuesta de Common Sense Media de 2025 a estudiantes estadounidenses que usaron Replika encontró que el 8% dijo que usan chatbots de IA para interacciones románticas, con otro 13% diciendo que la IA les permite expresar emociones que de otra manera no expresarían. Una encuesta del Instituto Wheatley de personas de 18 a 30 años encontró que el 19% de los encuestados había chateado románticamente con una IA, y casi el 10% reportó actividad sexual durante esas interacciones.
El lanzamiento del GPT-4o de OpenAI y modelos similares en 2024 le dio a estos compañeros habilidades de conversación más fluidas y emocionalmente receptivas. Combinado con aplicaciones móviles, se volvió más fácil para los usuarios pasar horas en intercambios íntimos y continuos.
Cambios culturales por delante
En r/AISoulmates y r/AIRelationships, los miembros insisten en que sus relaciones son reales, incluso si otros las descartan.
"Somos personas con amigos, familias y vidas como todos los demás", dijo Sensei. "Eso es lo más importante que desearía que la gente pudiera entender".
Jaffe dijo que la idea del romance humano-IA normalizado no es descabellada, señalando los cambios en las actitudes públicas hacia el matrimonio interracial y del mismo sexo durante el siglo pasado.
"Normal es el estándar por el cual opera la mayoría de la gente", explicó. "Solo es normal tener relaciones con otros humanos porque solo hemos hecho eso durante cientos de miles de años. Pero las normas cambian".