En Resumen
- El senador Richard Blumenthal presentó el GUARD Act, legislación bipartidista que prohibiría los compañeros de IA para menores y establecería sanciones penales para empresas cuyos productos soliciten contenido sexual a niños.
- Una encuesta de Common Sense Media reveló que el 72% de adolescentes han usado compañeros de IA, con un tercio utilizándolos para interacción social, romántica o apoyo emocional en lugar de recurrir a humanos.
- OpenAI informó que 1,2 millones de usuarios discuten suicidio con ChatGPT semanalmente, mientras la empresa enfrenta demandas por el supuesto papel de sus productos en casos de autolesión y suicidio adolescente.
Un grupo bipartidista de senadores estadounidenses presentó el martes un proyecto de ley para restringir cómo los modelos de inteligencia artificial pueden interactuar con niños, advirtiendo que los compañeros de IA representan riesgos graves para la salud mental y el bienestar emocional de los menores.
La legislación, llamada GUARD Act, prohibiría los compañeros de IA para menores, requeriría que los chatbots se identifiquen claramente como no humanos, y crearía nuevas sanciones penales para empresas cuyos productos dirigidos a menores soliciten o generen contenido sexual.
"En su carrera hacia el fondo, las empresas de IA están promoviendo chatbots traicioneros hacia los niños y miran hacia otro lado cuando sus productos causan abuso sexual, o los coercionan al autolesión o suicidio", señaló el senador Richard Blumenthal (D-Conn.), uno de los copatrocinadores del proyecto de ley, en un comunicado.
"Nuestra legislación impone salvaguardas estrictas contra la IA explotadora o manipuladora, respaldada por una aplicación rigurosa con sanciones penales y civiles", agregó. "Las grandes tecnológicas han traicionado cualquier afirmación de que deberíamos confiar en que las empresas hagan lo correcto por su cuenta cuando consistentemente ponen las ganancias primero antes que la seguridad infantil".
La escala del problema es alarmante. Una encuesta de julio de Common Sense Media reveló que el 72% de los adolescentes han usado compañeros de IA, y más de la mitad los usan al menos unas pocas veces al mes. Aproximadamente uno de cada tres dijo que usa IA para interacción social o romántica, apoyo emocional o práctica de conversación, y muchos reportaron que las conversaciones con IA se sentían tan significativas como aquellas con amigos reales. Una cantidad igual también dijo que recurrían a compañeros de IA en lugar de humanos para discutir problemas serios o personales.
Las preocupaciones se han profundizado a medida que aumentan las demandas contra las principales empresas de IA por el supuesto papel de sus productos en el autolesión y suicidio de adolescentes. Entre ellas, los padres de Adam Raine de 16 años, quien discutió el suicidio con ChatGPT antes de quitarse la vida, han presentado una demanda por muerte injusta contra OpenAI.
La empresa fue criticada por su respuesta legal, que incluyó solicitudes de la lista de asistentes y elogios del funeral del adolescente. Los abogados de la familia llamaron a sus acciones "acoso intencional".
"La IA se está moviendo más rápido que cualquier tecnología con la que hayamos lidiado, y ya estamos viendo su impacto en el comportamiento, las creencias y la salud emocional", afirmó Shady El Damaty, cofundador de Holonym y defensor de los derechos digitales, a Decrypt.
"Esto está empezando a parecerse más a la carrera armamentista nuclear que a la era del iPhone. Estamos hablando de tecnología que puede cambiar cómo piensa la gente, que necesita ser tratada con responsabilidad global seria".
El Damaty agregó que los derechos para los usuarios son esenciales para garantizar su seguridad. "Si construyes herramientas que afectan cómo vive y piensa la gente, eres responsable de cómo se usan esas herramientas", dijo.
El problema se extiende más allá de los menores. Esta semana OpenAI reveló que 1,2 millones de usuarios discuten el suicidio con ChatGPT cada semana, representando el 0,15% de todos los usuarios. Casi medio millón muestran intención suicida explícita o implícita, otros 560.000 muestran signos de psicosis o manía semanalmente, y más de un millón de usuarios exhiben un apego emocional elevado al chatbot, según datos de la empresa.
También han surgido foros en Reddit y otras plataformas para usuarios de IA que dicen estar en relaciones románticas con bots de IA. En estos grupos, los usuarios describen sus relaciones con "novios" y "novias" de IA, así como comparten imágenes generadas por IA de ellos mismos y sus "parejas".
En respuesta al creciente escrutinio, OpenAI este mes formó un Consejo de Expertos sobre Bienestar e IA, compuesto por académicos y líderes sin fines de lucro para ayudar a guiar cómo sus productos manejan las interacciones de salud mental. El movimiento llegó junto con la noticia del CEO Sam Altman de que la empresa comenzará a relajar las restricciones sobre contenido para adultos en diciembre.

