En Resumen
- Los fiscales generales escribieron que exponer a los niños a contenido sexualizado es indefensible y que la conducta ilegal no se excusa simplemente por ser hecha por máquinas.
- El grupo advirtió que los riesgos potenciales de la IA empequeñecen el impacto de las redes sociales, señalando que no hicieron su trabajo lo suficientemente rápido anteriormente.
- Skrmetti señaló que las empresas no pueden defender políticas que normalizan interacciones sexualizadas con menores, calificando esto como una plaga en lugar de progreso.
La Asociación Nacional de Fiscales Generales (NAAG) ha escrito a 13 empresas de IA, como OpenAI, Anthropic, Apple y Meta, exigiendo salvaguardas más fuertes para proteger a los niños del contenido inapropiado y dañino.
Advirtió que los niños estaban siendo expuestos a material sexualmente sugerente a través de chatbots de IA "coquetos".
"Exponer a los niños a contenido sexualizado es indefendible", escribieron los fiscales generales. "Y la conducta que sería ilegal, o incluso criminal, si fuera hecha por humanos no es excusable simplemente porque sea hecha por una máquina".
La carta también estableció comparaciones con el auge de las redes sociales, señalando que las agencias gubernamentales no hicieron lo suficiente para destacar las formas en que impactó negativamente a los niños.
"Las plataformas de redes sociales causaron daño significativo a los niños, en parte porque los vigilantes gubernamentales no hicieron su trabajo lo suficientemente rápido. Lección aprendida. Los daños potenciales de la IA, como los beneficios potenciales, empequeñecen el impacto de las redes sociales", escribió el grupo.
El uso de IA entre niños es generalizado. En Estados Unidos, una encuesta de la organización sin fines de lucro Common Sense Media encontró que siete de cada diez adolescentes habían probado IA generativa hasta 2024. En julio de 2025, encontró que más de tres cuartas partes estaban usando compañeros de IA y que la mitad de los encuestados dijo que dependía de ellos regularmente.
Otros países han visto tendencias similares. En el Reino Unido, una encuesta el año pasado del regulador Ofcom encontró que la mitad de los niños en línea de 8 a 15 años habían usado una herramienta de IA generativa en el año anterior.
El creciente uso de estas herramientas ha generado preocupación creciente de padres, escuelas y grupos de derechos de los niños, que señalan riesgos que van desde chatbots "coquetos" sexualmente sugerentes, material de abuso sexual infantil generado por IA, intimidación, acoso, extorsión, desinformación, violaciones de privacidad y impactos en la salud mental poco entendidos.
Meta ha estado bajo fuego particular recientemente después de que documentos internos filtrados revelaran que sus Asistentes de IA habían sido autorizados a "coquetear y participar en juegos de rol románticos con niños", incluyendo aquellos de tan solo ocho años. Los archivos también mostraron políticas que permitían a los chatbots decir a los niños que su "forma juvenil es una obra de arte" y describirlos como un "tesoro". Meta después dijo que había eliminado esas directrices.
NAAG dijo que las revelaciones dejaron a los fiscales generales "indignados por este aparente desprecio por el bienestar emocional de los niños" y advirtió que los riesgos no se limitaban a Meta.
El grupo citó demandas contra Google y Character.ai alegando que chatbots sexualizados habían contribuido al suicidio de un adolescente y alentado a otro a matar a sus padres.
Entre los 44 signatarios estaba el fiscal general de Tennessee Jonathan Skrmetti, quien dijo que las empresas no pueden defender políticas que normalizan las interacciones sexualizadas con menores.
"Una cosa es que un algoritmo se desvíe, eso se puede arreglar, pero es otra que las personas que dirigen una empresa adopten directrices que autorizan afirmativamente el acoso", señaló. "Si no podemos dirigir la innovación lejos de lastimar a los niños, eso no es progreso, es una plaga".
Decrypt ha contactado pero aún no ha recibido respuesta de todas las empresas de IA mencionadas en la carta.