En Resumen
- El gobernador de California, Gavin Newsom, firmó el lunes el Proyecto de Ley del Senado 243, convirtiéndose en el primer estado en regular los chatbots compañeros de IA.
- La ley exigirá que los chatbots se identifiquen como artificiales, restrinjan conversaciones sobre sexo y autolesiones con menores, y reporten casos de ideación suicida detectada.
- Grupos de defensa como Common Sense Media retiraron su apoyo tras eliminarse disposiciones sobre auditorías de terceros, calificando la versión final como demasiado débil.
California se ha convertido en el primer estado en establecer límites explícitos para los "chatbots compañeros", programas de inteligencia artificial que imitan la amistad o la intimidad. El gobernador Gavin Newsom firmó el lunes el Proyecto de Ley del Senado 243, que requiere que los chatbots se identifiquen como artificiales, restrinjan conversaciones sobre sexo y autolesiones con menores, y reporten casos de ideación suicida detectada a la Oficina de Prevención del Suicidio del estado.
La ley, redactada por el Senador Estatal Steve Padilla (D-San Diego), marca un nuevo frente en la supervisión de la inteligencia artificial, centrándose menos en la arquitectura del modelo o el sesgo de datos y más en la interfaz emocional entre humanos y máquinas. Obliga a las empresas a emitir recordatorios regulares de que los usuarios están hablando con un software, adoptar protocolos para responder a signos de autolesión y mantener filtros de contenido apropiados para la edad.
La factura final es más estrecha que la que Padilla presentó inicialmente. Versiones anteriores pedían auditorías de terceros y se aplicaban a todos los usuarios, no solo a menores; esas disposiciones fueron eliminadas debido a la presión de la industria.
¿Demasiado débil para ser útil?
Varios grupos de defensa dijeron que la versión final del proyecto de ley era demasiado débil para marcar la diferencia. Common Sense Media y el Proyecto de Supervisión Tecnológica retiraron su apoyo después de que los legisladores eliminaron disposiciones para auditorías de terceros y una aplicación más amplia. En un comunicado a Tech Policy Press, un defensor dijo que el proyecto de ley revisado corría el riesgo de convertirse en "un gesto vacío en lugar de una política significativa".
Newsom defendió la ley como una barrera necesaria para la tecnología emergente. "La tecnología emergente como los chatbots y las redes sociales pueden inspirar, educar y conectar, pero sin barreras reales, la tecnología también puede explotar, engañar y poner en peligro a nuestros niños", dijo en un comunicado. "Podemos seguir liderando en IA y tecnología, pero debemos hacerlo de manera responsable, protegiendo a nuestros niños en cada paso del camino".
La SB 243 acompaña a un conjunto más amplio de proyectos de ley firmados en las últimas semanas, incluida la SB 53, que exige que los grandes desarrolladores de IA divulguen públicamente sus estrategias de seguridad y mitigación de riesgos. Juntos, sitúan a California a la vanguardia de la gobernanza de la IA a nivel estatal.
Pero las nuevas reglas de chatbots pueden resultar complicadas en la práctica. Los desarrolladores advierten que una responsabilidad excesivamente amplia podría llevar a las empresas a restringir conversaciones legítimas sobre salud mental o sexualidad por precaución, privando a los usuarios, especialmente a los adolescentes aislados, de un apoyo valioso.
La aplicación de la ley también podría ser difícil: una empresa global de chatbots podría tener dificultades para verificar quién califica como menor en California o para monitorear millones de intercambios diarios. Y al igual que con muchos primeros en California, existe el riesgo de que una regulación bien intencionada se exporte a nivel nacional antes de que alguien sepa si realmente funciona.

