Por Jason Nelson
5 min lectura
Una coalición de grupos de defensa está instando al desarrollador de ChatGPT, OpenAI, a retirar una iniciativa de votación en California que, según los críticos, podría debilitar las protecciones para los menores y limitar la responsabilidad legal de las empresas de inteligencia artificial.
En una carta enviada el miércoles a OpenAI, revisada por Decrypt, el grupo argumenta que la medida restringiría las protecciones de seguridad infantil, limitaría la capacidad de las familias para demandar y restringiría la capacidad de California para fortalecer las leyes de IA en el futuro.
La carta, firmada por más de dos docenas de organizaciones como la organización sin fines de lucro de política de IA Encode AI, el Center for Humane Technology y el Electronic Privacy Information Center, pide a OpenAI que disuelva su comité de votación y se retire de la propuesta mientras los legisladores trabajan en una legislación.
"La principal demanda aquí es que OpenAI se retire de la votación", señaló Adam Billen, codirector ejecutivo de Encode AI, a Decrypt.
La disputa gira en torno a una propuesta de "Ley de IA Segura para Padres e Hijos", una iniciativa de votación en California respaldada por OpenAI y Common Sense Media que establecería reglas sobre cómo los chatbots de IA interactúan con los menores, incluyendo requisitos de seguridad y estándares de cumplimiento.
En la carta, los grupos argumentan que esas reglas son insuficientes. Afirman que la medida define el daño de manera demasiado restrictiva, limita la aplicación de la ley y restringe la capacidad de las familias para presentar reclamaciones cuando los niños son perjudicados.
Sin embargo, OpenAI controla la iniciativa de votación como tal, según afirmó Billen.
"OpenAI tiene el poder de retirarla o poner el dinero para las firmas. Toda la autoridad legal descansa en sus manos", agregó. "En realidad, no han retirado la iniciativa de la votación. Esta es una táctica común en California, donde se presenta una iniciativa y se pone dinero en el comité".
La carta señala la definición de "daño grave" de la iniciativa, que se centra en lesiones físicas relacionadas con el suicidio o la violencia, excluyendo una serie de impactos en la salud mental que investigadores y familias han señalado como preocupantes.
También destaca disposiciones que impedirían a padres e hijos presentar reclamaciones bajo la iniciativa y limitarían las herramientas de aplicación disponibles para funcionarios estatales y locales.
Otra preocupación se centra en cómo la propuesta trata los datos de los usuarios. Los grupos argumentan que su definición de contenido de usuario cifrado podría dificultar el acceso a conversaciones de chatbot que han servido como evidencia clave en demandas recientes.
"Lo interpretamos como un intento de impedir que las familias puedan divulgar en un tribunal los registros de chat de sus hijos fallecidos", afirmó Billen.
La carta también advierte que la medida podría ser difícil de revisar si se aprueba. Requeriría una votación de dos tercios en la legislatura para ser enmendada y vincularía los cambios futuros a estándares como el apoyo al "progreso económico", lo que según los defensores podría limitar la capacidad de los legisladores para responder a nuevos riesgos.
Billen señaló que la iniciativa sigue siendo un factor en las negociaciones en curso en Sacramento, incluso cuando OpenAI ha pausado sus esfuerzos para calificarla para la votación.
"Tienen $10 millones en el comité, y luego le dicen a la legislatura: si no hacen lo que queremos, pondremos el dinero y obtendremos las firmas y pondremos esto en la votación, y si pasa, anulará lo que haga la legislatura", dijo. "Entonces, básicamente, lo que está pasando ahora es que están tratando de orientar y controlar lo que hacen los legisladores estatales mediante el uso de la iniciativa como una amenaza que dejan sobre la mesa".
OpenAI no es la única empresa que enfrenta escrutinio por daños relacionados con chatbots. A principios de este mes, la familia de Jonathan Gavalas demandó a Google, alegando que Gemini impulsó un delirio que escaló a la violencia y su posterior suicidio. Sin embargo, Billen afirmó que el enfoque de OpenAI refleja un patrón más amplio en la industria tecnológica.
"El manual de lobby que están usando en IA estos grandes jugadores, en particular los Google, Meta y Amazon, es la misma estrategia que se usó anteriormente en otros temas tecnológicos", señaló.
Por ahora, la coalición se enfoca en lograr que OpenAI retire la medida y permita que los legisladores avancen a través del proceso legislativo.
"Es realmente importante, particularmente para las empresas que están lanzando esa tecnología, que no sean ellas quienes escriban las reglas que las regulan, porque eso no son protecciones significativas", afirmó Billen.
OpenAI no respondió de inmediato a la solicitud de comentarios de Decrypt.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.