Por Jason Nelson
4 min lectura
Con el objetivo de abordar el aumento de la explotación sexual infantil habilitada por IA, OpenAI publicó el miércoles un anteproyecto de política que describe nuevas medidas de seguridad que la industria puede tomar para ayudar a reducir el uso de la IA en la creación de material de abuso sexual infantil.
En el marco, OpenAI enumera medidas legales, operativas y técnicas destinadas a fortalecer las protecciones contra el abuso habilitado por IA y mejorar la coordinación entre las empresas tecnológicas y los investigadores.
"La explotación sexual infantil es uno de los desafíos más urgentes de la era digital", escribió la empresa. "La IA está cambiando rápidamente tanto la forma en que estos daños surgen en toda la industria como la manera en que pueden abordarse a escala".
OpenAI señaló que la propuesta incorpora comentarios de organizaciones que trabajan en la protección infantil y la seguridad en línea, como el Centro Nacional para Niños Desaparecidos y Explotados y la Alianza de Fiscales Generales y su grupo de trabajo sobre IA.
"La IA generativa está acelerando el crimen de la explotación sexual infantil en línea de maneras profundamente preocupantes, reduciendo barreras, aumentando la escala y habilitando nuevas formas de daño", afirmó Michelle DeLaune, presidenta y directora ejecutiva del Centro Nacional para Niños Desaparecidos y Explotados. "Pero al mismo tiempo, el Centro Nacional para Niños Desaparecidos y Explotados se anima al ver que empresas como OpenAI reflexionen sobre cómo estas herramientas pueden diseñarse de manera más responsable, con salvaguardas integradas desde el inicio".
OpenAI indicó que el marco combina estándares legales, sistemas de reporte de la industria y salvaguardas técnicas dentro de los modelos de IA. La empresa agregó que estas medidas buscan ayudar a identificar los riesgos de explotación con mayor anticipación y mejorar la rendición de cuentas en las plataformas en línea.
El anteproyecto identifica áreas de acción, como la actualización de leyes para abordar el material de abuso sexual infantil generado o alterado por IA, la mejora en la forma en que los proveedores en línea reportan señales de abuso y coordinan con los investigadores, y la incorporación de salvaguardas en los sistemas de IA diseñadas para prevenir el uso indebido.
"Ninguna intervención por sí sola puede abordar este desafío", escribió la empresa. "Este marco reúne enfoques legales, operativos y técnicos para identificar mejor los riesgos, acelerar las respuestas y apoyar la rendición de cuentas, al tiempo que garantiza que las autoridades de aplicación de la ley sigan siendo sólidas a medida que la tecnología evoluciona".
El anteproyecto llega en un momento en que los defensores de la seguridad infantil han expresado preocupaciones de que los sistemas de IA generativa capaces de producir imágenes realistas podrían usarse para crear representaciones manipuladas o sintéticas de menores. En febrero, UNICEF instó a los gobiernos del mundo a aprobar leyes que criminalicen el material de abuso sexual infantil generado por IA.
En enero, la Comisión Europea inició una investigación formal sobre si X, anteriormente conocido como Twitter, violó las normas digitales de la UE al no impedir que el modelo de IA nativo de la plataforma, Grok, generara contenido ilegal, mientras que los reguladores del Reino Unido y Australia también han abierto investigaciones.
Señalando que las leyes por sí solas no detendrán el flagelo del material de abuso generado por IA, OpenAI indicó que serán necesarios estándares industriales más sólidos a medida que los sistemas de IA se vuelvan más capaces.
"Al interrumpir los intentos de explotación con mayor anticipación, mejorar la calidad de las señales enviadas a las fuerzas del orden y fortalecer la rendición de cuentas en todo el ecosistema, este marco tiene como objetivo prevenir el daño antes de que ocurra y ayudar a garantizar una protección más rápida para los niños cuando surjan riesgos", dijo OpenAI.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.