Por Decrypt AI, Edited by Liam Kelly
3 min lectura
Meta Platforms Inc., la empresa matriz de Facebook, ha actualizado supuestamente sus políticas para evitar el uso de las emergentes herramientas generativas de IA en publicidad política y en áreas sujetas a regulaciones estrictas, como política, empleo y servicios de crédito, informó hoy Reuters.
Este paso refleja las crecientes preocupaciones sobre el potencial de la IA para difundir información falsa, especialmente a medida que las campañas políticas se intensifican.
Con el fin de establecer un marco seguro para la implementación de la IA, Meta ha prohibido explícitamente el uso de estas herramientas para crear contenido relacionado con temas sensibles, incluyendo elecciones y productos de salud.
"Según informes, la compañía dijo: 'A medida que continuamos probando nuevas herramientas de creación de anuncios generativos de IA en Ads Manager, los anunciantes que ejecutan campañas que califican como anuncios de vivienda, empleo o crédito, problemas sociales, elecciones o política, o relacionados con salud, farmacéuticos o servicios financieros no tienen actualmente permitido utilizar estas funciones generativas de IA'."
La IA generativa se refiere al conjunto de herramientas y aplicaciones que se pueden utilizar para incitar a la inteligencia artificial a generar imágenes, texto, música y videos.
El gigante tecnológico sigue los pasos de la rápida evolución de las capacidades de IA en la industria en general, impulsada por el impacto que tuvo ChatGPT de OpenAI el año pasado. Las empresas compiten por introducir funciones impulsadas por IA, aunque las medidas de seguridad en su mayoría se han mantenido en secreto.
Google, otro actor importante en el espacio de la publicidad digital, también ha adoptado una postura cautelosa, excluyendo palabras clave de políticas de los anuncios generados por IA y exigiendo transparencia para los anuncios relacionados con elecciones que presenten contenido sintético.
Mientras tanto, las plataformas de redes sociales TikTok y Snapchat han optado por no incluir anuncios políticos en absoluto, y X o Twitter, bajo su nombre de marca anterior, no se ha aventurado en herramientas publicitarias impulsadas por IA.
La discusión sobre la ética y la política de la IA se está intensificando, con el jefe de política de Meta, Nick Clegg, haciendo hincapié en la necesidad de reglas actualizadas para gobernar la intersección de la IA y la política, destacando la urgencia a medida que se acercan las elecciones.
En línea con estas preocupaciones, Meta también ha tomado medidas para evitar la representación realista de figuras públicas mediante IA y para destacar con marca de agua el contenido generado por IA, fortaleciendo aún más los controles sobre la desinformación generada por IA en el ámbito público.
Este diálogo crítico cobró impulso cuando la Junta de Supervisión de Meta anunció que revisaría el manejo de la compañía de un video manipulado del presidente de Estados Unidos, Joe Biden. El caso subraya los desafíos sutiles a los que se enfrentan las plataformas al distinguir entre desinformación perjudicial y contenido permitido, como la sátira.
Por su parte, el presidente Biden también emitió una orden ejecutiva de 26 puntos buscando controlar los desarrollos de IA en Estados Unidos y en el extranjero.
Nota del editor: Este artículo fue escrito con la ayuda de IA. Editado y verificado por Liam Kelly.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.