En Resumen
- La Junta de Supervisión de Meta ordenó la eliminación de un video manipulado con IA que mostraba al futbolista Ronaldo Nazário promocionando falsamente un juego en línea, tras acumular más de 600.000 visualizaciones.
- Los supervisores criticaron que Meta permitió que el contenido fraudulento permaneciera en línea a pesar de ser reportado múltiples veces, señalando fallas en el sistema de moderación de deepfakes.
- La decisión llegó mientras aumentan las preocupaciones sobre el abuso de deepfakes, con el presidente Trump firmando la Ley Take It Down Act que requiere eliminar contenido íntimo generado por IA en 48 horas.
La Junta de Supervisión de Meta ha ordenado la eliminación de una publicación de Facebook que mostraba un video manipulado con IA del legendario futbolista brasileño Ronaldo Nazário promocionando un juego en línea.
La junta declaró que la publicación violaba los Estándares de la Comunidad de Meta sobre fraude y spam, y criticó a la empresa por permitir que el video engañoso permaneciera en línea.
"Eliminar la publicación es consistente con los Estándares de la Comunidad de Meta sobre fraude y spam. Meta también debería haber rechazado el contenido para publicidad, ya que sus reglas prohíben usar la imagen de una persona famosa para atraer a las personas a interactuar con un anuncio", dijo la Junta de Supervisión en una declaración el jueves.
La Junta de Supervisión, un organismo independiente que revisa las decisiones de moderación de contenido en Meta, empresa matriz de Facebook, tiene la autoridad para mantener o revertir las decisiones de eliminación y puede emitir recomendaciones a las que la empresa debe responder.
Fue establecida en 2020 para proporcionar responsabilidad y transparencia para las acciones de cumplimiento de Meta.
El caso destaca una creciente preocupación sobre las imágenes generadas por IA que representan falsamente a las personas, mostrándolas diciendo o haciendo cosas que nunca hicieron.
Estas se están utilizando cada vez más para estafas, fraude y desinformación.
En este caso, el video mostraba una voz en off mal sincronizada de Ronaldo Nazário instando a los usuarios a jugar un juego llamado Plinko a través de su aplicación, prometiendo falsamente que los usuarios podrían ganar más que realizando trabajos comunes en Brasil.
La publicación obtuvo más de 600.000 visualizaciones antes de ser reportada.
Pero a pesar de ser reportada, abordar el contenido no fue priorizado, y no fue eliminado.
El usuario que lo reportó entonces apeló la decisión a Meta, donde nuevamente no fue priorizado para revisión humana. Finalmente, el usuario acudió a la Junta.
Deepfakes en aumento
Esta no es la primera vez que Meta enfrenta críticas por su manejo de deepfakes de celebridades.
El mes pasado, la actriz Jamie Lee Curtis confrontó al CEO Mark Zuckerberg en Instagram después de que su imagen fue utilizada en un anuncio generado por IA, lo que llevó a Meta a desactivar el anuncio pero mantener la publicación original en línea.
La Junta encontró que solo equipos especializados en Meta podían eliminar este tipo de contenido, sugiriendo un cumplimiento insuficiente generalizado. Instó a Meta a aplicar sus políticas anti-fraude de manera más consistente en toda la plataforma.
La decisión llega en medio de un impulso legislativo más amplio para frenar el abuso de deepfakes.
En mayo, el presidente Donald Trump firmó la Ley Take It Down Act bipartidista, que requiere que las plataformas eliminen imágenes íntimas generadas por IA sin consentimiento dentro de 48 horas.
La ley responde a un aumento en la pornografía deepfake y el abuso basado en imágenes que afecta a celebridades y menores.
El propio Trump fue objetivo de un deepfake viral esta semana, mostrándolo abogando por que los dinosaurios protejan la frontera sur de Estados Unidos.
Editado por Sebastian Sinclair