Meta Platforms Inc., la société mère de Facebook, aurait mis à jour ses politiques pour empêcher l'utilisation de ses outils génératifs émergents d'IA dans la publicité politique et dans des domaines soumis à une réglementation stricte, tels que la politique, l'emploi et les services de crédit, a rapporté Reuters aujourd'hui.
Cette mesure reflète les préoccupations croissantes concernant le potentiel de l'IA à diffuser de fausses informations, notamment à mesure que les campagnes politiques s'intensifient.
Dans le but d'établir un cadre sécurisé pour le déploiement de l'IA, Meta a explicitement interdit l'utilisation de ces outils pour créer du contenu lié à des sujets sensibles, notamment les élections et les produits de santé.
«Alors que nous continuons à tester de nouveaux outils de création d'annonces publicitaires génératives dans Ads Manager, les annonceurs qui diffusent des campagnes relevant des catégories des annonces immobilières, des offres d'emploi, des crédits ou des problèmes sociaux, des élections ou de la politique, ou liées à la santé, aux produits pharmaceutiques ou aux services financiers ne sont actuellement pas autorisés à utiliser ces fonctionnalités d'IA générative», aurait déclaré l'entreprise.
L'IA générative fait référence à l'ensemble d'outils et d'applications pouvant être utilisés pour inciter l'intelligence artificielle à générer des images, du texte, de la musique et des vidéos.
La décision du géant de la technologie fait suite au développement rapide des capacités de l'IA dans l'ensemble de l'industrie, incité par le succès de ChatGPT d'OpenAI l'année dernière. Les entreprises rivalisent pour introduire des fonctionnalités basées sur l'IA, bien que les mesures de sécurité soient largement restées secrètes.
Les géants de la technologie avancent prudemment dans l'IA
Google, un autre acteur majeur de l'espace publicitaire numérique, adopte également une position prudente, excluant les mots-clés politiques des annonces générées par l'IA et imposant la transparence pour les publicités liées aux élections présentant du contenu synthétique.
Pendant ce temps, les plateformes de médias sociaux TikTok et Snapchat ont choisi de ne pas diffuser du tout de publicités politiques, et Twitter, sous son ancien nom de marque, ne s'est pas aventuré dans les outils publicitaires alimentés par l'IA.
Le débat sur l'éthique et la politique de l'IA s'intensifie, avec le responsable des politiques de Meta, Nick Clegg, mettant l'accent sur la nécessité de règles mises à jour pour régir l'intersection de l'IA et de la politique, soulignant l'urgence alors que les élections se profilent à l'horizon.
Dans le cadre de ces préoccupations, Meta a également pris des mesures pour empêcher la représentation réaliste de personnalités publiques par l'IA et pour ajouter un filigrane au contenu généré par l'IA, renforçant ainsi les contrôles sur la désinformation générée par l'IA dans l'espace public.
Ce dialogue critique a pris de l'ampleur lorsque le Conseil de surveillance de Meta a annoncé qu'il examinerait la gestion par l'entreprise d'une vidéo manipulée du président américain Joe Biden. Cette affaire souligne les défis nuancés auxquels les plateformes sont confrontées pour distinguer entre la désinformation nocive et le contenu autorisé tel que la satire.
De son côté, le président Biden a également publié un décret exécutif en 26 points visant à encadrer les développements de l'IA aux États-Unis et à l'étranger.
Note de l'éditeur : Cet article a été rédigé avec l'aide de l'IA. Édité et vérifié par Liam Kelly.