Alors que les photos et vidéos générées par l'IA prolifèrent sur Internet, les entreprises technologiques et les groupes de surveillance se précipitent pour développer des outils permettant d'identifier les contenus falsifiés.
L'ajout d'un filigrane aux images générées par ordinateur est une solution couramment proposée, ajoutant un drapeau invisible sous la forme de métadonnées cachées qui permet de révéler qu'une image a été créée à l'aide d'un outil d'IA génératif. Mais les chercheurs ont découvert que de tels filigranes présentent un défaut majeur : les techniques adverses peuvent facilement les supprimer.
Maintenant, les principaux fabricants d'appareils photo proposent une approche différente - l'opposée, en quelque sorte : intégrer des filigranes dans les photographies «réelles» à la place.
Nikon, Sony et Canon ont récemment annoncé une initiative conjointe visant à inclure des signatures numériques dans les images prises directement depuis leurs appareils photo hybrides haut de gamme. Selon Nikkei Asia, les signatures intégreront des métadonnées clés telles que la date, l'heure, la localisation GPS et les détails du photographe, certifiant de manière cryptographique l'origine numérique de chaque photo.
Nikon a déclaré qu'il lancera cette fonctionnalité dans sa prochaine gamme d'appareils photo hybrides professionnels ; Sony proposera des mises à jour du micrologiciel pour insérer des signatures numériques dans ses appareils photo hybrides actuels ; et Canon prévoit de présenter des appareils photo avec une authentification intégrée en 2024, ainsi qu'un marquage vidéo plus tard cette année-là.
L'objectif, selon Nikkei, est de fournir aux photojournalistes, aux professionnels des médias et aux artistes une preuve irréfutable de la crédibilité de leurs images. Les signatures inviolables ne disparaîtront pas avec les modifications et devraient contribuer aux efforts de lutte contre la désinformation et l'utilisation frauduleuse de photos en ligne.
Pour soutenir cela, les entreprises ont collaboré à une norme ouverte pour les signatures numériques interopérables appelée «Verify». Une fois en place, les photos prises avec le matériel approprié pourront être vérifiées en ligne gratuitement afin que les gens puissent déterminer si une photo est authentique ou non.
Si une photo générée par une IA essaie de passer le système Verify sans une signature authentique, elle est marquée comme «Pas de contenu authentifié».
Au lieu de marquer rétroactivement le contenu généré par une IA, le plan authentifie directement les vraies photos à l'origine. Mais comme tout autre système de filigrane, son succès dépendra de l'adoption généralisée (plus de fabricants de matériel intègrent la norme) et d'une mise en œuvre à l'épreuve du temps (le code évolue pour rester inviolable).
Comme Decrypt a rapporté, des recherches récentes indiquent que les techniques anti-incrustation pourraient également compromettre les signatures intégrées, rendant ainsi les méthodes d'incrustation actuelles inutiles. Cependant, cela ne rend que les images avec filigrane sans filigrane, ce qui fait que les gens disposent de moins d'outils pour détecter leur artificialité.
Bien que les techniques anti-incrustation puissent potentiellement supprimer les signatures d'authenticité des vraies photos, cela pose moins de problèmes que la suppression des filigranes des images générées par l'IA. Pourquoi ? Si un filigrane est supprimé d'une deepfake générée par l'IA, cela facilite le passage du contenu falsifié pour du réel. Cependant, si les signatures d'authentification sont supprimées des vraies photos, l'image restante est toujours capturée par une caméra - elle ne provient pas d'un modèle génératif. Bien qu'elle perde sa preuve cryptographique, le contenu sous-jacent reste authentique.
Le principal risque dans ce cas est lié à l'attribution et à la gestion des droits, et non à la véracité du contenu. L'image pourrait être mal attribuée ou utilisée sans licence appropriée, mais elle ne trompe pas intrinsèquement les spectateurs sur la réalité qu'elle représente.
OpenAI a récemment annoncé un détecteur de deepfake alimenté par l'IA qui prétend avoir une précision de 99% sur les images. Pourtant, les détecteurs d'IA restent imparfaits et doivent être constamment améliorés pour surpasser les évolutions de la technologie générative.
La hausse récente de la sophistication des deepfakes a effectivement mis en évidence la nécessité de telles stratégies. Comme nous l'avons vu en 2023, la nécessité de différencier le contenu réel du contenu fabriqué n'a jamais été aussi pressante. Les politiciens et les développeurs technologiques se démènent pour trouver des solutions viables, donc un peu d'aide de ces entreprises est certainement appréciée.
Édité par Ryan Ozawa.