
Selon le Digital News Report du Reuters Institute (2022), les médias visuels sont les principaux moyens par lesquels les gens consomment l’actualité, en particulier sur les plateformes sociales. Cette tendance n’a fait que s’accentuer, notamment pour les vidéos courtes auprès des jeunes publics. Mais, les avancées technologiques permettent la manipulation de ces contenus. Depuis 2022, l’IA générative a fait des progrès considérables, rendant accessible à tous, même sans compétences particulières, la modification crédible de contenus.
Dans le même temps, les plateformes sociales, qui sont aussi une source majeure d’information, ont abaissé leurs standards en matière de contenu acceptable, allant même jusqu’à supprimer totalement certaines équipes de vérification des faits. Résultat : la désinformation visuelle est devenue un problème majeur, et il est de plus en plus difficile de distinguer le vrai du faux. Face à cette situation, des agences de presse comme l’Agence France Presse ont pris l’initiative de lutter contre la manipulation des images.
L’initiative de l’AFP : une certification infaillible
Lors des dernières élections américaines, l’AFP a testé avec succès un système reposant sur le standard C2PA (Coalition for Content Provenance and Authenticity). Les Content Credentials (en français : certificat d’authenticité), créés par le groupe de travail du C2PA, sont des données textuelles associées à une image (appelées métadonnées) intégrées aux fichiers numériques qui fournissent des détails sur l’origine et les modifications apportées à un contenu. Imaginez-les comme une carte d’identité numérique pour une image ou une vidéo, indiquant qui l’a créée, quand, où, et quelles modifications ont été effectuées.
L’idée de fond du Content Credential, c’est qu’en connaissant l’origine d’une photo, la manière dont elle a été prise (artificiellement ou non), et les modifications qu’elle a subies, chacun peut décider en toute connaissance de cause s’il lui accorde sa confiance. C’est exactement comme lorsqu’on lit l’étiquette d’un produit alimentaire avant de l’acheter. Plutôt que de laisser une machine trancher, ce sont les utilisateurs qui, munis de toutes ces informations, font un choix éclairé.
Cette technologie ouverte, déjà adoptée par des géants du numérique tels que Google, Adobe, Microsoft et OpenAI, est en passe de devenir un standard bien au-delà des agences de presse. Dans cet esprit, l’AFP a utilisé un prototype d’appareil photo Nikon doté de cette fonctionnalité. La bonne nouvelle ? Tous les fabricants d’appareils photo prévoient d’intégrer cette technologie dès cette année.
Dès la capture, un Content Credential est enregistré et associé au fichier, contenant toutes les informations sur l’origine de l’image. Ce label est ensuite mis à jour à chaque retouche, recadrage ou modification, s’il y en a. Une fois acceptée par les services éditoriaux de l’AFP et avant d’être envoyée sur les réseaux pour être reprise par des milliers de clients, l’image reçoit un filigrane unique, invisible et indélébile, créé par la société Imatag.
C’est ici que la combinaison du Content Credential et du filigrane invisible devient essentielle. Même si les métadonnées sont effacées, volontairement ou automatiquement par certains logiciels, le filigrane permet toujours de retrouver l’image d’origine et ses informations initiales. Cette double protection garantit que la provenance d’une image reste vérifiable, même après modification.
Pourquoi est-ce si important ?
D’abord, les métadonnées seules ne suffisent pas. Elles peuvent être supprimées en un clic, et les Content Credentials ne sont pas encore universellement adoptés. Un filigrane invisible, lui, reste intégré à l’image et permet de la reconnecter à ses données d’origine.
Ensuite, les images peuvent être manipulées. Une photo de l’AFP, une fois diffusée, peut être altérée par une IA ou d’autres outils, changeant ainsi son sens. Grâce à la lecture du filigrane, il est possible de retrouver la version originale et de détecter toute modification.
Un outil pour restaurer la confiance dans l’image
Grâce aux Content Credentials, renforcés par le filigrane Imatag, il devient possible de rétablir la confiance dans les images que nous voyons quotidiennement.
L’initiative de l’AFP n’est pas unique. Reuters, avec Canon, et l’Associated Press, avec Sony, avaient déjà mené des essais en 2023. La différence ici est double :
- L’utilisation d’un filigrane invisible pour sécuriser les informations.
- La volonté exprimée par l’AFP de passer rapidement en production.
Avec cet exemple, et en encourageant les fabricants d’appareils photo, les éditeurs de logiciels et les diffuseurs de presse à adopter cette technologie, l’objectif est de créer un écosystème où l’authenticité des contenus visuels est garantie, renforçant ainsi la confiance du public dans les médias.
Dans un monde où l’IA rend la création de fausses images de plus en plus facile, des solutions comme celle de l’AFP sont essentielles pour préserver l’intégrité de l’information et assurer une consommation médiatique éclairée.Ce n’est pas seulement une question de survie pour son propre modèle économique, mais aussi une nécessité pour préserver l’intégrité de l’information dans notre société.