Google, le géant du moteur de recherche, dévoile SynthID, son dernier outil d’identification des images générées par intelligence artificielle (IA). Cet outil innovant est le fruit des efforts de Google DeepMind, la division spécialisée en IA de Google, et a été lancé en collaboration avec Google Cloud.
SynthID est unique en son genre : il intègre un filigrane numérique invisible pour l’œil humain, mais détectable par les systèmes d’identification. Cela permet de différencier les images réelles de celles produites par l’IA.
SynthID, une réponse aux défis des images générées par l’IA, parmi lesquels les fake news
Face à la montée en puissance des images générées par l’IA, la question de leur authenticité devient cruciale. De nombreux utilisateurs peinent à distinguer ces images des créations humaines traditionnelles, d’où le besoin d’une solution comme SynthID.
De plus, cette popularité croissante des images IA alimente le phénomène des fake news, rendant la désinformation plus répandue et menaçante. Google, conscient de cette problématique, a investi du temps et des ressources pour développer SynthID et assister ses milliards d’utilisateurs dans la détection des contenus générés par l’IA.
Mentionnons également que, malgré les prouesses de l’IA, certaines entreprises, comme Nikon, ont montré que le rendu réel reste inégalé à ce jour. SynthID s’inscrit donc comme une réponse technologique aux défis contemporains posés par la création d’images via l’IA.
Ici, Google Cloud s’engage à maintenir la qualité des informations en ligne et à préserver la confiance entre les créateurs et les utilisateurs. Dans cette optique, SynthID offre une solution avancée pour identifier les images générées par l’IA, y compris leurs versions qui auraient été modifiées. Sur ce dernier point, la technique n’est pas encore au point, mais les premiers résultats sont prometteurs.
SynthID a été développé par Google DeepMind et perfectionné en collaboration avec Google Research. Il représente le premier outil de ce type, permettant à la fois de créer et d’identifier de manière responsable les images générées par l’IA, soutenant l’engagement de la division Google Cloud en faveur d’une intelligence artificielle plus responsable.
Pour le moment, l’outil SynthID se limite à un nombre limité d’utilisateurs de Vertex AI, une plateforme de machine learning (anciennement Google AI Platform). Celle-ci permet de développer des modèles spécifiques, et des IA génératives.
En l’occurrence, les utilisateurs dont nous parlions doivent utiliser Imagen, un générateur d’images de Google qui fonctionne à partir d’une requête textuelle.
Un filigrane numérique pour distinguer les images, et une vision d’avenir ?
Le module SynthID peut donc repérer les filigranes invisibles insérés aux visuels générés par l’IA. Ces filigranes sont des motifs pouvant être superposés sur des images pour les identifier.
On pourrait d’ailleurs les comparer aux empreintes physiques que l’on retrouve sur les photos imprimées. Les filigranes traditionnels pouvant être facilement supprimés, Google a ajouté à SynthID la possibilité d’apposer un filigrane numérique imperceptible aux images produites par Imagen, mais qui reste détectable.
Le but ? Préserver la qualité de l’image tout en laissant la possibilité de la détecter, même en cas de modification, d’ajout de filtres, de changement de couleurs ou autres.
Et bien que SynthID ne soit pas infaillible contre toutes les manipulations d’images, il représente une avancée à fort potentiel. Google explique que la technologie pourrait être étendue à des médias autres que l’image, comme la vidéo, l’audio et le texte. Elle se muerait ainsi en une solution polyvalente de premier ordre pour identifier le contenu numérique.
SynthID marque le premier pas vers un paysage de contenus plus transparent, dans lequel les images générées par l’intelligence artificielle peuvent être vérifiées avec précision.
En restant ouvert à l’évolution et à l’extension vers d’autres modèles d’IA, SynthID pourrait symboliser une avancée dans la lutte contre la création et la diffusion de fausses informations, et peut-être redonner confiance aux utilisateurs, qui en ont bien besoin.