banner
Centre d'Information
Qualité d'élite et service personnalisé

DeepMind teste l'étiquette de contenu de l'IA au milieu des craintes de désinformation

Aug 24, 2023

DeepMind, une société d'IA basée à Londres et appartenant à Google, teste un outil de filigrane numérique capable de détecter et d'étiqueter le contenu généré artificiellement.

Appelé SynthID, l'outil intègre l'étiquette dans les pixels individuels d'une image. Les humains ne pourront pas voir la marque, mais les ordinateurs pourront la détecter et déterminer qu’elle est générée par l’IA.

SynthID, qui est actuellement testé en interne pour le modèle de génération d'images de Google, est une tentative de DeepMind de lutter contre la désinformation provenant du contenu de l'IA, une préoccupation majeure avec l'essor de la technologie.

Cependant, DeepMind a averti que son système de filigrane n’est pas « infaillible contre la manipulation extrême des images ».

Alors que les outils d’IA générative capables de créer des images réalistes ne sont accessibles au public que depuis peu de temps, des canulars ont déjà circulé, allant des blagues inoffensives à la propagande politique.

Plus tôt cette année, une image du pape François arborant une doudoune de créateur est devenue virale avant que les gens ne réalisent qu'elle avait été créée par l'IA. À peu près au même moment, des images illustrant une arrestation fictive de Donald Trump ont circulé sur les réseaux sociaux, trompant un certain nombre de personnes avant qu'elles ne soient signalées comme fausses.

La désinformation alimentée par l’IA est devenue une préoccupation d’autant plus importante à l’approche d’élections majeures au Royaume-Uni et aux États-Unis.

Ce mois-ci, le débat autour des fausses images influençant la politique au Royaume-Uni s'est encore alimenté lorsqu'un député travailliste a partagé une photo du Premier ministre Rishi Sunak versant une pinte de bière à côté d'une femme désapprobatrice. Il s'est avéré plus tard qu'il avait été modifié pour représenter Sunak sous un mauvais jour.

Bien que cela n’ait pas été fait avec l’IA, l’image modifiée a suscité une réponse agressive, la secrétaire technique Michelle Donelan s’étant adressée à Twitter pour partager sa désapprobation.

« À l'ère des deepfakes et des images déformées numériquement, il est encore plus important de pouvoir disposer de sources d'informations fiables auxquelles vous pouvez faire confiance. Aucun député élu ne devrait induire le public en erreur avec de fausses images », a déclaré Donelan. "C'est une situation assez désespérée de la part du Labour."

La détection de fausses images générées par l’IA sera probablement discutée lors du prochain sommet sur la sécurité de l’IA, qui réunira des dirigeants et des experts internationaux pour explorer une approche mondiale de régulation de la technologie.

En savoir plus:La réglementation de l'IA est un « grand défi pour les décideurs politiques », déclare le député Lib Dem

En savoir plus: