You are currently viewing Détecteurs de contenus générés par IA, étude du RISJ

Détecteurs de contenus générés par IA, étude du RISJ

Le Reuters Institute for the Study of Journalism (RISJ), basé à l’Université d’Oxford, est un centre de recherche dédié à l’exploration de l’avenir du journalisme dans le monde entier à travers le débat, l’engagement et la recherche. Depuis 2016, le RISJ travaille avec des journalistes, des rédacteurs, des technologues et d’autres acteurs pour mieux comprendre l’impact de l’intelligence artificielle sur l’avenir de l’information.

En 2024, le RISJ a lancé une section spécialisée dans l’IA et le futur de l’information. Celle-ci a été mise en place afin d’approfondir ses recherches sur ce sujet primordial. Cette initiative témoigne de l’importance croissante de l’IA dans le domaine du journalisme et de la nécessité d’explorer ses implications pour l’avenir de l’information.

Dans le cadre de ses activités, le RISJ a testé en février 2024 plusieurs détecteurs de contenus générés par IA accessibles au public. Le but est d’évaluer leur efficacité et leurs limites face aux défis posés par la désinformation en cette année électorale. Cette étude s’inscrit dans la mission du RISJ d’éclairer les tendances et les enjeux du journalisme à l’ère de l’intelligence artificielle. Voici ce qu’il faut retenir de cette étude :

Détecteurs de contenus générés par IA étudiés

  • Microsoft Video Authenticator
  • Deepware
  • Sensity
  • Mesonet
  • Grover

Tests et résultats

Plusieurs manipulations ont réussi à tromper les détecteurs de contenus générés par IA :

  • Recadrer l’image
  • Utiliser une image floue ou de mauvaise qualité
  • Compresser la vidéo
  • Ajouter du bruit ou des artefacts
  • Modifier la luminosité ou le contraste
  • Appliquer des filtres ou des effets

Les détecteurs ont eu plus de succès avec les deepfakes créés par des outils grand public comme FaceSwap et DeepFakes web β, mais ont échoué face à des outils plus avancés comme EbSynth et DeepFaceLab.

Limites identifiées des détecteurs de contenus générés par IA

  • Ils sont moins performants sur les vidéos que sur les images fixes
  • Leur efficacité varie selon la quantité de contenus disponibles sur la personne ciblée. Par exemple, plus il existe de photos/vidéos de référence plus la détection est facile.
  • La qualité et la résolution des médias analysés impactent grandement les performances
  • Les détecteurs sont moins fiables pour les langues moins répandues. C’est le cas pour les langues en dehors des pays occidentaux car les données d’entraînement sont faibles et peu diversifiées
  • Les créateurs de deepfakes s’adaptent rapidement pour contourner les algorithmes de détection
  • Ces outils sont entrainés pour détecter les médias générés par IA mais pas pour les modification générer avec d’autres techniques (logiciels)
  • Pour le moment, les détecteurs évoluent moins vite que les IA

En conclusion, les détecteurs de contenus générés par IA ont fait des progrès notables. Pourtant, ils présentent encore de nombreuses limites. Leur efficacité dépend fortement des techniques utilisées pour générer les deepfakes et des caractéristiques des médias analysés. Une approche multidisciplinaire combinant technologie et expertise humaine reste essentielle pour lutter efficacement contre la désinformation.

Source : Reuters Institute for the Study of Journalism – Spotting the deepfakes in this year of elections: how AI detection tools work and where they fail