Qui détecte le mieux les deepfakes : l’homme ou la machine ?



Points essentiels à retenir

  • Les deepfakes représentent des dangers significatifs pour la société, notamment par la propagation de désinformation, les atteintes à la réputation via l’usurpation d’identité, et la provocation de conflits menaçant la sécurité nationale.
  • Bien que la technologie de l’IA offre des moyens de détecter les deepfakes, ces outils ne sont pas infaillibles. Le discernement humain demeure indispensable pour repérer ces manipulations.
  • Les outils de détection, qu’ils soient humains ou basés sur l’IA, possèdent des forces et faiblesses spécifiques dans l’identification des deepfakes. Combiner leurs capacités peut améliorer considérablement l’efficacité de la détection et la réduction des risques liés à cette technologie.

Les deepfakes mettent en péril divers aspects de notre société. Notre aptitude à identifier les contenus contrefaits est cruciale pour contrer la désinformation. Cependant, avec les progrès de l’IA, à qui se fier pour la détection des deepfakes : aux humains ou aux machines ?

Les risques engendrés par les deepfakes

Avec l’évolution rapide de l’IA, les dangers posés par les deepfakes deviennent une préoccupation grandissante. Voici un aperçu des problèmes les plus alarmants qu’ils soulèvent :

  • Désinformation : Des vidéos et enregistrements vocaux modifiés peuvent répandre des informations trompeuses, comme des fausses nouvelles.
  • Usurpation d’identité : En imitant l’identité de personnes, les deepfakes peuvent nuire à leur réputation ou manipuler leur entourage.
  • Sécurité nationale : La diffusion de vidéos ou d’audios falsifiés de dirigeants mondiaux incitant à des conflits représente un scénario catastrophe.
  • Troubles civils : Des images et enregistrements trompeurs peuvent être exploités par des groupes pour attiser la colère et les tensions sociales au sein de communautés spécifiques.
  • Cybersécurité : Les cybercriminels utilisent déjà des techniques de clonage vocal par IA pour cibler des individus avec des messages frauduleux émanant de contacts connus.
  • Vie privée et consentement : L’usage abusif des deepfakes implique l’utilisation non consentie de l’image de personnes.
  • Confiance et crédibilité : L’incapacité à distinguer le vrai du faux rend toute information potentiellement douteuse.

Les deepfakes gagneront en réalisme, rendant indispensables des outils et processus fiables pour les détecter. L’IA offre une solution avec les modèles de détection de deepfakes. Cependant, ces outils, comme les algorithmes conçus pour repérer les textes générés par IA, ne sont pas parfaits.

Actuellement, le jugement humain reste notre principal recours. Alors, sommes-nous plus efficaces que les algorithmes pour identifier les deepfakes ?

Les algorithmes sont-ils plus performants que les humains dans la détection des deepfakes ?

La menace des deepfakes est telle que les géants technologiques et centres de recherche allouent des ressources considérables à leur détection. En 2019, Meta, Microsoft et Amazon ont lancé un défi avec un prix d’un million de dollars pour le modèle de détection le plus précis : le Deepfake Detection Challenge.

Le modèle le plus performant a atteint une précision de 82,56 % sur un ensemble de vidéos accessibles au public. Cependant, testé sur un ensemble de données « boîte noire » de 10 000 vidéos inédites, sa précision est tombée à 65,18 %.

De nombreuses études comparent l’efficacité des outils de détection de deepfakes par IA à celle des humains. Les résultats varient, mais en général, les humains égalent voire dépassent le taux de réussite des outils de détection basés sur l’IA.

Une étude de 2021, publiée dans PNAS, révèle que les « observateurs humains moyens » ont obtenu des taux de précision légèrement supérieurs à ceux des meilleurs outils de détection de deepfakes. Toutefois, l’étude montre aussi que les participants humains et les modèles d’IA sont susceptibles de commettre des erreurs différentes.

Des recherches menées par l’Université de Sydney indiquent que le cerveau humain est plus efficace inconsciemment qu’en étant attentif pour détecter les deepfakes.

Identification des indices visuels dans les deepfakes

La science de la détection des deepfakes est complexe et l’analyse nécessaire dépend de la nature des images. La vidéo deepfake de 2020 du dirigeant nord-coréen Kim Jong-un, par exemple, était principalement une vidéo d’une tête parlante. Dans ce cas, une méthode efficace de détection consiste à analyser les visèmes (mouvements de la bouche) et les phonèmes (sons) pour y déceler des incohérences.

Les experts, les spectateurs occasionnels et les algorithmes peuvent tous mener ce type d’analyse, avec des résultats variables. Le MIT suggère huit points à examiner pour identifier les vidéos deepfake :

  • Concentrez-vous sur le visage. Les deepfakes sophistiqués sont souvent des modifications faciales.
  • Examinez les joues et le front. La peau semble-t-elle trop lisse ou trop ridée ? Le vieillissement de la peau est-il cohérent avec celui des cheveux et des yeux ? Des anomalies peuvent exister dans certains aspects.
  • Analysez les yeux et les sourcils. Les ombres sont-elles à des endroits attendus ? La physique naturelle de la scène peut ne pas être parfaitement reproduite.
  • Observez les lunettes. Y a-t-il des reflets ? L’éblouissement est-il excessif ? L’angle de l’éblouissement change-t-il lorsque la personne bouge ? La physique de l’éclairage pourrait être inexacte.
  • Vérifiez la présence ou l’absence de poils sur le visage. Semblent-ils naturels ? Des moustaches, favoris ou barbes peuvent être ajoutés ou supprimés de manière artificielle. Les transformations ne seront pas toujours entièrement naturelles.
  • Portez attention aux grains de beauté. Ont-ils l’air réels ?
  • Notez le clignement des yeux. La personne cligne-t-elle suffisamment ou trop souvent ?
  • Observez les mouvements des lèvres. La synchronisation labiale est-elle naturelle ?

Les outils de détection de deepfakes basés sur l’IA peuvent aussi analyser ces facteurs, avec des degrés de réussite variables. Les scientifiques des données développent constamment de nouvelles méthodes, comme la détection du flux sanguin naturel sur les visages des personnes à l’écran. Ces nouvelles approches pourraient à terme permettre aux outils de détection de deepfakes basés sur l’IA de surpasser les humains.

Détection des indices audio dans les deepfakes

La détection de sons falsifiés représente un défi différent. Sans les indices visuels de la vidéo, et sans la possibilité d’identifier des incohérences audiovisuelles, la détection des deepfakes repose principalement sur l’analyse audio (la vérification des métadonnées peut aussi être utile dans certains cas).

Selon une étude du University College de Londres publiée en 2023, les humains peuvent détecter les faux discours dans 73 % des cas (anglais et mandarin). Comme avec les vidéos deepfake, les auditeurs humains repèrent souvent intuitivement des modèles de discours non naturels dans les discours générés par l’IA, même sans pouvoir préciser l’anomalie.

Les indices courants incluent :

  • Un son artificiel
  • Un manque d’expression
  • Du bruit de fond ou des interférences
  • Des incohérences vocales
  • Un manque de « plénitude » dans la voix
  • Une intonation trop scénarisée
  • L’absence d’imperfections (faux départs, corrections, raclements de gorge, etc.)

Les algorithmes peuvent également analyser la parole pour détecter ces indices, et de nouvelles méthodes rendent les outils plus efficaces. Des recherches menées par USENIX ont révélé que les outils de reconstruction des voies vocales de l’IA ne parviennent pas à imiter la parole naturelle, produisant un son correspondant à des voies vocales étroites, sans les mouvements naturels de la parole humaine.

Des études antérieures de l’Institut Horst Görtz sur des enregistrements audio authentiques et deepfake en anglais et en japonais ont révélé de subtiles différences dans les fréquences plus élevées de la parole.

Ces incohérences au niveau des voies vocales et des hautes fréquences sont perceptibles par les auditeurs humains et les modèles de détection par IA. Dans le cas des différences de hautes fréquences, les modèles d’IA pourraient, en théorie, devenir de plus en plus précis, mais la même chose pourrait aussi être vraie pour les deepfakes générés par IA.

Humains et algorithmes sont trompés par les deepfakes, mais de différentes manières

Des études montrent que les humains et les outils de détection d’IA sont capables d’identifier les deepfakes, avec des taux de réussite variant de 50 % à plus de 90 %, selon les paramètres des tests.

De même, humains et machines sont aussi trompés par les deepfakes, mais avec des vulnérabilités différentes. Cette divergence pourrait être un atout majeur pour contrer les risques de la technologie deepfake. La combinaison des forces des humains et des outils de détection peut atténuer les faiblesses de chacun et améliorer les taux de réussite.

Par exemple, des recherches du MIT ont montré que les humains sont plus aptes à identifier les deepfakes de leaders mondiaux et de personnalités célèbres que les modèles d’IA. Ils ont également constaté que les modèles d’IA avaient des difficultés avec les images impliquant plusieurs personnes, possiblement en raison d’algorithmes entraînés sur des images de personnes seules.

À l’inverse, la même étude a montré que les modèles d’IA surpassaient les humains avec des images de mauvaise qualité, intentionnellement utilisées pour tromper les spectateurs humains. De plus, de récentes méthodes de détection de l’IA, comme la surveillance du flux sanguin dans certaines zones du visage, permettent des analyses que les humains ne peuvent pas effectuer.

À mesure que de nouvelles méthodes seront développées, la capacité de l’IA à détecter des indices que nous ne pouvons pas percevoir s’améliorera, de même que sa capacité à tromper. La grande question est de savoir si la technologie de détection des deepfakes pourra continuellement devancer les deepfakes eux-mêmes.

Regarder le monde différemment à l’ère des deepfakes

Les outils de détection de deepfakes basés sur l’IA continueront de s’améliorer, tout comme la qualité du contenu deepfake. Si la capacité de l’IA à tromper dépasse sa capacité à détecter (comme c’est le cas avec le texte généré par l’IA), le discernement humain pourrait être notre seul recours contre les deepfakes.

Chacun doit apprendre à reconnaître les signes des deepfakes et à les repérer. En plus de nous protéger contre les escroqueries et les menaces à la sécurité, toutes les informations que nous discutons et partageons en ligne sont vulnérables à la désinformation si nous perdons notre sens de la réalité.