Les capacités humaines ou l’intelligence artificielle sont-elles supérieures pour détecter les technologies deep fake ?

À l’ère technologique où la puissance des ordinateurs et des modèles d’intelligence artificielle a considérablement augmenté, la prévalence des deepfakes a augmenté pour intéresser tout le monde. Le deepfaking consiste à créer du contenu visuel ou audio qui semble avoir été enregistré par des individus humains en haute résolution. Les deepfakes menacent tous les aspects de la société.

Notre capacité à identifier les faux contenus est cruciale pour neutraliser la désinformation, mais à mesure que la technologie de l’IA s’améliore, à qui pouvons-nous faire confiance pour repérer les deepfakes ? Ici, la question se pose : qui est le meilleur pour détecter les deep fakes, les humains ou l’intelligence artificielle ?

Depuis des milliers d’années, les humains ont réussi à distinguer les sons, les visages et à comprendre les langues. Mais les machines basées sur l’IA peuvent-elles surpasser ces capacités ? Cet article explore les défis et les développements en matière de détection des deepfakes et compare les capacités de l’intelligence humaine et artificielle dans ce contexte. Vérifier Comment savoir si une vidéo est modifiée en deepfake ?

Les capacités humaines sont-elles supérieures ou l'intelligence artificielle dans la détection des technologies contrefaites ? - 1eNmD1b0RgxiMX029pEoT w DzTechs | intelligence artificielle

Les dangers des deepfakes

À mesure que la technologie de l’IA progresse, les dangers des deepfakes constituent une menace croissante pour nous tous. Voici un bref résumé de certains des problèmes les plus urgents posés par les deepfakes :

  1. Désinformation: Les fausses vidéos et enregistrements audio peuvent diffuser des informations trompeuses, telles que de fausses nouvelles.
  2. vol d'identité: En se faisant passer pour des individus, les deepfakes peuvent nuire à la réputation des gens ou tromper leurs connaissances.
  3. la sécurité nationale: Un scénario de guerre deepfake évident consiste en des images ou des enregistrements audio fabriqués de toutes pièces d’un leader mondial incitant au conflit.
  4. Troubles civils : Les partis peuvent également utiliser des images et des clips audio trompeurs pour inciter à la colère et aux troubles civils au sein de groupes spécifiques.
  5. La cyber-sécurité: Les cybercriminels utilisent déjà des outils de clonage vocal basés sur l’IA pour cibler des individus avec des messages persuasifs provenant de personnes qu’ils connaissent.
  6. Confidentialité et consentement : L’utilisation malveillante des deepfakes prend la forme d’individus sans leur consentement.
  7. La confiance et son manque : Si vous ne pouvez pas faire la distinction entre la vérité et la tromperie, les informations exactes deviennent tout aussi peu fiables.

Les deepfakes deviendront plus convaincants, nous avons donc besoin d’outils et de méthodes puissants pour les détecter. L’intelligence artificielle fournit l’un de ces outils sous la forme de modèles de détection des deepfakes. Cependant, à l’instar des algorithmes conçus pour reconnaître les écritures générées par l’IA, les outils de détection des deepfakes ne sont pas parfaits et ne seront jamais parfaitement précis.

À l’heure actuelle, le jugement humain est le seul autre outil sur lequel nous pouvons compter. Alors, sommes-nous meilleurs que les algorithmes pour identifier les deepfakes ?

Les algorithmes peuvent-ils détecter les deepfakes mieux que les humains ?

Les deepfakes représentent une menace si grave que les géants de la technologie et les groupes de recherche consacrent d’énormes ressources à la recherche et au développement. En 2019, des entreprises comme Meta, Microsoft et Amazon ont offert XNUMX million de dollars de prix lors d'un défi. Défi de détection Deepfake Pour le modèle de détection le plus précis.

Le modèle le plus performant était précis à 82.56 % par rapport à un ensemble de données de vidéos accessibles au public. Cependant, lorsque les mêmes modèles ont été testés sur un « ensemble de données de boîte noire » de 10000 65.18 vidéos inédites, le modèle le plus performant n’avait qu’une précision de XNUMX %.

Nous disposons également de nombreuses études analysant les performances des outils de détection des deepfakes de l’IA contre les humains. Bien sûr, les résultats varient d’une étude à l’autre, mais en général, les humains égalent ou dépassent le taux de réussite des outils de détection des deepfakes.

Une étude publiée en 2021 a révélé... PNAS Les « observateurs humains ordinaires » ont atteint un taux de précision légèrement supérieur à celui des principaux outils de détection des deepfakes. Cependant, l’étude a également révélé que les participants humains et les modèles d’IA étaient sensibles à différents types d’erreurs.

Il est intéressant de noter que les recherches menées par... Université de Sydney J’ai découvert que le cerveau humain est inconsciemment plus efficace pour détecter les deepfakes que nos efforts conscients. Vérifier Les principaux risques des deepfakes et comment les repérer.

Découvrez des indices visuels dans la technologie deepfake

La science de la détection des deepfakes est complexe et l’analyse requise varie en fonction de la nature des images. Par exemple, une fausse vidéo du dirigeant nord-coréen Kim Jong Un datant de 2020 est essentiellement une vidéo de discussion. Dans ce cas, le moyen le plus efficace de détecter les deepfakes peut être d’analyser les phonèmes (mouvements de la bouche) et les phonèmes (sons vocaux) à la recherche d’incohérences.

Les experts humains, les spectateurs ordinaires et les algorithmes peuvent effectuer ce type d’analyse, même si les résultats varient. Il précise Institut de technologie du Massachusetts (MIT) Huit questions pour aider à identifier les fausses vidéos :

  1. Faites attention au visage. Les manipulations sophistiquées de deepfake impliquent souvent des transformations faciales.
  2. Faites attention aux joues et au front. La peau paraît-elle trop lisse ou trop ridée ? L’âge de la peau correspond-il à l’âge des cheveux et des yeux ? Ils peuvent ne pas correspondre dans certaines dimensions.
  3. Faites attention aux yeux et aux sourcils. Des ombres apparaissent-elles aux endroits attendus ? La technologie Deepfake pourrait ne pas représenter pleinement la physique naturelle de la scène.
  4. Faites attention aux lunettes. Y a-t-il des reflets ? Y a-t-il beaucoup d'éblouissement ? L'angle d'éblouissement change-t-il lorsque la personne bouge ? Une fois de plus, la technologie des deepfakes pourrait ne pas représenter pleinement la physique naturelle de l’éclairage.
  5. Faire attention aux poils du visage ou à leur absence. Cette pilosité faciale a-t-elle l'air réelle ? La technologie Deepfake peut ajouter ou supprimer une moustache, des favoris ou une barbe. Cependant, la technologie deepfake pourrait ne pas parvenir à créer des transformations complètement naturelles de la pilosité faciale.
  6. Faites attention aux grains de beauté du visage. La taupe a-t-elle l'air réelle ?
  7. Faites attention aux cils. La personne cligne-t-elle suffisamment ou trop des yeux ?
  8. Faites attention aux mouvements des lèvres. Certaines contrefaçons profondes reposent sur la synchronisation labiale. Vos mouvements de lèvres semblent-ils normaux ?

Les derniers outils de détection des deepfakes par l’IA peuvent analyser les mêmes facteurs, encore une fois, avec plus ou moins de succès. Les data scientists développent également constamment de nouvelles méthodes, telles que la détection du flux sanguin normal sur les visages des locuteurs à l'écran. De nouvelles méthodes et des améliorations des méthodes existantes pourraient permettre aux outils de détection des deepfakes d’IA de surpasser systématiquement les humains à l’avenir.

Détecter des indices audio dans les deepfakes

Détecter les faux sons est un défi complètement différent. Sans les repères visuels de la vidéo et la possibilité d'identifier les incohérences audiovisuelles, la détection des deepfakes repose fortement sur l'analyse audio (d'autres méthodes telles que la vérification des métadonnées peuvent également aider dans certains cas).

J'ai trouvé une étude que vous avez publiée Collège universitaire de Londres D’ici 2023, les humains pourront détecter les faux sons dans une proportion de 73 % (en anglais et en mandarin). Comme pour les fausses vidéos, les auditeurs humains détectent souvent intuitivement des modèles de discours non naturels dans les discours générés par l'IA, même s'ils ne peuvent pas identifier ce qui semble anormal.

Les signes courants incluent :

  1. Les syllabes.
  2. Manque d'expression.
  3. Bruit de fond ou interférence.
  4. – Incohérence dans la voix ou le discours.
  5. Manque de « plénitude » dans les sons.
  6. Livraison trop écrite.
  7. Aucun défaut (faux départs, corrections, raclement de gorge, etc.).

Encore une fois, les algorithmes peuvent également analyser la parole pour détecter les mêmes signaux deepfakes, mais de nouvelles méthodes rendent les outils encore plus efficaces. Elle a décrit les recherches qu'elle a menées USÉNIX Modèles de reconstruction des voies vocales utilisant l’intelligence artificielle qui ne parviennent pas à imiter la parole naturelle. En résumé, les générateurs de sons IA produisent un son identique sur des voies vocales étroites (de la taille d’une paille) sans les mouvements naturels de la parole humaine.

Des recherches antérieures menées par Institut Horst Goertz Il a analysé les sons réels et faux en anglais et en japonais, révélant des différences subtiles dans les hautes fréquences des discours réels et faux.

Les contrastes des voies vocales et les hautes fréquences peuvent être perçus par les auditeurs humains et les modèles de détection d’IA. Dans le cas de variations à haute fréquence, les modèles d’IA pourraient, en théorie, devenir de plus en plus précis – bien que la même chose puisse également être dite pour les deepfakes d’IA.

Les humains et les algorithmes sont trompés par les deepfakes, mais de différentes manières

Des études suggèrent que les humains et les derniers outils de détection d’IA peuvent également détecter les deepfakes. Les taux de réussite peuvent varier de 50 % à 90 %, selon les critères du test.

Ainsi, les humains et les machines sont également trompés par les deepfakes à des degrés similaires. Cependant, il est crucial que nous soyons vulnérables de différentes manières, et cela pourrait être notre plus grand atout pour faire face aux risques liés à la technologie deepfake. La combinaison des forces des humains et des outils de détection des deepfakes atténuera leurs faiblesses respectives et améliorera les taux de réussite.

Par exemple, j'ai trouvé Recherche du Massachusetts Institute of Technology Les humains étaient plus capables de reconnaître les fausses images de dirigeants mondiaux et de célébrités que les modèles d’intelligence artificielle. Il a également révélé que les modèles d'IA avaient des difficultés à capter l'audio de plusieurs personnes, bien que cela suggère que cela pourrait être dû au fait que les algorithmes sont entraînés sur des images contenant des voix individuelles.

À l’inverse, la même étude révèle que les modèles d’IA surpassent les humains avec des vidéos de mauvaise qualité (floues, granuleuses, sombres, etc.) qui peuvent être intentionnellement utilisées pour tromper les spectateurs humains. De même, les méthodes modernes de détection de l’IA, telles que la surveillance du flux sanguin dans des zones spécifiques du visage, impliquent des analyses que les humains ne peuvent pas effectuer.

À mesure que de nouvelles méthodes seront développées, non seulement la capacité de l’IA à détecter des signes que nous ne pouvons pas détecter s’améliorera, mais sa capacité à tromper également. La grande question est de savoir si la technologie de détection des deepfakes peut surpasser les deepfakes eux-mêmes. Vérifier Comment faire face à la menace d’enlèvement virtuel et se protéger en ligne ? Reconnaître les menaces.

Foire Aux Questions

T1. Qu’est-ce que la technologie deepfake ?

Les deepfakes sont une technologie qui utilise l'intelligence artificielle pour créer du contenu visuel ou audio qui semble être produit par des sujets humains avec une grande précision.

Q2. À quoi servent les deepfakes ?

La technologie Deepfake est utilisée dans un large éventail d’applications, notamment le cinéma, l’industrie du jeu, la sécurité, la fraude, etc.

Q3. Comment détecter les deep fakes ?

Les techniques de détection des deepfakes progressent continuellement avec la contribution de l’intelligence artificielle, mais les outils et méthodes humains restent nécessaires.

Q4. Quels sont les défis auxquels est confrontée la détection des deepfakes ?

Parmi les défis figurent le développement continu des technologies de contrefaçon et la difficulté de distinguer le contenu réel des deepfakes.

Q5. L’intelligence artificielle peut-elle surpasser les humains dans la détection des contrefaçons profondes ?

L’intelligence artificielle fait des progrès significatifs, mais les capacités humaines restent importantes dans ce contexte.

Voir les choses différemment à l’ère des deepfakes

Les outils de détection des deepfakes basés sur l’IA continueront de s’améliorer, tout comme la qualité du contenu deepfake lui-même. Si la capacité de l’IA à tromper dépasse sa capacité à détecter (comme c’est le cas avec les textes générés par l’IA), le jugement humain pourrait être le seul outil dont nous disposons pour lutter contre les deepfakes.

Il est de la responsabilité de chacun de reconnaître les signes des deepfakes et de savoir comment les repérer. En plus de nous protéger contre les escroqueries et les menaces de sécurité, tout ce dont nous discutons et partageons en ligne est vulnérable à la désinformation si nous perdons le sens de la réalité. Vous pouvez voir maintenant Risques liés à l'écriture de contenu IA et comment détecter le texte généré par l'IA.

Remonter en haut