Tech

Les scientifiques prouvent que les détecteurs deepfake peuvent être manipulés

Par Julian, le février 11, 2021 - microsoft
Deepfakes

Et parce que la technologie ne concerne pas que des choses positives, plusieurs universités, organisations et géants technologiques ont travaillé pour atténuer un problème appelé deepfake. C’est-à-dire la manipulation d’image par l’intelligence artificielle, afin de réaliser des photographies et des vidéos hautement crédibles.

Malgré les tentatives, un groupe de scientifiques a prouvé que deepfake ils peuvent être trompés.


Détecteurs deepfakes avec des échecs

Ayant surtout des personnalités publiques en vue, le deepfake ce sont des images manipulées grâce à l’intelligence artificielle. Parce qu’ils sont si crédibles, ils peuvent facilement passer inaperçus et poser des problèmes potentiels.

Ainsi, des entreprises comme Microsoft et Facebook, ainsi que des universités et d’autres organisations et entreprises, ont travaillé sur des détecteurs, des outils qu’elles peuvent reconnaître deepfakes. Après tout, en tant que moteurs d’une grande adhésion, influence et éducation, ils doivent veiller à ce que des informations erronées et malveillantes ne soient pas diffusées.

Cependant, un groupe de scientifiques de l’UC San Diego a averti qu’après tout, les détecteurs pouvaient être trompés. Pour le démontrer, l’équipe a introduit des contributions appelées «exemples contradictoires» dans chaque Cadre vidéo lors de la conférence WACV 2021, qui a eu lieu en janvier.

La formation d’adversaires peut résoudre des «exemples contradictoires»

Dans leur déclaration, les scientifiques ont expliqué que les « exemples contradictoires » ne sont rien de plus que des images qui peuvent tromper et conduire les systèmes d’IA à faire des erreurs.

C’est parce que la plupart des détecteurs deepfakes suit les visages dans les vidéos et les envoie coupés à un réseau neuronal artificiel. Par la suite, le système peut certifier l’authenticité d’une vidéo, en détectant les éléments mal reproduits, comme le clignotement.

Bien que les vidéos deepfake être très crédible, car les visages sont modifiés pour ressembler à celui d’une personne réelle, l’espoir de les atténuer a conduit à des travaux menés par diverses entités.

Deepfakes

Cependant, les scientifiques ont constaté qu’avec ces «exemples contradictoires» du visage et de son insertion dans chaque Cadre détecteurs vidéo deepfake l’état de l’art ont été trompés. De plus, ils ont révélé que la technique peut également être utilisée dans de longues vidéos et que même un amateur peut contourner les détecteurs.

Pour éviter cela, les scientifiques suggèrent d’utiliser une formation opposée. Autrement dit, un adversaire adaptable qui continue de générer deepfakes qui peut contourner le détecteur pendant son apprentissage. De cette manière, il peut améliorer ses performances dans la détection des images manipulées.

Julian

Julian

Je suis correspondant principal chez WebVZ; le site hebdomadaire consacré à l'avenir des médias, la technologie, la culture (série, film, musique) et jeux-vidéo. J'anime parfois (en plus de mes articles), une série de d'interviews percutantes avec les principaux acteurs de l'industrie des médias et de la technologie.

Commentaires

Laisser un commentaire

Votre commentaire sera révisé par les administrateurs si besoin.