Google se joint à la lutte contre le deepfake en créant ses propres vidéos trafiquées
Google apporte sa contribution dans la lutte contre le deepfake. Pour servir à l'entraînement de systèmes automatisés de détection, la firme a publié en open source un jeu de données qui contient plus de 3'000 vidéos, trafiquées ou non.
Les géants de la tech semblent s'être donné le mot pour agir contre le deepfake. Peu après Facebook, c’est au tour de Google d’annoncer sa contribution aux efforts de détection de vidéos trafiquées à l’aide du deep learning. En collaboration avec l’incubateur technologique Jigsaw (société sœur de Google), la firme de Mountain View a publié le Deep Fake Detection Dataset qui contient plus de 3'000 vidéos, manipulées ou non. Accessible sur Github, ce vaste jeu de données est à la disposition des chercheurs investis dans le développement d’outils automatisés de détection de deepfake.
Pour créer cet ensemble de données, Google explique avoir filmé 28 comédiens «rémunérés et consentants» dans différentes scènes, avant de trafiquer des centaines de vidéos ainsi produites en utilisant des programmes de création de deepfake disponibles en open source. Des systèmes IA de détection de fausses vidéos peuvent être entraînés à l’aide de ces 3’000 fichiers, afin d’apprendre à distinguer le vrai du faux.
Des manipulations peut-être bientôt indétectables
Les progrès rapides des logiciels de deepfake pourraient bientôt atteindre un point de bascule, à partir duquel les manipulations deviendraient absolument indétectables à l’œil nu. C’est du moins l’avis de Hao Li, artiste pionnier du deepfake et professeur associé à l'Université de Californie du Sud. Dans une interview à CNBC, il a affirmé que d’ici six à douze mois, plus personne ne sera capable de distinguer une vidéo authentique d’un deepfake. Conscientes que les outils de création de deepfake s’améliorent de jour en jour, les équipes de Google vont au fur et à mesure enrichir leur jeu de données pour s’adapter au développement de ces technologies.
Un phénomène aux conséquences inquiétantes
Souvent réalisés pour s’amuser, les deepfake inquiètent néanmoins en raison d’utilisations offensantes, par exemple quand des célébrité se retrouvent à leur insu dans des vidéos truquée publiées sur des sites pornographiques. Ces technologies pourraient aussi permettre de manipuler l'opinion, par exemple dans le cadre d’élections. Un phénomène qui incite donc géants de la tech et chercheurs à travailler sur la mise au point d’outils de détection efficaces. Notamment à l’EPFL, où le Groupe de traitement du signal multimédia et la jeune pousse suisse Quantum Integrity collaborent dans ce but. De son côté, l'institut Idiap de Martigny se concentre sur le développement de modèles de machine learning visant à détecter les incohérences entre l’audio et la vidéo.
Pour rappel, Facebook a annoncé il y a peu son intention de créer - à l’instar de Google - ses propres deepfake afin de servir de données au «Deepfake Detection Challenge», un défi qui invite les chercheurs à créer des outils de détection. L’entreprise de Mark Zuckerberg va dans ce contexte investir plus de 10 millions de dollars et s’associer à Microsoft, le consortium «Partnership on IA» et plusieurs universités comme le MIT ou Oxford.