François Charron
Découvrir

Intel annonce un outil quasi infaillible pour détecter les deepfakes

le mercredi 23 novembre 2022
Modifié à 13 h 56 min le 24 novembre 2022
Par François Charron

ecrire@francoischarron.com

Si l’hypertrucage, plus communément appelé le « deepfake », peut être utilisé à des fins récréatives pour concevoir des filtres réalistes, il peut aussi être employé pour faire le mal, notamment pour créer des fausses nouvelles ou faire de la sextorsion. Bonne nouvelle pour ceux qui craignent l’aspect négatif des deepfakes, alors qu’Intel a annoncé avoir créé un outil de détection efficace à 96% appelé FakeCatcher.

À la base, les deepfakes n’ont pas nécessairement été créés dans le but de faire le mal. On peut entre autres penser à Snapchat qui s’était servi de cette technologie pour faire des filtres amusants ou encore à L’Oréal qui l’avait utilisé pour produire du maquillage virtuel.

Malheureusement, comme c’est le cas avec n’importe quelle technologie, un groupe de personnes se sont approprié cette avancée pour faire le mal, si bien que plusieurs s’en méfient maintenant.

C’est là où la nouvelle technologie développée par Intel vient donner tout un coup de main alors qu’elle réussit à les déceler de manière très précise, dépassant la barre des 95%.

Déceler les flux sanguins, même via vidéo

À titre de rappel, les deepfakes sont issus d’une technique multimédia rendue possible grâce à l'intelligence artificielle. 

En gros, on superpose des fichiers vidéo qui existent déjà sur d’autres et ça donne des effets carrément réalistes.

Vous devinez peut-être les dérives possibles: des sextorqueurs peuvent prendre le visage de jeunes via un appel vidéo sur les réseaux sociaux et les superposent à du contenu à caractère pornographique dans le but de leur soutirer de l’argent.

Des personnes mal intentionnées pourraient également s’en servir pour créer des fausses nouvelles de toute pièce et les mettre dans la bouche de personnalités connues. 

Bref, le dérapage n’est qu’une question de temps.

Heureusement, Intel a présenté un nouvel outil appelé FakeCatcher qui utilise nul autre que l’analyse du flux sanguin des personnes dans les pixels des vidéos pour déceler le vrai du faux.

C’est carrément impressionnant, alors qu’Intel nous explique dans son blogue que le « deep learning » leur permet de détecter automatiquement si une vidéo est vraie ou pas grâce au changement de couleur de nos veines après que notre cœur ait pompé du sang.

C’est peut-être trop subtile pour l'œil, mais ce ne l’est apparemment pas pour leurs ordinateurs. 

On se doute évidemment d’à quel point FakeCatcher pourra s’avérer utile, non seulement comme outil de vérification des faits dans les médias traditionnels et sociaux, mais aussi dans des cas criminels beaucoup plus graves.

Dernières nouvelles