DEEPFAKE : Le nouveau casse-tête des méthodes d’authentification
Qu’est-ce que le deepfake ?
Le deepfake (abréviation de deep learning et de fake) fait référence à un type spécifique de média où les caractéristiques (expressions, gestes, paroles, …) d’une personne sur une image, une vidéo ou un audio sont modifiées artificiellement.
Ces deepfakes reposent sur l’intelligence artificielle (IA), un domaine actuellement en plein essor. D’après une étude de l’entreprise néerlandaise DeepTrace , le nombre estimé de vidéos deepfakes en ligne est passé de 7 964 (en 2018) à 14 678 (en 2019) en seulement un an soit une augmentation annuelle de presque 100%.
L’adoption rapide de cette technologie a rendu les méthodes d’authentification biométriques (reconnaissance faciale, vocale, …) de plus en plus vulnérables aux attaques. En effet, n’importe quel individu malveillant peut s’approprier l’identité de quelqu’un grâce aux deepfakes et contourner l’étape d’authentification.
Comment est généré un deepfake ?
Les deepfakes sont générées grâce à des méthodes d’IA . Les deux plus courantes sont les auto-encodeurs et les réseaux antagonistes génératifs (GANs). Ils permettent de créer des imitations parfaites d’images ou autres données.
Auto-encodeur
L’auto-encodeur se compose d’un encodeur, qui réduit la dimension de la vidéo en entrée en capturant les caractéristiques clés, et d’un décodeur, qui essaie de reconstruire la vidéo originale à partir de sa représentation encodée. Pour la création d’un deepfake, deux auto-encodeurs sont entraînés à partir de vidéos distinctes. Le premier permet l’apprentissage de l’identité du futur deepfake et le deuxième l’apprentissage des gestes, expressions ou encore des paroles. Ensuite, la représentation encodée liée à l’identité va être injectée dans le décodeur relatifs aux gestes, expressions et paroles. Le décodeur va alors reconstruire la vidéo avec l’identité voulue en y calquant les gestes, expressions et paroles attendus. Un deepfake est alors obtenu.
Les réseaux antagonistes génératifs (GAN)
Pour les GANs, deux modèles d’apprentissage s’entraînent mutuellement. Dans le cas d’usage du deepfake, le premier modèle de machine learning (générateur) crée des contrefaçons alors que le second (discriminateur) essaie de les identifier.
Au fil du temps, les deux algorithmes progressent dans leurs tâches respectives. Le premier continue à produire de fausses vidéos de plus en réalistes jusqu’à ce que le second ne puisse plus déceler la supercherie. En résulte des deepfakes suffisamment réalistes pour tromper même les humains…
Plus les données fournies à l’algorithme au début du processus sont nombreuses, plus celui-ci sera capable d’apprendre à créer des deepfakes. Raison pour laquelle des personnalités publiques comme les stars de cinéma ou les anciens présidents sont des cibles de choix. De nombreuses vidéos d’archives sont en libre accès et peuvent être utilisées pour nourrir les modèles de Machine Learning.
Les principaux risques autour du deepfake
Ces techniques permettent la création de vidéos, d’images et d’audios falsifiés d’une manière incroyablement réaliste. Ces méthodes ouvrent ainsi la voie à de nombreux risques potentiels pour notre société, quels sont-ils ?
Fiabilité de l’information
Les deepfakes ont cette capacité à manipuler et à propager facilement la désinformation. Avec des vidéos falsifiées de plus en plus parfaites, il devient possible de créer de fausses informations compromettantes ou diffamatoires sur des personnes ou des entreprises. La réputation et la vie privée des personnes peuvent être fortement impactées, ce qui soulève des questions cruciales quant à la véracité de ce que nous voyons et entendons.
Enjeu politique
Les deepfakes autour de la politique sont une préoccupation majeure. En utilisant cette technologie, il est possible de créer de fausses déclarations de personnalités politiques, semant ainsi la confusion. Cette manipulation de l’opinion publique pourrait ébranler la confiance dans les médias et en certaines institutions d’un pays. Cette situation compromettrait ainsi la prise de décision ou l’intégrité des processus électoraux.
Atteinte à la fiabilité de l’identité
Les deepfakes sont aussi utilisés pour des escroqueries en ligne plus élaborées. En imitant des personnes réelles de façon convaincante, les fraudeurs peuvent tromper les utilisateurs et les amener à divulguer des informations sensibles ou effectuer des transactions frauduleuses.
Cette utilisation malveillante des deepfakes soulève d’importantes préoccupations en matière de sécurité en ligne. En 2022, le CSO (Chief Strategy Officer), Patrick Hillman, de la société de cryptomonnaie Binance en a par exemple fait, personnellement, les frais. Des deepfakes, générés à partir d’interviews trouvées sur Internet, ont permis aux attaquant de se faire passer pour Patrick Hillman afin d’arnaquer des membres de la communauté crypto. Ce dernier s’en est rendu compte lorsqu’il a reçu des messages de personnes le remerciant d’avoir échangé concernant la future intégration de leur projet sur Binance.
Cela fait ressortir la nécessité d’améliorer les mécanismes de protection et de détection. Aujourd’hui, Headmind Partners forme ses consultants pour mieux en comprendre les enjeux et s’engage à faire des campagnes de sensibilisation chez ses clients. Cette sensibilisation permet une prise de conscience individuelle et un renforcement de la prudence en ligne qui constituent une première barrière de défense contre les deepfakes. Aussi, il est particulièrement important de préparer les équipes les plus sensibles à ce type de menaces car ce sont celles qui sont le plus exposées aux fraudes par les deepfakes.
Deepfakes appliqués à l’Identity and Access Management (IAM)
Les deepfakes sont devenus de réels outils pour les pirates afin de contourner les systèmes d’IAM. Leur principale cible est l’authentification par reconnaissance faciale ou vocale.
Des attaques personnalisées et commercialisées
Pour générer un deepfake, soit l’attaquant crée son propre deepfake à partir de données trouvées en ligne, soit il fait une demande de prestation sur internet. En effet, un réel marché a émergé sur le darknet. En fonction de la qualité et de la complexité du deepfake, le tarif peut varier de 300 à 20 000 $ par minute. Bien évidemment les bénéfices sont considérables vis-à-vis des coûts de mise en place si la supercherie aboutie.
Des attaques contre les systèmes d’IAM ont déjà été répertoriées. La société de cryptomonnaie Binance en a été victime. Dans ce cas, les attaques ont eu pour cible le système de contrôle d’identité des utilisateurs. Le dispositif de vérification se base sur l’analyse d’un selfie vidéo dans lequel la personne doit effectuer des mouvements (clignement des yeux, mouvements de tête) demandés en temps réel par un opérateur. Des attaques par deepfakes ont été identifiées parmi les vidéos des soi-disant utilisateurs. En effet, les hackers désirent voler les fonds des utilisateurs et ici le dispositif d’IAM est un réel vecteur d’attaque.
Les systèmes de reconnaissance faciale et vocale sont aussi touchés par ces types d’attaques. Aucun système d’IAM basé sur des données vidéo ou audio n’est à l’abri.
Le besoin de multiplier les méthodes d’authentification
Pour se prémunir contre ce type d’attaques, Headmind Partners préconise la mise en place de MFA (Multi-Factor Authentication). Cette stratégie d’IAM consiste à apporter deux éléments de preuve ou plus pour s’authentifier. L’authentification vidéo ou vocale étant la cible des deepfakes, apporter une autre preuve (token, mot de passe…) va permettre de rendre le système d’IAM plus difficilement attaquable.
Ces exemples témoignent de la menace que représentent les deepfakes pour l’IAM. Mais sur quels critères pouvons-nous nous baser pour détecter ces deepfakes et d’une certaine manière s’en prémunir ?
Détection des deepfakes
Les deepfakes ont eux aussi leurs failles. Et c’est en les exploitant qu’il est possible de les détecter.
A l’œil nu
Rien qu’en observant un deepfake à l’œil nu, il est encore possible de l’identifier. Effectivement il faut être attentif et chercher les erreurs. Ces défauts se présentent sous la forme d’artefacts qui sont des phénomènes créés de toutes pièces lors de la génération du deepfake. Ils se manifestent par de la pixélisation, une mauvaise qualité vidéo ou encore des mouvements non naturels de la personne (clignements des yeux, position de la tête, …). C’est sur ces aspects que les vérificateurs humains vont se baser pour tenter de détecter les deepfakes.
Cependant la détection à l’œil nu des deepfakes est peu fiable avec l’amélioration grandissante de l’IA. En effet, la génération des deepfakes devient de plus en plus performante pouvant rendre, un jour, les deepfakes imperceptibles à l’œil humain.
Grâce à l’IA
Des méthodes de détection se basent aussi sur de l’IA et permettent d’être plus précis :
- Comme pour la détection à l’œil nu, l’IA peut identifier les artefacts dans une image/vidéo. Une IA nourrie par de nombreuses vidéos présentant des artefacts peut apprendre à les détecter dans les deepfakes.
- Intel a récemment développé une solution de détection des deepfakes en temps réel. Elle se base sur le changement de couleur des flux sanguins sur le visage (photopléthysmographie) observable uniquement sur les vidéos réelles. Un modèle d’IA est utilisé pour détecter la présence ou l’absence de ce phénomène et ainsi détecter les deepfakes.
- D’autres méthodes vont se baser sur des informations d’identité. L’IA va détecter toute anomalie dans la gestuelle ou les expressions de la personne. La cohérence entre différentes parties du corps va notamment être étudiée. C’est par exemple le cas des zones de transition entre les parties du visage expressives et celles plus statiques. Si les mouvements/les déplacements sont incohérents entre ces zones, l’IA va détecter le deepfake.
Cependant ces méthodes basées sur l’IA ont leurs limites et ne sont pas infaillibles. Elles restent récentes et nécessitent d’être améliorées et renforcées avant d’être exploitées par chacun pour se protéger contre les deepfakes.
Les méthodes de détection permettent donc de se prémunir contre les deepfakes à une certaine mesure. Une approche combinée, intégrant plusieurs mesures de sécurité et de contrôle, comme les contrôles d’accès renforcés, la sensibilisation des acteurs, l’utilisation de technologie de détection, est recommandée pour améliorer la sécurité contre les deepfakes.
Headmind Partners
Au vu de la croissance des attaques par deepfake, Headmind Partners a été sollicité par plusieurs de ses clients pour répondre aux problèmes de sécurité causés par les deepfakes. En combinant compétences techniques, sociales et réglementaires, Headmind Partners a mené différentes actions comme la réponse à incident ou la préparation opérationnelle à ces nouveaux types de menaces. La cyberscurité appliquée aux deepfakes est un défi constant nécessitant une innovation, une expertise et une collaboration continue entre des experts de différents domaines.
Co-écrit par Céline Lestrohan et Louis Dupré