Le terme "Deepfake" est utilisé pour désigner une vidéo ou un enregistrement audio produit ou altéré grâce à l'intelligence artificielle. Il vient d'être utilisé dans des arnaques à base d'ingénierie sociale.
Le terme est une contraction de "Deep Learning" (apprentissage profond) et "Fake" (faux) que l'on peut traduire par "Hypertrucage" en français.
Cette technique est utilisée actuellement pour créer de fausses informations. Elle permet de truquer des vidéos en modifiant de manière ultra réaliste des poses ou des expressions faciales.
Quelques exemples
Voici un exemple de vidéo créée avec la technique "Deepfake". Barack Obama n'a bien sur jamais prononcé ces mots :
Un autre exemple dans lequel des volontaires apparaissent en train de réaliser des mouvements de danse qu'ils n'ont bien sur jamais effectués !
Même s'il est encore possible de distinguer le vrai du faux en regardant attentivement, il est probable que dans les prochaines années cela devienne impossible, du moins impossible pour un oeil humain !
Dans le futur
Symantec a publié récemment que les arnaques de "fraude au président" frappent 6 000 entreprises par mois. Cette arnaque, connue également sous le nom de fraude aux comptes de messagerie, exploite l'ingénierie sociale dans le but de vous faire faire un virement ou n'importe quelle autre action permettant de vous escroquer.
L'ingénierie sociale consiste à se focaliser sur le "facteur humain", sur vous, et non sur un système informatique. Habituellement les fraudes utilisent de faux emails ou de faux sites web, mais il n'aura pas fallu longtemps à des groupes criminels pour s'emparer du Deepfake pour escroquer des entreprises.
Leur stratégie ? Des fichiers audio reproduisant la voix de votre patron sont générés grâce à une intelligence artificielle entraînée (en utilisant comme source des interviews, des vidéos en ligne ou des conférences). Ils passent un appel et vous ordonnent d'effectuer un transfert d'argent. Et hop, le tour est joué ! 3 cas de ce genre ont déjà été comptabilisé.
Les fausses vidéos ou les faux fichiers audio deviennent de plus en plus réalistes et de plus en plus simples à réaliser. Dans le futur, pour éviter de se faire tromper, nous retrouverons surement dans nos messageries des outils capables de nous dire à nous humain, si une vidéo est réelle ou non ! La startup Deeptrace travaille actuellement sur ce type d'outil.
Restez donc vigilant, les arnaqueurs auront toujours un temps d'avance !
Par Thibaut Pietri
Derniers articles
Les risques de sécurité liés aux métadonnées des photos
14 août 2019 En photographie numérique, les métadonnées sont stockées à l'intérieur d'un fichier JPG et permettent de décrire un certain nombre d'informations complémentaires. Ces métadonnées représentent un risque de sécurité.
Comment vérifier si votre site internet a été piraté ou infecté ?
9 août 2019 Le piratage d'un site web peut parfois ne pas être visible directement avec un navigateur web. En effet le piratage peut avoir des objectifs variés. Certains ont tout intérêt à rester invisible.
L'authentification à facteurs multiples pour protéger votre site web
7 août 2019 L'authentification à facteurs multiples est un système de sécurité combinant au moins deux modes d'identification différents. Explications.
Thibaut Pietri
Dans un autre registre mais relié à cette info : une chinoise appliquait un filtre pour modifier son apparence pendant ses livestreams sur youtube. Il faut toujours s'interroger sur la véracité de ce que l’on peut observer en ligne.
Il y a 5 ans | Répondre