Passer au contenu
Deepfake, le futur de l'ingénierie sociale

Deepfake, le futur de l'ingénierie sociale

30 juillet 2019 concept  vulnérabilité 

Le terme "Deepfake" est utilisé pour désigner une vidéo ou un enregistrement audio produit ou altéré grâce à l'intelligence artificielle. Il vient d'être utilisé dans des arnaques à base d'ingénierie sociale.

Le terme est une contraction de "Deep Learning" (apprentissage profond) et "Fake" (faux) que l'on peut traduire par "Hypertrucage" en français.

Cette technique est utilisée actuellement pour créer de fausses informations. Elle permet de truquer des vidéos en modifiant de manière ultra réaliste des poses ou des expressions faciales.

Quelques exemples

Voici un exemple de vidéo créée avec la technique "Deepfake". Barack Obama n'a bien sur jamais prononcé ces mots :

Un autre exemple dans lequel des volontaires apparaissent en train de réaliser des mouvements de danse qu'ils n'ont bien sur jamais effectués !

Même s'il est encore possible de distinguer le vrai du faux en regardant attentivement, il est probable que dans les prochaines années cela devienne impossible, du moins impossible pour un oeil humain !

Dans le futur

Symantec a publié récemment que les arnaques de "fraude au président" frappent 6 000 entreprises par mois. Cette arnaque, connue également sous le nom de fraude aux comptes de messagerie, exploite l'ingénierie sociale dans le but de vous faire faire un virement ou n'importe quelle autre action permettant de vous escroquer.

L'ingénierie sociale consiste à se focaliser sur le "facteur humain", sur vous, et non sur un système informatique. Habituellement les fraudes utilisent de faux emails ou de faux sites web, mais il n'aura pas fallu longtemps à des groupes criminels pour s'emparer du Deepfake pour escroquer des entreprises.

Leur stratégie ? Des fichiers audio reproduisant la voix de votre patron sont générés grâce à une intelligence artificielle entraînée (en utilisant comme source des interviews, des vidéos en ligne ou des conférences). Ils passent un appel et vous ordonnent d'effectuer un transfert d'argent. Et hop, le tour est joué ! 3 cas de ce genre ont déjà été comptabilisé.

Les fausses vidéos ou les faux fichiers audio deviennent de plus en plus réalistes et de plus en plus simples à réaliser. Dans le futur, pour éviter de se faire tromper, nous retrouverons surement dans nos messageries des outils capables de nous dire à nous humain, si une vidéo est réelle ou non ! La startup Deeptrace travaille actuellement sur ce type d'outil.

Restez donc vigilant, les arnaqueurs auront toujours un temps d'avance !

Note : 4.9 - 21 votes Evaluer cet article
4.9

Par Thibaut Pietri

Ingénieur informatique spécialisé réseau, basé à Toulouse, j'ai plus de 20 ans d'expérience en développement et sécurisation de sites Internet, Extranet & applications mobiles autour des technologies LAMP (Linux/Apache/MySQL/PHP) sur différents outils de gestion de contenu (Wordpress, Prestashop, Drupal, Isens Evolution...).

Derniers articles

1 commentaire

  1. Thibaut PietriThibaut Pietri

    Dans un autre registre mais relié à cette info : une chinoise appliquait un filtre pour modifier son apparence pendant ses livestreams sur youtube. Il faut toujours s'interroger sur la véracité de ce que l’on peut observer en ligne.

    Il y a 5 ans | Répondre

 
Retour en haut de la page