Deepfake : des escrocs usurpent l’identité d’experts pour voler les données sensibles des entreprises
Le FBI a émis un avertissement en début de semaine, indiquant qu'il avait reçu un nombre croissant de plaintes relatives à l'utilisation de vidéos deepfake lors d'entretiens d'embauche pour des emplois technologiques impliquant l'accès à des systèmes et des informations sensibles.
De plus en plus de personnes utilisent la technologie deepfake pour se faire passer pour quelqu'un d'autre lors d'entretiens d'embauche à distance, a déclaré le FBI mardi. Dans son communiqué, le FBI indique qu'il a reçu un nombre croissant de plaintes concernant des personnes qui superposent des vidéos, des images ou des enregistrements audio d'une autre personne sur elles-mêmes lors d'entretiens d'embauche pour les postes en télétravail.
Pour ceux qui ne le savent pas, les “deepfakes” consistent à utiliser des programmes alimentés par l'intelligence artificielle pour créer des images réalistes d'une personne. La technologie peut par exemple être utilisée pour remplacer le visage d'une personne par celui d’une célébrité, ou encore de cloner la voix d’une autre personne.
Lire également – Deepfake : ce site porno dopé à l’IA attire de plus en plus d’adeptes et c’est inquiétant
Les entretiens d’embauche à distance sont la nouvelle cible des escrocs
D’après les informations du FBI, les escrocs se servent à la fois de faux documents et d'informations d'identification personnelle volés aux victimes pour tromper les employeurs et les inciter à les embaucher pour des emplois à distance. Ces postes en télétravail sont souvent liés aux technologies de l'information et à la programmation informatique, ainsi qu'aux bases de données et aux logiciels.
Le problème, c’est que certains de ces postes permettaient d'accéder à toutes sortes de données, depuis les informations personnelles des clients jusqu'aux données financières en passant par les informations confidentielles des entreprises.
Aujourd’hui, il devient de plus en plus difficile pour les recruteurs de savoir à qui ils ont affaire lors d’un entretien vidéo, car certaines technologies de deepfake sont très convaincantes. Cependant, le FBI annonce qu’il est possible de déceler une arnaque en cherchant certains indices. « Lors de ces entretiens, les actions et le mouvement des lèvres de la personne que l'on voit interviewée à la caméra ne sont pas complètement coordonnés avec l'audio de la personne qui parle », a déclaré le FBI. « Parfois, des actions telles que la toux, les éternuements ou d'autres actions auditives ne sont pas alignées avec ce qui est présenté visuellement ». Heureusement, des entreprises comme Facebook sont aujourd’hui capables de détecter un deepfake et même de retrouver leur créateur.
Source : FBI