Récemment, la chaîne américaine de consommateurs et de commerce (CNBC) a révélé que les "faux demandeurs d'emploi" utilisant la technologie de falsification profonde par IA pullulent.
Selon des rapports, la startup américaine de certification vocale Pindrop Security a récemment publié un poste d'ingénieur à distance en ligne, et un programmeur russe nommé "Ivan" s'est démarqué grâce à son CV impeccable, réussissant à obtenir un entretien. Cependant, lors de l'entretien vidéo, les recruteurs ont remarqué que ses expressions faciales étaient subtilement désynchronisées avec son discours. La vérité a rapidement émergé : il s'agissait d'un candidat utilisant une technologie d'IA pour se faire passer pour quelqu'un d'autre.
Vijay Balasubramaniyan, directeur général et cofondateur de Pindrop, a déclaré que le candidat – que la société a ensuite appelé « Ivan X » – a utilisé l’IA générative et de fausses techniques, y compris des faux visages profonds et des voix synthétiques, dans le but de tromper les systèmes de l’entreprise. Il pourrait même se trouver dans la zone d’installations militaires à la frontière entre la Russie et la Corée du Nord, plutôt que dans ce qu’il appelle l’Ukraine occidentale.
Les faux candidats au travail prolifèrent
L'entreprise fait face depuis longtemps à des menaces de pirates informatiques, et aujourd'hui, de nouvelles vulnérabilités en matière de cybersécurité apparaissent dans le domaine des ressources humaines.
Les faux demandeurs d'emploi utilisent des outils d'IA pour créer de faux documents d'identité, inventer des CV et même entraîner des modèles d'IA pour répondre aux questions d'entretien. Leurs motivations varient : demander un salaire, voler des données clients, implanter des logiciels de rançon, voire participer à des activités d'espionnage informatique à l'échelle nationale.
L'institut de recherche et de conseil Gartner prévoit qu'en 2028, environ un quart des chercheurs d'emploi dans le monde sera faux.
Surtout dans le secteur de la cybersécurité et des cryptomonnaies, de nombreux postes sont disponibles en télétravail, devenant le "territoire de chasse" des criminels. Lili Infante, fondatrice de CAT Labs, a déclaré qu'à chaque fois qu'ils publient une offre d'emploi, ils reçoivent presque "environ 100 candidatures de la part d'espions nord-coréens". "Leurs CV semblent parfaits, couvrant chacun des mots-clés que nous exigeons."
BrightHire fournit des services d'analyse d'entretiens vidéo à plus de 300 entreprises dans les secteurs financier, médical et technologique. Le PDG de la société, Ben Sesser, a souligné qu'il y avait eu une "augmentation drastique" du nombre de faux candidats depuis le début de l'année. "Le recrutement est un processus dominé par l'humain, et c'est donc devenu le maillon le plus vulnérable du système."
Ces imposteurs utilisent souvent des informations d’identité américaines volées, dissimulent leur géolocalisation grâce à un VPN à distance et réussissent plusieurs séries d’entretiens à l’aide d’avatars et de profils d’arrière-plan générés par l’IA. Dans certains cas, ils obtiennent même la performance d’un « employé vedette ».
La société de cybersécurité KnowBe4 a accidentellement embauché en octobre dernier un "employé" avec une identité falsifiée. Cette personne a utilisé des avatars générés par IA et des informations d'identité volées pour réussir les vérifications de fond, y compris quatre entretiens vidéo, jusqu'à ce que des mouvements suspects sur son compte attirent l'attention de l'entreprise.
En mai, le ministère américain de la Justice a également allégué que plus de 300 entreprises avaient embauché par inadvertance de faux employés informatiques liés à la Corée du Nord, provoquant des millions de dollars de sorties de salaires. Le FBI a même émis un avis de recherche contre « l’employé » en question.
Selon le rapport, les acteurs actuels de cette industrie ne se limitent plus à la Corée du Nord, et les gangs criminels peuvent également provenir de Russie, de Malaisie et de Corée du Sud.
La guerre technologique et la crise de confiance
"L'IA générative brouille la frontière entre l'homme et la machine", a déclaré Balasubramaniyan, "nous assistons à l'émergence d'une nouvelle menace : les candidats ne se contentent pas de falsifier leur identité et leurs expériences, ils sont même faux pendant le processus d'entretien."
Face à l'évolution rapide des technologies de profondeur de falsification, l'entreprise se tourne progressivement vers la lutte technologique. Par exemple, Pindrop a déployé un système de certification vidéo développé en interne, réussissant à démasquer le déguisement de "Ivan X".
La vérification d'identité est également devenue un secteur émergent, avec l'émergence d'entreprises telles que Jumio, iDenfy et Socure, offrant aux employeurs des services de vérification d'identité basés sur l'analyse biométrique et comportementale, aidant les employeurs à identifier les candidats frauduleux.
Bien qu'il y ait déjà eu une intervention judiciaire et des révélations médiatiques, la plupart des RH des entreprises ne considèrent toujours pas ce problème comme un risque majeur. Sesser a souligné : « Ils se concentrent sur la stratégie de talent, mais n'ont pas investi beaucoup d'énergie dans la ligne de défense de la sécurité. Beaucoup d'entreprises ont peut-être déjà embauché de faux employés, sans s'en rendre compte. »
Balasubramaniyan a également averti : « Nous ne pouvons plus juger de la vérité juste par nos yeux et nos oreilles. Sans l'assistance de la technologie, l'humanité est comme si elle devinait l'avenir avec une pièce de monnaie. »
(Source : Journal des Finances Internationales)
Source : Dongfang Caifu Wang
Auteur : International Finance News
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Les entreprises technologiques américaines sont confrontées à une vague de candidatures pour des emplois "AI masquer".
Récemment, la chaîne américaine de consommateurs et de commerce (CNBC) a révélé que les "faux demandeurs d'emploi" utilisant la technologie de falsification profonde par IA pullulent.
Selon des rapports, la startup américaine de certification vocale Pindrop Security a récemment publié un poste d'ingénieur à distance en ligne, et un programmeur russe nommé "Ivan" s'est démarqué grâce à son CV impeccable, réussissant à obtenir un entretien. Cependant, lors de l'entretien vidéo, les recruteurs ont remarqué que ses expressions faciales étaient subtilement désynchronisées avec son discours. La vérité a rapidement émergé : il s'agissait d'un candidat utilisant une technologie d'IA pour se faire passer pour quelqu'un d'autre.
Vijay Balasubramaniyan, directeur général et cofondateur de Pindrop, a déclaré que le candidat – que la société a ensuite appelé « Ivan X » – a utilisé l’IA générative et de fausses techniques, y compris des faux visages profonds et des voix synthétiques, dans le but de tromper les systèmes de l’entreprise. Il pourrait même se trouver dans la zone d’installations militaires à la frontière entre la Russie et la Corée du Nord, plutôt que dans ce qu’il appelle l’Ukraine occidentale.
Les faux candidats au travail prolifèrent
L'entreprise fait face depuis longtemps à des menaces de pirates informatiques, et aujourd'hui, de nouvelles vulnérabilités en matière de cybersécurité apparaissent dans le domaine des ressources humaines.
Les faux demandeurs d'emploi utilisent des outils d'IA pour créer de faux documents d'identité, inventer des CV et même entraîner des modèles d'IA pour répondre aux questions d'entretien. Leurs motivations varient : demander un salaire, voler des données clients, implanter des logiciels de rançon, voire participer à des activités d'espionnage informatique à l'échelle nationale.
L'institut de recherche et de conseil Gartner prévoit qu'en 2028, environ un quart des chercheurs d'emploi dans le monde sera faux.
Surtout dans le secteur de la cybersécurité et des cryptomonnaies, de nombreux postes sont disponibles en télétravail, devenant le "territoire de chasse" des criminels. Lili Infante, fondatrice de CAT Labs, a déclaré qu'à chaque fois qu'ils publient une offre d'emploi, ils reçoivent presque "environ 100 candidatures de la part d'espions nord-coréens". "Leurs CV semblent parfaits, couvrant chacun des mots-clés que nous exigeons."
BrightHire fournit des services d'analyse d'entretiens vidéo à plus de 300 entreprises dans les secteurs financier, médical et technologique. Le PDG de la société, Ben Sesser, a souligné qu'il y avait eu une "augmentation drastique" du nombre de faux candidats depuis le début de l'année. "Le recrutement est un processus dominé par l'humain, et c'est donc devenu le maillon le plus vulnérable du système."
Ces imposteurs utilisent souvent des informations d’identité américaines volées, dissimulent leur géolocalisation grâce à un VPN à distance et réussissent plusieurs séries d’entretiens à l’aide d’avatars et de profils d’arrière-plan générés par l’IA. Dans certains cas, ils obtiennent même la performance d’un « employé vedette ».
La société de cybersécurité KnowBe4 a accidentellement embauché en octobre dernier un "employé" avec une identité falsifiée. Cette personne a utilisé des avatars générés par IA et des informations d'identité volées pour réussir les vérifications de fond, y compris quatre entretiens vidéo, jusqu'à ce que des mouvements suspects sur son compte attirent l'attention de l'entreprise.
En mai, le ministère américain de la Justice a également allégué que plus de 300 entreprises avaient embauché par inadvertance de faux employés informatiques liés à la Corée du Nord, provoquant des millions de dollars de sorties de salaires. Le FBI a même émis un avis de recherche contre « l’employé » en question.
Selon le rapport, les acteurs actuels de cette industrie ne se limitent plus à la Corée du Nord, et les gangs criminels peuvent également provenir de Russie, de Malaisie et de Corée du Sud.
La guerre technologique et la crise de confiance
"L'IA générative brouille la frontière entre l'homme et la machine", a déclaré Balasubramaniyan, "nous assistons à l'émergence d'une nouvelle menace : les candidats ne se contentent pas de falsifier leur identité et leurs expériences, ils sont même faux pendant le processus d'entretien."
Face à l'évolution rapide des technologies de profondeur de falsification, l'entreprise se tourne progressivement vers la lutte technologique. Par exemple, Pindrop a déployé un système de certification vidéo développé en interne, réussissant à démasquer le déguisement de "Ivan X".
La vérification d'identité est également devenue un secteur émergent, avec l'émergence d'entreprises telles que Jumio, iDenfy et Socure, offrant aux employeurs des services de vérification d'identité basés sur l'analyse biométrique et comportementale, aidant les employeurs à identifier les candidats frauduleux.
Bien qu'il y ait déjà eu une intervention judiciaire et des révélations médiatiques, la plupart des RH des entreprises ne considèrent toujours pas ce problème comme un risque majeur. Sesser a souligné : « Ils se concentrent sur la stratégie de talent, mais n'ont pas investi beaucoup d'énergie dans la ligne de défense de la sécurité. Beaucoup d'entreprises ont peut-être déjà embauché de faux employés, sans s'en rendre compte. »
Balasubramaniyan a également averti : « Nous ne pouvons plus juger de la vérité juste par nos yeux et nos oreilles. Sans l'assistance de la technologie, l'humanité est comme si elle devinait l'avenir avec une pièce de monnaie. »
(Source : Journal des Finances Internationales)
Source : Dongfang Caifu Wang
Auteur : International Finance News