RH et responsables du recrutement, soyez vigilants :Comment détecter l’utilisation malveillante de l’IA dans le recrutement
Que ce soit, les CV écrits par ChatGPT, les réponses d’entrevue préfabriquées ou bien les références fabriquées, il y a beaucoup de choses dont les RH/responsables du recrutement doivent être conscients dans le travail au quotidien. Désormais, les avatars de personnes générées par l’IA – lors d’entrevue en ligne, seront une autre chose qui va devoir être ajoutée à cette liste.
Imaginez ceci : Vous êtes sur le point de commencer une entrevue vidéo avec un chercheur d’emploi. Il se présente, mais sa caméra est éteinte. Vous demandez qu’il allume sa caméra. Il dit qu’elle est brisée . Quelque chose ne va pas, alors vous insistez poliment pour qu’il se montre à la caméra afin que vous puissiez le voir. Il se déconnecte et se reconnecte 2 fois, “essayant” de faire fonctionner sa caméra, et quand il est enfin visible, son arrière-plan virtuel et sa vidéo globale soulèvent d’autres signaux d’alarme. Quand vous lui demandez de lever une main devant son visage, il quitte brusquement l’appel vidéo en ligne.
C’est exactement ce qui est arrivé à Bettina Liporazzi, de letsMake.com. Dans un post LinkedIn, elle a partagé une partie de cette entrevue et a reçu plus de 800 commentaires. Dans le passé, cette histoire de recrutement aurait semblé venir d’un film de science-fiction futuriste. Et pourtant, aujourd’hui avec les outils d’IA qui se développent à une vitesse fulgurante, ce scénario est malheureusement une réalité.
Cela semble être un problème croissant, en particulier dans le recrutement technologique. Une entreprise, Vidoc Security, a partagé son histoire, expliquant comment leurs cofondateurs ont été presque escroqués deux fois par des imposteurs postulant pour un poste de télétravail.
Le FBI a également tiré le son de cloche à ce sujet, avertissant que des fraudeurs utilisent des deepfakes dans de nombreux scénarios, y compris pour postuler sur des emplois sensibles, en particulier à distance, où ils peuvent accéder aux réseaux de l’entreprise et aux données sensibles. Les employés malveillants peuvent avoir l’intention de voler des secrets commerciaux, des fonds, des salaires et des données personnelles des employés ou des clients. Ils peuvent même prévoir d’installer des logiciels malveillants et ensuite exiger une rançon d’une entreprise.
Le FBI a également tiré la sonnette d’alarme à ce sujet, avertissant que des fraudeurs utilisent des deepfakes dans de nombreux scénarios, y compris pour postuler à des emplois sensibles, en particulier à distance, où ils peuvent accéder aux réseaux de l’entreprise et aux données sensibles
En tant que professionnels des RH, nous devons prendre cela comme un avertissement. En fait, CNBC vient de publier un article disant que de faux chercheurs d’emploi inondent les entreprises américaines qui embauchent pour des emplois à distance. De plus, le cabinet de recherche Gartner a prédit que d’ici 2028, avec l’essor des profils générés par l’IA à l’échelle mondiale, 1 candidat sur 4 ne sera pas une vraie personne!
Nous avons tous la responsabilité de protéger les informations sensibles hébergées au sein de nos organisations contre les mauvais acteurs. Nos parties prenantes nous font confiance et s’attendent à ce que nous maintenions un niveau de vigilance élevé à cet égard.
Alors, bien qu’il soit naturel pour nous de nous enthousiasmer sur la façon dont l’IA peut surcharger notre travail, nous devons poser des questions importantes, aborder les vulnérabilités dans nos processus et, surtout, être préparés à ce qui nous attend dans le futur.
À cette fin, nous avons recherché quelques conseils et stratégies qui peuvent nous guider dans l’évolution de nos pratiques d’embauche dans ce nouveau monde de l’IA :
- Exiger une entrevue en personne ou devant la caméra, même pour les emplois à distance : Parfois, les solutions aux problèmes de la nouvelle ère exigent que nous revenions à l’essentiel. À un moment donné du processus de recrutement, il serait sage que les organisations communiquent à l’avance que, même pour les emplois à distance, une entrevue en personne ou devant la caméra sera exigée sans l’utilisation d’arrière-plans virtuels, etc. Si un candidat refuse, considérez cela comme un signal d’alarme. Dans le cas de Bettina Liporazzi, de letsMake.com, elle a demandé au chercheur d’emploi de mettre sa main devant son visage, ce qui a incité l’escroc à abandonner sa mission. Dans le cas de Vidoc Security, certains détails ne concordaient pas entre les entretiens en ligne et les CV. Par exemple, un candidat a déclaré avoir fréquenté l’université en Pologne, mais il ne parlait pas polonais lors de l’entretien, tandis que le second candidat a déclaré avoir poursuivi des études supérieures en Serbie, mais ne parlait pas serbe du tout.
- Faire preuve de diligence en matière de vérification des faits, de références, de vérification des antécédents et d’intégration : L’équipe de Vidoc propose un [livre électronique] gratuit (https://www.vidocsecurity.com/ebook) « Deepfake Fraud Prevention » (Prévention de la fraude par Deepfake) contenant 17 stratégies pour détecter les faux travailleurs. Parmi celles-ci, ils recommandent de toujours vérifier les détails comme les [adresses et les numéros de téléphone] (https://www.vidocsecurity.com/ebook/ebook-detecting-fake-candidates-vsl.pdf), car les escrocs donnent souvent de fausses informations. Tenez également compte du type d’informations organisationnelles auxquelles un travailleur aura accès et, dans cette perspective, demandez une vérification des antécédents si nécessaire. Même pour les emplois entièrement à distance, envisagez d’investir du temps et des fonds dans l’intégration sur place. Rien ne vaut les liens personnels, et cette étape supplémentaire peut déjouer le plan d’un fraudeur potentiel, ce qui en fait une stratégie gagnante pour vos employés et votre entreprise.
- Soyez direct et même audacieux avec vos candidats : Trop souvent, en tant que « gentils Canadiens », nous avons tendance à nous inquiéter d’offenser potentiellement un candidat. Cependant, il est plus important de protéger vos parties prenantes. Après tout, il est beaucoup plus dommageable à long terme d’intégrer à votre équipe une personne qui finit par adopter des pratiques trompeuses. La clé du succès réside dans l’adoption d’une communication transparente, avec une approche équilibrée (par exemple, ne pas supposer que chaque candidat est un escroc potentiel) où vous faites preuve d’empathie, tout en faisant confiance à votre instinct. Cela peut sembler être une tâche ardue, car nous nous aventurons tous dans l’inconnu. Pour cela, le [HRPA] (https://www.hrpa.ca/hr-insights/beware-the-deepfakes-at-work/) recommande que la première étape pour se protéger contre les deepfakes soit l’éducation. Cela peut aider à réduire le manque de connaissances et à donner aux RH/responsables de l’embauche et aux dirigeants une compréhension rudimentaire de la façon de repérer les signes révélateurs essentiels.
- Développer des directives éthiques à l’échelle de l’entreprise sur l’utilisation de l’IA dans le processus d’embauche et pour les candidats à l’emploi : Des attentes et des politiques claires concernant l’utilisation de l’IA des deux côtés de l’équation d’embauche contribuent à établir la confiance grâce à la transparence. Soyez franc au sujet des [outils d’IA] (https://blueskypersonnel.com/your-next-job-interview-may-be-with-ai-instead-of-a-human/) que votre entreprise utilise dans le processus de recrutement, et en retour, encouragez les candidats à être francs au sujet des outils d’IA qu’ils utilisent également. Lorsqu’il n’y a pas de surprises, cette ouverture peut favoriser une culture de l’honnêteté, où tout le monde en bénéficie.
- Soyez prêt à sortir de votre zone de confort, à explorer de nouveaux territoires et à poser des questions difficiles : Le changement n’est jamais facile, surtout à la vitesse à laquelle tout évolue. Voici quelques questions qui peuvent aider à orienter certaines discussions internes sur l’IA afin d’aider votre organisation à mieux se préparer à ce qui l’attend à l’avenir :
-
- Évaluez votre processus actuel de vérification de l’identité des candidats. Vos protocoles suivent-ils le rythme des menaces potentielles et émergentes de l’IA ?
- Est-ce que votre organisation est vulnérable à une utilisation potentiellement malveillante de l’IA, et que faut-il changer pour y remédier ?
- Est-ce que vos outils RH s’intègrent bien aux gains d’efficacité basés sur l’IA ? Et maintiennent-elles des mesures de protection antifraude ?
- Est-ce que votre utilisation de l’IA favorise une véritable innovation?
À mesure que nous avançons, il est important que nous nous posions la question suivante : où est la limite ? Commençons à avoir des conversations franches. Mettons régulièrement à jour nos politiques pour suivre le rythme des progrès de l’IA. Et surtout, faisons preuve de volonté et de passion pour nous adapter. De cette façon, nous serons en mesure de protéger notre organisation et notre plus grand atout, notre personnel.
Si vous cherchez à ajouter de nouvelles recrues bilingues (français/anglais) exceptionnelles à votre équipe, alors puisez dans notre réseau exclusif de candidats dès aujourd’hui. Nous sommes connectés aux meilleurs talents à travers le Canada, et ce serait un plaisir pour nous de vous aider à trouver votre prochaine superstar d’entreprise ! Contactez-nous dès aujourd’hui au : 416-236-3303, et [email protected]. Nous avons hâtes de vous servir !