L’IA dans le recrutement : gain de temps ou perte de repères ?

En 2025, plus de 35 % des PME québécoises utilisent des outils d’IA pour trier les candidatures ou recommander des profils (Statistique Canada, 2025). Les grandes entreprises sont encore plus avancées, avec des systèmes intégrés qui évaluent les CV, génèrent des questions d’entrevue, ou même mesurent les micro-expressions faciales lors des entrevues vidéo. Le problème ? La majorité de ces outils sont implantés sans politique d’encadrement clair. Et leurs critères, souvent opaques, peuvent reproduire ou amplifier des biais systémiques : discrimination fondée sur le nom, l’âge, l’accent ou le lieu de résidence.

Selon le Conseil de l’innovation du Québec (2024), près de 40 % des candidats ne savent pas qu’un algorithme a influencé le traitement de leur candidature. Et pourtant, plusieurs décisions sont partiellement — voire entièrement — prises par des systèmes d’intelligence artificielle.

L’intégration de l’IA dans les processus de recrutement peut être un levier de performance, à condition qu’elle soit balisée.

Ce volet présente 10 politiques RH concrètes pour encadrer efficacement l’utilisation de l’IA dans la sélection et l’intégration des candidats.

1. Politique de transparence dans le processus de sélection

Les candidats doivent être informés dès le départ que l’IA :

  • Participe à l’analyse de leur candidature
  • Peut influencer la présélection
  • Ne remplace pas totalement le jugement humain

But : Protéger le droit à l’information des candidats et éviter les perceptions de manipulation ou d’exclusion.

2. Politique de supervision humaine obligatoire à l’embauche

L’IA peut trier ou recommander, mais elle ne peut jamais embaucher à elle seule.

Un humain doit :

  • Valider les décisions finales
  • Interpréter les recommandations IA
  • Documenter son rôle dans la décision

But : Préserver l’évaluation humaine dans une décision critique pour l’individu et l’organisation.

3. Politique de validation des critères de sélection automatisés

Avant de déployer un outil IA, il faut valider que ses critères de sélection :

  • Ne favorisent pas un genre ou un groupe d’âge
  • N’excluent pas involontairement certains profils
  • Sont cohérents avec les compétences réellement recherchées

But : Éviter que l’IA ne renforce inconsciemment des inégalités déjà présentes dans les processus de recrutement.

4. Politique d’audit périodique des outils IA de recrutement

Tous les 12 mois, un audit doit être réalisé pour évaluer :

  • Les taux d’embauche par genre, origine et âge
  • Les écarts entre les recommandations IA et les embauches finales
  • L’impact réel sur la diversité et l’équité

But : Détecter les dérives algorithmiques et ajuster les outils avant qu’ils ne produisent des injustices.

5. Politique de consentement éclairé des candidats

Les candidats doivent donner un consentement clair lorsqu’un outil IA est utilisé pour :

  • L’analyse de leurs CV
  • Leur notation automatisée
  • Leur évaluation vidéo ou vocale

But : Respecter les lois sur la protection des renseignements personnels (Loi 25) et le principe de transparence.

6. Politique de retrait ou de reclassification humaine

Si un candidat juge qu’un outil IA a mal évalué son profil, il doit pouvoir :

  • Demander une relecture humaine
  • Soumettre une version corrigée de son profil
  • Poser des questions sur les critères d’analyse

But : Offrir une voie de recours équitable et préserver l’accès au marché de l’emploi.

7. Politique d’analyse du langage et des métadonnées

Les outils IA ne doivent pas utiliser de données sensibles indirectes, comme :

  • L’accent perçu en entrevue audio
  • Le style d’écriture ou de langage
  • Les métadonnées de navigation sur la plateforme

But : Prévenir les évaluations intrusives ou biaisées fondées sur des éléments non pertinents.

8. Politique d’encadrement des entrevues vidéo automatisées

Toute entrevue vidéo automatisée doit :

  • Être balisée par un guide éthique
  • Inclure des consignes claires au candidat
  • Être suivie d’une révision humaine

But : Éviter que l’évaluation IA des expressions faciales ou du ton ne mène à des décisions inéquitables.

9. Politique d’inclusion et de non-discrimination algorithmique

L’organisation doit s’assurer que l’IA favorise l’inclusion en :

  • Ne pénalisant pas les candidats issus de groupes minoritaires
  • Encourageant la diversité dans les recommandations
  • Corrigeant les biais historiques d’embauche

But : S’assurer que l’IA soit un levier d’équité, et non un miroir des injustices passées.

10. Politique d’accueil et d’intégration humaine prioritaire

Même après sélection automatisée, l’intégration doit demeurer humaine :

  • Rencontres personnalisées
  • Suivi individuel par un gestionnaire
  • Explication claire des processus utilisés

But : Conserver une culture d’accueil centrée sur les relations humaines, malgré l’usage d’outils technologiques.

Pourquoi ce volet est stratégique : protéger l’équité dès la porte d’entrée

Si l’IA biaise l’accès à l’emploi, tout le reste du processus RH est faussé. Mal encadrée, elle peut :

  • Reproduire des pratiques discriminatoires en silence
  • Exclure des profils atypiques ou issus de la diversité
  • Déshumaniser les premières étapes du parcours employé
  • Détruire la réputation employeur auprès des chercheurs d’emploi

Une IA non supervisée à l’embauche devient un filtre invisible mais puissant. Ce volet est donc crucial pour assurer une équité réelle dès le premier contact.

Conclusion du volet 2 – Du tri à l’intégration : chaque étape compte

Le recrutement est souvent la première interaction entre un candidat et votre organisation. Une IA mal encadrée à cette étape peut nuire à votre marque employeur, votre diversité et votre performance. Ce volet vous offre les outils pour encadrer cette étape clé sans perdre l’efficacité que l’IA promet.

Dans le volet 3, nous aborderons l’intégration de l’IA dans la formation, le développement des compétences et la gestion de carrière. Des domaines où l’IA peut autant accélérer l’apprentissage que renforcer les inégalités si elle n’est pas bien encadrée.