Sélection et embauche par des algorithmes: que dit le droit du travail ?

Comme le révélait récemment le « Tages-Anzeiger », les algorithmes sont de plus en plus utilisés lors de l’embauche de nouveaux collaborateurs par des entreprises suisses (comme la Migros, La Poste, les CFF, Crédit Suisse, Axpo, Helsana ou encore UBS) . Il existe en effet un nombre croissant d’outils informatiques qui permettent de trier les dossiers de candidatures, de les évaluer, voire de mener un entretien d’embauche via un « chatbot » ou même un véritable robot. Dans certains cas, cela a lieu sans aucune intervention humaine.

Si elle facilite grandement la tâche des employeurs et leur fait économiser un temps considérable, en particulier ceux qui font face à un très grand nombre de candidatures pour les postes qu’ils mettent au concours, l’utilisation d’algorithmes ne va pas sans poser des problèmes de droit du travail. J’avais traité cette question (avec celle du licenciement prononcé par un algorithme… dont je reparlerai une autre fois), dans un article scientifique paru l’an dernier (« Quand les algorithmes embauchent et licencient », in Müller/Rudolph/Schnyder/von Kaenel/Waas (éd.), Festchrift für Wolfgang Portmann, Zurich 2020 ). En voici un résumé (pour les références complètes, se reporter au texte original).

  1. Les nouveaux instruments numériques pour trier, sélectionner et interroger les candidats à l’embauche

Un nombre croissant d’employeurs fait appel à des algorithmes plus ou moins « intelligents » pour identifier les candidats potentiels, solliciter leur postulation, répondre à leurs questions, trier les candidatures, voire mener les premiers entretiens d’embauche. Certains de ces outils remplissent toutes ces fonctions à la fois, comme le chatbot « Mya » utilité par Adecco. Voici quelques-unes de ces fonctions.

  • Identifier des candidats potentiels

Les services de « sourcing » prospectent  sur les réseaux pour identifier des personnes qu’une entreprise pourrait recruter. Charge ensuite à elle de procéder au recrutement en tant que tel. Ces services passent en revue de nombreux sites, notamment des réseaux sociaux, et tentent ainsi d’identifier des personnes externes à l’entreprise dont le profil pourrait l’intéresser. Ces personnes n’ont pas postulé ni même l’intention de le faire. Ce service trouve ensuite leurs coordonnées. Comme il ne s’agit pas encore d’une phase précontractuelle, les règles du contrat de travail ne s’appliquent pas. En revanche, la Loi sur la protection des données est applicable et cette méthode la viole largement. En effet, le « sourceur » établit de véritables profils de personnalité (art. 3 let. d LPD, respectivement du « profilage » selon la LPD révisée), souvent sur la base d’information inexactes (qui devraient être corrigée selon l’art. 5 LPD), le tout sans le consentement explicite des intéressés (art. 4 al. 5 LPD) et sur la base de données dont la collecte avait un autre but (principe de finalité, art. 4 al. 3 et 4 LPD). Par ailleurs, le scannage généralisé des données personnelles de toute la population pouvant être potentiellement être engagée par les clients du « sourceur » est en contradiction avec le principe de proportionnalité (art. 4 al. 2 LPD).

  • Trier et sélectionner les dossiers de candidature

Il existe de nombreuses solutions d’« applicant tracking system » (système de suivi des candidatures) qui permettent de scanner les dossiers de candidatures reçus et de déterminer s’ils conviennent. Certains de ces systèmes informent même les candidats de leur classement par rapport à d’autres candidats.

Par exemple, la plateforme d’offres d’emploi monster.com ne transmets un dossier de candidature à un employeur potentiel que lorsque celui-ci reçoit le feu vert du logiciel maison « 6sense ». Du moment que la personne qui soumet un dossier le fait à l’intention d’un employeur en particulier, il faut partir de l’idée qu’elle fait une véritable une postulation ; l’employeur potentiel est alors soumis aux obligations dites précontractuelles dont je reparlerai plus bas.

A l’instar de « 6sense », de nombreux outils permettent aux employeurs de trier les candidatures et d’en sélectionner certaines. Certains, comme Text-Analysis ou Sentiment-Analysis (Watson/IBM) analysent les CV et établissent un profil de la personne qui postule. D’autre, comme Tone-Analyser prétendent être capable de décrypter les sentiments présents dans un texte.

Certains outils se disent capables de prévoir l’adéquation de l’employé potentiel avec les attentes de l’employeur (« matching ») : au moyen d’un calcul de probabilité des performances, ils tentent de démontrer si le candidat sera productif et s’il s’intégrera à la culture d’entreprise. Tous les fournisseurs de telles solutions prétendent qu’elles permettent de réduire le roulement du personnel (turnover) et d’améliorer la productivité. C’est toutefois lors de l’emploi de tels outils que le risque de discrimination par réplication des profils majoritaires dans l’entreprise est le plus élevé, les algorithmes auto-apprenants ayant tendance à s’inspirer des données qu’ils ont eu initialement à disposition.

LinkedIn a développé un outil qui, grâce au « machine learning », serait capable d’apprendre les besoins d’un recruteur et d’identifier automatiquement les candidats pertinents, en se basant sur l’historique des interactions. Dans de nombreux cas, il arrive que ce soient les algorithmes qui décident, seuls, de rejeter définitivement la candidature ou au contraire de la conserver pour les étapes suivantes du recrutement.

D’autres employeurs utilisent les algorithmes pour trier les candidatures au moyen de tests psychologiques. Ainsi, pour certains postes pour débutants chez Unilever, les premières phases de recrutement sont entièrement automatisées : les postulants reçoivent automatiquement un test psychologique mené par une intelligence artificielle dont le résultat décidera de la suite qui sera donnée à leur candidature.

  • Répondre aux questions des employés potentiels

Il existe plusieurs solutions de chatbot programmés pour répondre aux questions les plus fréquentes que posent les personnes qui envisagent de postuler auprès d’un employeur. Il existe notamment AskRH, qui fonctionne avec l’API « conversation » de Watson/IBM. Cela permet aux employés de se renseigner par exemple sur les conditions de travail en vigueur et ainsi d’éviter des postulations qui ne mèneront à rien.

  • Confier l’entretien d’embauche à une IA ou un robot

Il arrive même que l’entretien d’embauche se fasse grâce au truchement d’une IA, voire d’un véritable robot. Cela va d’une conversation téléphonique avec un chatbot (comme le proposent Precire, HireVue ou VideoBio), qui ne sert parfois qu’à établir un profil de personnalité du candidat, à un véritable entretien d’embauche, à distance face à un avatar humanoïde voire en présence d’un vrai robot. Il y a par exemple « Sophie », capable de poser des questions au candidat et de l’évaluer à l’aune de ses réactions et réponses. Il y a aussi « Zara », utilisée par Manpower, qui est d’abord utilisé pour effectuer un premier tri lors de recrutement massif, mais aussi dans le cadre de véritables entretiens. Il y a encore « Matilda », et « Vera », censés trier les CV, établir un profil de personnalité du candidat, déterminer sa motivation et sa compatibilité avec le poste mis au concours, le tout pour plusieurs milliers de profils par jour.

2. Les risques d’une sélection par les algorithmes

  • Le risque de discrimination

Le risque principal de l’emploi d’algorithmes lors du recrutement de personnel est la discrimination. En effet, même s’ils ont la réputation (largement usurpée comme on le verra ci-après) d’être objectifs, neutres et rationnels, les algorithmes n’en comportent pas moins de nombreux biais, notamment en raison des biais contenus dans les bases de données qu’ils utilisent ou qui ont servi à les entraîner, par exemple « foutaise à l’entrée, foutaise à la sortie » (« garbage in, garbage out »). En effet, ces bases sont composées des données disponibles (p. ex. les employés actuels d’une entreprise), alors qu’avant l’essor du numérique, elles étaient constituées d’échantillons représentatifs. Il y a aussi la discrimination statistique, lorsqu’un algorithme attribue automatiquement certaines caractéristiques un profil parce qu’il procède à une généralisation sur la base d’autres critères, par exemple lorsqu’il considère que tous les habitants d’un quartier sont peu productifs parce tous les travailleurs précédemment engagés habitant ce quartier se sont révélés être moins productifs que la moyenne. Les biais peuvent aussi résulter d’un pur calcul économique de l’algorithme, qui rejette les candidatures féminines parce qu’il considère que leur rapport coût-efficacité est moins bon. Certains algorithmes ne font enfin que reproduire les biais des humains qui les ont programmés (p. ex. le sexisme ambiant de certaines entreprises technologiques dont le personnel est majortairement composé d’hommes).

Parmi les exemples tristement célèbres, on trouve le logiciel de reconnaissance faciale de Google qui qualifiait de « gorilles » des photos de personnes afro-américaines. Ou celui de Microsoft « face API » qui dû être corrigé après que 93% des erreurs concernaient des personnes dont la couleur de peau est sombre, parce que sa base de données d’entraînement était surtout composée d’image d’hommes blancs. Plus récemment, un étudiant de l’EPFL a démontré que les algorithmes de Twitter pratiquent eux-aussi la discrimination à grande échelle.

Il existe aussi des exemples de biais en matière de recrutement de personnel :  un algorithme d’analyse de CV d’Amazon pour faciliter le recrutement attribuait souvent de mauvaises notes aux candidatures féminines pourtant en adéquation avec les postes à repourvoir. Il a aussi été démontré par une étude de l’Université de Carnegie-Mellon que l’algorithme de Google avait tendance à ne présenter aux chercheuses d’emploi des offres moins qualifiées ou moins bien payés que celles présentées aux hommes de profil équivalent.

Chez Unilever, la sélection par algorithmes de certains employés se fait au moyen de tests qui utilisent les résultats des meilleurs employés comme valeur de référence. Il y a donc un risque réel de pénaliser certains candidats. Cela dit, les résultats présentés par Unilever tendant à montrer une amélioration de la diversité des profils (cf. ci-après).

La discrimination de certaines catégories de travailleurs peut aussi être voulue par l’employeur, qui paramètre sciemment ses algorithmes de sélection, par exemple pour qu’ils excluent les candidatures d’un certain âge.

  • L’illusion de l’objectivité

Bien des concepteurs et des utilisateurs prétendent qu’une sélection opérée par des algorithme est plus objective et rationnelle que celle qui est le fait d’humains et qu’elle serait même capable d’objectiviser ce qui est par nature subjectif. Par exemple, Manpower prétend que l’analyse des émotions et du sourire par Zara est « objective ». Or, s’il est vrai l’usage d’algorithmes et de données permet d’éviter bon nombre de biais « typiquement humains », cela n’est souvent qu’une illusion d’objectivité et de rationalité. Comme évoqué ci-dessus, les algorithmes peuvent eux-mêmes générer des biais. En outre, contrairement à ce que bon nombre de personne croient, les données ne sont pas en soi rationnelles, neutres et objectives parce qu’elles recensent des faits sous forme de chiffres. En effet, toute base de données n’est d’une part qu’un reflet partiel de la société, un défaut encore plus marqué lorsque les données utilisées se fondent sur une entreprise dont le personnel est peu diversifié. D’autre part, une base de données est toujours le fruit d’un choix de critères, qui lui, est forcément subjectif.

3.Les chances d’une sélection par les algorithmes

  • Les biais cognitifs

Les sciences cognitives ont identifié depuis plusieurs décennies des écarts systématiques et réguliers par rapport à des choix considérés comme « rationnels ». Ces erreurs sont non seulement fréquentes, mais de direction constante, c’est-à-dire non aléatoire. En d’autres termes, elles ont pour conséquences que ceux qui les commettent se trompent toujours de la même manière et tombent toujours dans les mêmes pièges. Elles sont qualifiées de « biais cognitifs ». Certains de ces biais peuvent avoir des conséquences dévastatrices lorsqu’ils influencent la décision d’engager ou non quelqu’un. Il existe par exemple le « biais du champion » qui pousse à tenir pour vrai ce qui est dit par une personne connue et admirée pour ses succès et donc à s’y fier aveuglément ou le « biais d’intuition », qui pousse les dirigeants à se fier à leur instinct, indépendamment des faits. Il y a aussi le « biais de stéréotype », qui consiste à associer certains métiers à un sexe en particulier (coiffeuse, agent de police).

  • Racisme, sexisme et autres discriminations

De nombreuses expériences de postulations fictives ont montré que de nombreux employeurs se laissent influencer par des préjugés sexistes, racistes ou dus à l’âge lors de l’embauche de nouveaux travailleurs.

  • Les algorithmes en tant que moyen pour surmonter ces biais

Une sélection effectuée par des algorithmes permettra d’éviter ces discriminations, pour autant qu’ils soient correctement paramétrés et qu’ils ne se fondent pas sur d’autres critères entraînant des discriminations. Selon Unilever, l’utilisation d’algorithmes pour certains processus de sélection aurait permis d’augmenter la diversité des profils, tant au niveau de l’origine ethnique, sociale que géographique des candidats. Une étude de la Harvard Business Review a par ailleurs montré que la sélection effectuée par des algorithmes donne de meilleurs résultats que celle effectuée par des managers connaissant certes très bien leur métier et leur entreprise, mais se fiant surtout à leur intuition et se laissant distraire par des détails : les candidats sélectionnés par algorithmes ont ensuite de meilleures évaluations de leurs supérieurs, sont plus souvent promus et assimilent mieux par la formation. Une autre étude a aussi montré que certaines analyses de personnalité sont plus précises lorsqu’elles sont le fait d’algorithmes travaillant sur la base de traces numériques comme des activités sur les réseaux sociaux que lorsque des humains se livrent aux mêmes analyses en se basant sur des questionnaires de personnalité.

  • L’amélioration de la productivité et la diminution du roulement du personnel (turnover)

Le recrutement effectué l’aide d’algorithmes peut aussi inclure un élément prédictif. Les employeurs en espèrent une meilleure prévisibilité de la productivité des travailleurs qu’ils recrutent et de la durée de la relation contractuelle qui les liera à ceux-ci. L’algorithme est ainsi censé déterminer si le salarié va rester longtemps dans l’entreprise, s’il s’adaptera à sa culture et au poste qu’on va lui confier.

4. Quelques principes pour garantir la légalité des algorithmes

Réguler l’usage des algorithmes est une chose, contrôler que leur utilisation est conforme aux règles en est une autre. Et ce contrôle peut être très ardu. En effet, un algorithme est souvent une « boîte noire », un mécanisme dont il est impossible de connaître le fonctionnement exact. Cette absence de transparence est souvent justifiée par la propriété intellectuelle, mais elle est aussi due au fait que les personnes disposant de compétences suffisantes pour être capable de comprendre leur fonctionnement exact sont fort peu nombreuses.

Toutefois, comprendre le fonctionnement d’un algorithme utilisé dans le cadre d’une relation de travail est nécessaire dans de nombreux cas, notamment lorsque le travailleur est en droit d’obtenir une explication détaillée de son employeur (ou d’un employeur potentiel), comme les motifs du congé à remettre par écrit (art. 335 al. 2 CO) ou en cas de soupçon de discrimination à l’embauche liée au sexe (art. 8 al. 1 LEg). S’il fonde sa « décision » sur celle de l’algorithme, l’employeur devra en expliquer de manière transparente et compréhensible le fonctionnement, en particulier les éventuelles mesures pour éviter biais et discriminations. Il devra le cas échéant renseigner un tribunal de manière détaillée. Et, même lorsqu’il reprend telle quelle et fait sienne la « décision » de l’algorithme, l’employeur ne saurait se contenter de « j’ai décidé de suivre la proposition de l’algorithme », sans en détailler le contenu. En effet, se fier, voire se soumettre à un tel résultat n’est pas le motif qui justifie le congé ou le refus d’embauche, mais le processus qui a conduit à l’élaboration des motifs. S’il veut rester un décideur, l’employeur aura donc lui aussi intérêt à connaître le fonctionnement des algorithmes à qui il délègue la préparation de certaines de ses décisions.

La recherche a commencé à préciser les conditions nécessaires à l’usage d’algorithmes respectueux des droits fondamentaux. Voici les critères qu’ils devraient remplir :

  • Responsabilité : pour tout système algorithmique, il doit y avoir une personne ayant le pouvoir de faire face à ses effets indésirables ;
  • Explicabilité : toute décision produite par un algorithme devrait être expliquée aux personnes concernées ;
  • Exactitude : les sources d’erreur doivent être identifiées, consignées et comparées ;
  • Auditabilité : les algorithmes doivent être développés pour permettre à des tiers d’en sonder et d’en revoir le comportement ;
  • Justiciabilité : pour éviter les biais des décisions automatisées, les algorithmes qui prennent des décisions au sujet des individus doivent être évalués pour que leurs effets discriminatoires puissent être mesurés.

Il existe aussi des solutions techniques pour corriger les biais des algorithmes, comme compléter ou de redresser les bases de données en le reconstituant à l’aide de modèles statistiques.

La nouvelle LPD fait un premier pas en prévoyant une obligation d’information de la personne concernée et la possibilité pour celle-ci d’exposer son point de vue en cas de décision individuelle automatisée (art. 19 nLPD). Ce projet est malheureusement très en-deça des principes précédemment évoqués et reste donc très insuffisant. Il va aussi beaucoup moins loin que le nouveau règlement général sur la protection des données (RGPD) européen, dont l’art. 22 confère en principe le droit de ne pas être l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative. Le RGPD prévoit aussi des sanctions dissuasives ainsi que des dommages-intérêts, dont pourraient bénéficier les personnes victimes de discrimination suite à une décision automatisée, comme un non-engagement sur proposition ( voire décision) d’un algorithme. L’employeur soumis au RGPD a aussi l’obligation de réduire les risques de discrimination, notamment au moyen d’une « analyse d’impact sur la protection des données ».

5. Une machine pour représenter l’employeur ?

Conclure un contrat ou lui mettre un terme sont des actes juridiques qui nécessitent une manifestation de volonté. Un employeur (qu’il s’agisse d’une personne physique ou morale) peut se faire représenter (au sens des art. 32ss. CO) par une personne physique dotée des droits civils (art. 12 CC) pour valablement conclure un contrat ou émettre la manifestation de volonté unilatérale de donner le congé. Peuvent ainsi signer un contrat de travail ou une modification de ce contrat avec un employé, les organes exécutifs qui disposent du pouvoir de représentation, ainsi que toutes les personnes qui peuvent valablement représenter l’entreprise dans les actes juridiques avec des tiers. Si le contrat n’a pas été conclu par une personne dument autorisée à représenter l’employeur et que ce dernier ne le ratifie pas, il n’est pas conclu.

Lorsque ce n’est pas une personne physique ou morale (algorithme, IA, robot) qui prend la décision d’engager ou de donner le congé, cela doit être ratifié par une personne physique habilitée à représenter l’employeur. En effet, pour agir en qualité de représentant, il faut la personnalité juridique, ce que ni un algorithme, ni un robot, ni une intelligence artificielle n’a… ni n’aura, en tout cas dans un proche avenir (le Parlement fédéral a notamment refusé cette proposition de l’ancien conseiller national Mathias Reynard).

6. La discrimination à l’embauche en droit suisse du travail

  • Les obligations précontractuelles de l’employeur

Même s’ils finissent par ne pas être liés par un contrat de travail, un employeur et les personnes qui postulent à un emploi sont liées par des obligations précontractuelles qui vont au-delà des règles usuelles de la bonne foi. Ainsi, l’art. 328 CO sur la protection de la personnalité du travailleur s’applique déjà lors de la phase précontractuelle, même si au final aucun contrat n’est conclu (quelle qu’en soit la raison). L’art. 328b, qui autorise l’employeur à ne traiter que des données personnelles en liens avec la relation de travail s’applique lui aussi pendant cette phase précontractuelle.

L’employeur potentiel ne peut donc pas pratiquer de discrimination à l’embauche. Il ne peut pas non plus poser certaines questions au candidat ou rechercher certaines informations à son sujet.

  • La discrimination à l’embauche en droit privé
    • En fonction du sexe

L’art. 3 al. 2 de la Loi sur l’égalité (LEg) prohibe la discrimination en fonction du sexe, y compris lorsqu’elle est indirecte. Cela est aussi valable pour la discrimination à l’embauche, qui, si elle ne donne pas à la victime de droit à être embauchée, donne le droit à une indemnité. Une personne qui n’a pas été engagée et se prévaut d’une telle discrimination peut demander à celui qui ne deviendra pas son employeur qu’il motive sa décision par écrit (art. 8 al. 1 LEg). Cette régale rend à notre sens plus nécessaire encore la généralisation des critères d’explicabilité et de responsabilité des algorithmes : l’employeur qui fait recours à de tels outils doit être le cas échéant en mesure d’expliquer que cela ne conduit pas à des résultats discriminatoires.

Il faut enfin relever l’art. 3 al. 3 LEg, qui autorise expressément les « mesures appropriées visant à promouvoir dans les faits l’égalité entre femmes et hommes ». L’emploi d’algorithmes dans le but de favoriser la diversité des sexes lors de nouvelles embauches sera donc licite.

  • En fonction d’autres critères (origine ethnique, âge, opinions politiques, handicap, orientation sexuelle)

L’art. 8 al. 2 de la Constitution fédérale (Cst.) stipule que « Nul ne doit subir de discrimination du fait notamment de son origine, de sa race, de son sexe, de son âge, de sa langue, de sa situation sociale, de son mode de vie, de ses convictions religieuses, philosophiques ou politiques ni du fait d’une déficience corporelle, mentale ou psychique. » Ce droit fondamental ne s’applique toutefois pas strictement aux rapports de travail de droit privé (contrairement à l’al. 3 du même article consacré à l’égalité entre les sexes). Il n’existe ainsi pas de droit général à l’égalité de traitement en droit suisse du travail. Le Tribunal fédéral a notamment rappelé récemment que l’interdiction de discrimination directe visée par la loi sur l’égalité ne tient pas compte de l’orientation sexuelle. La liberté de contracter qui en découle n’est toutefois pas illimitée, notamment lorsque le travailleur (potentiel) est atteint dans ses droits personnels ou sa considération sociale, par exemple en cas de traitement discriminatoire sans motif justificatif.

L’art. 328 CO interdit donc toute discrimination à l’embauche motivée par un des critères évoqués à l’art. 8 al. 2 Cst. C’est par exemple le cas de la discrimination à l’embauche fondée sur un motif raciste. La sanction pour l’employeur qui la commet sera en principe une indemnité pour tort moral, mais ne saurait conduire à une obligation de contracter.

  • En fonction du lieu de domicile ou de la nationalité

Le lieu de domicile est une donnée personnelle facile à trouver et à traiter. C’est la source de nombreuses discriminations causées par des algorithmes. En effet, ceux-ci peuvent facilement faire des corrélations entre le critère « lieu de domicile » et un autre critère, même s’il n’y a en réalité pas de lien de causalité. Un exemple très connu est celui de la solvabilité : il suffit d’habiter dans un quartier où vivent de nombreux mauvais payeurs pour être soi-même classé dans cette catégorie par des organismes qui prétendent analyser la solvabilité, ce qui peut avoir des conséquences néfastes sur la vie quotidienne, comme des difficultés à obtenir un prêt bancaire ou à conclure un bail à loyer.

En matière de droit du travail, l’Accord sur la libre circulation des personnes (ALCP) prohibe la discrimination des travailleurs ressortissants des Etats membre de l’Union Européenne (art. 7 ALCP et art. 9 par. 1 de l’annexe 1 ALCP). Les algorithmes de sélection devront donc être paramétrés afin de ne pas aboutir à l’exclusion de travailleurs ressortissants de certains Etats. Cependant, comme les « mesures d’accompagnements » prévoient que l’interdiction de discrimination ne saurait conduire à de la sous-enchère salariale, il conviendra aussi d’éviter que ces algorithmes ne privilégient les ressortissants de certains de ces Etats, notamment au détriment des travailleurs indigènes, au motif que ceux-là accepteraient des conditions salariales moindres. En effet, un logiciel qui donnerait systématiquement la priorité à des travailleurs étrangers nettement moins bien rémunérés que des travailleurs indigènes contribuerait à une sous-enchère certainement abusive et en tout cas répétée, ce que justifierait les interventions des autorités prévues aux art. 360a ss CO. Si c’est l’employeur – et non l’algorithme – qui prend la décision finale d’engager, l’utilisation d’un tel algorithme pourrait constituer un indice de l’existence de sous-enchère abusive et répétée. Une telle discrimination pourrait en outre contrevenir aussi aux mesures de mise en œuvre de l’art. 121a Cst. (« préférence indigène »).

  • Les conséquences de la discrimination à l’embauche

En cas de discrimination à l’embauche, le travailleur victime n’a pas de droit à être engagé. Si la discrimination est liée au sexe, la victime pourra prétendre à une indemnité au titre de l’art. 5 al. 2 LEg. Dans les autres cas, elle aura droit à des dommages-intérêts et/ou une indemnité pour tort moral.

  • Les informations que l’employeur potentiel n’a pas le droit de recueillir

Lors d’un entretien d’embauche, un employeur potentiel, qui est légitimé à poser toute question directement liée au rapport de travail, n’a pas le droit de poser certaines questions qui violent la personnalité du candidat. C’est notamment le cas des questions liées aux opinions politiques et religieuses, à une grosses ou un projet de grossesse, à la situation familiale, au cercle d’amis, aux activités extra-professionnelles, etc. Et, s’il les pose tout de même, le candidat a le droit de ne pas répondre, voire de mentir. Certaines questions ayant trait à l’état de santé du candidat ou d’éventuels antécédents pénaux ne sont admissibles que lorsque cela peut avoir un impact sur l’exécution du travail.

Quant aux recherches sur le candidat et son passé, en particulier à propos de son activité sur les réseaux sociaux, il s’agit d’une pratique de plus en plus courante. Elle permet en effet à l’employeur d’obtenir des informations auxquelles il ne devrait pas avoir accès dans le cadre d’une postulation, car elles ne font pas partie des informations en lien avec la relation de travail qu’il est en droit d’obtenir. Ces informations sont pourtant d’autant plus faciles à obtenir qu’elles sont, en particulier les publications sur les réseaux sociaux, publiques ou en tout cas accessibles à un grand nombre de personnes. En outre, de nombreux services spécialisés, du « background check » aux analyses de solvabilité, permettent aux employeurs d’obtenir des informations qui peuvent leur sembler pertinentes sur un candidat. Toutefois, lorsqu’il mène de recherches de son propre chef (ou les externalise), l’employeur est soumis aux mêmes obligations précontractuelles que lors d’un entretien d’embauche. Il doit donc s’abstenir de rechercher des informations qui n’ont aucun lien avec la future relation de travail ou qui lui donnerait la réponse à des questions qu’il n’a pas le droit de poser. Comme il y a fort à parier que toute recherche fondée sur les activités en ligne d’une personne mènera fatalement à de telles informations, l’employeur doit renoncer à de telles recherches et à faire appel à des services spécialisés qui les font à sa place. Si une information comme un antécédent pénal ou en matière de poursuite et faillite s’avère avoir un lien avec la future activité, l’employeur doit demander au candidat de lui fournir l’information sous la forme d’un extrait de casier judiciaire ou de registre des poursuites, mais ne saurait mener lui-même de telles investigations. En revanche, l’employeur est habilité à consulter les informations à caractère professionnel que le candidat a lui-même mis en ligne, notamment sur les réseaux sociaux à vocation professionnelle comme linkedin, xing ou encore les réseaux d’alumni des hautes écoles.

Lorsque c’est un algorithme qui mène un entretien ou effectue des recherches sur un candidat, il convient donc de garantir qu’il ne posera pas de question interdite, respectivement ne mènera pas de recherches illicites. Si la problématique des questions semble assez simple à régler (il suffit de paramétrer le logiciel qui mène l’entretien pour qu’il ne les pose pas), celles des recherches est plus ardue. S’il est facile pour l’employeur de ne pas faire usage d’un service qui effectuera de telles recherches à l’aide d’algorithmes, il est beaucoup plus difficile de prévoir ce que pourrait faire une IA en charge du processus de sélection. En effet, celle-ci pourrait, de son propre chef suite à son processus d’apprentissage, décider de mener de telles recherches sur le compte des personnes qu’elle va sélectionner. Il importe donc de paramétrer ces IA pour qu’elles ne mènent pas de recherches illicites sur le compte des candidats et s’en tiennent aux informations que l’employeur est légalement en droit d’obtenir.

7. En guise de conclusion

L’usage d’algorithmes et d’IA pour sélectionner les candidats et trier leurs dossiers comporte de nombreux avantages pour les employeurs : gain de temps, évitement de certains biais typiquement humains (biais cognitifs, racisme) et, dans certains cas, gains de productivité et diminution du taux de roulement. Mais cela ne les libère pas de leurs devoirs envers leurs potentiels futurs collaborateurs. Même si c’est un algorithme qui effectue la sélection, l’employeur reste soumis aux obligations du droit du travail. Et c’est à lui que revient la décision d’engager ou pas le candidat. D’une part parce qu’une machine n’est pas (encore) capable de conclure valablement un contrat, mais aussi parce que les algorithmes et les bases de données dont ils se servent subissent eux-aussi des biais, des erreurs et des lacunes. Pour éviter de commettre une discrimination à l’embauche, l’employeur doit faire en sorte de les éviter. Il doit aussi veiller à ce que ces algorithmes puissent être audités et expliqués, le cas échéant devant un tribunal. Il en va de sa responsabilité, mais aussi de son libre-arbitre. En effet, un décideur qui se fie aveuglément à ce qui lui propose ou impose un algorithme ne décide pas ; il obéit.

D’une manière générale, il convient de ne pas se laisser bercer par l’illusion d’objectivité, de neutralité et de rationalité que certains confèrent aux machines. Même si elles donnent l’apparence d’être libérées des « travers » humains que sont la subjectivité ou les émotions, elles n’en ont pas moins été créées et développées par des humains, qui leur ont souvent transmis leurs défauts. Quant aux données qui les alimentent, il s’agit aussi de constructions humaines, fondées sur des choix et des jugements humains.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *