La pandémie de Covid-19 a ouvert une nouvelle ère pour le télétravail. Face à des équipes soudainement dispersées, de nombreux employeurs ont rapidement adopté des outils technologiques pour suivre et contrôler l’activité de leurs salariés à distance. Mais en 2025, le vent a tourné : plus de la moitié des employés des entreprises du classement Fortune 100 ont été rappelés au bureau à temps plein. Et avec ce retour massif, un héritage persiste : celui d’une culture de la surveillance, désormais bien ancrée.
Aujourd’hui, de plus en plus d’entreprises s’appuient sur la reconnaissance faciale pour gérer leur personnel. Selon une enquête récente d’ExpressVPN, 74 % des employeurs américains utilisent des outils de suivi en ligne, et 67 % d’entre eux recourent à des dispositifs biométriques, qu’il s’agisse de reconnaissance faciale ou de lecture d’empreintes digitales. Les usages sont multiples : contrôler la présence, identifier les employés, filtrer et sélectionner les candidats, limiter les interactions physiques ou encore suivre les déplacements — une pratique courante dans les secteurs de la livraison ou du travail indépendant.
Reste une question centrale : quelles vulnérabilités et quels biais ces technologies introduisent-elles sur le lieu de travail ? Et jusqu’où risquent-elles de renforcer les discriminations déjà présentes ? Les dérives de la reconnaissance faciale au travail ne relèvent plus de la théorie : plusieurs affaires récentes montrent comment ces technologies peuvent renforcer les discriminations.
En 2025, une plainte a été déposée auprès de la Colorado Civil Rights et de la Commission américaine pour l’égalité des chances en matière d’emploi (EEOC) contre l’éditeur de logiciels Intuit et son partenaire HireVue, spécialisé dans l’évaluation des candidats. L’IA de HireVue est accusée d’avoir privé une femme autochtone et sourde d’une promotion, en raison de son origine ethnique et de son handicap.
Ce n’est pas un cas isolé. En 2020, une maquilleuse employée par une grande marque affirme avoir été licenciée après un entretien vidéo via HireVue. Selon elle, le logiciel de reconnaissance faciale lui a attribué une note défavorable à cause de son langage corporel, scellant ainsi son sort.
En 2024, un chauffeur Uber Eats a, lui, remporté un procès contre son ancien employeur. Il soutenait avoir été licencié après l’échec répété des contrôles d’identité biométriques, le logiciel ne parvenant pas à reconnaître son visage — un problème qu’il juge lié à sa couleur de peau.
Ces cas donnent raison aux alertes lancées par la chercheuse et autrice Joy Buolamwini, qui dénonce depuis des années les biais raciaux et sexistes de la reconnaissance faciale. Dans son livre Unmasking AI et le documentaire Coded Bias, elle montre que la technologie reste nettement moins précise lorsqu’il s’agit d’identifier des personnes de couleur.
Les preuves s’accumulent : la reconnaissance faciale pénalise de manière disproportionnée les communautés marginalisées. Cette technologie identifie fréquemment à tort des personnes noires, conduisant parfois à des arrestations injustifiées. Une étude publiée en 2025 révèle aussi des taux d’erreur plus élevés chez les adultes atteints du syndrome de Down. Les chercheurs soulignent par ailleurs sa moindre précision pour les personnes transgenres et ses difficultés à reconnaître les personnes non binaires.
Introduite sur le lieu de travail, la reconnaissance faciale peut peser lourdement sur le climat social. Une évaluation menée en 2023 et transmise au Bureau de la politique scientifique et technologique de la Maison Blanche montre que la surveillance numérique alimente un sentiment de méfiance : les employés se sentent constamment observés, ce qui entame la productivité et le moral. Certains estiment que cette surveillance décourage aussi la syndicalisation, en freinant toute organisation collective. À cela s’ajoute une inquiétude persistante sur la confidentialité et l’usage des données collectées.
Les employeurs auraient tout intérêt à réfléchir à deux fois avant de déployer des logiciels de reconnaissance faciale sur le lieu de travail. Ces outils ne sont pas seulement vulnérables aux biais : ils peuvent aussi miner la confiance et le moral des équipes. Pour les organisations qui les utilisent déjà, la vigilance est de mise. Elles devraient exiger de leurs fournisseurs des informations claires sur les audits réalisés et sur les mécanismes de responsabilité destinés à garantir la précision et à limiter les biais.
Les employés, eux, doivent connaître leurs droits. La collecte, le stockage et l’usage des données doivent être strictement encadrés et transparents. Plus largement, une question s’impose : voulons-nous vraiment construire un avenir où un algorithme juge notre visage pour décider si nous méritons une récompense… ou une sanction ?
Une contribution de Janice Gassam Asare pour Forbes US – traduit par Lisa Deleforterie
À lire également : Digitalisation et relations au travail : un équilibre à (re)trouver pour une meilleure qualité de vie

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits