L’intelligence artificielle transforme tous les aspects de l’entreprise, du recrutement à la gestion des équipes, et l’une de ses applications les plus ambitieuses se trouve dans le domaine de la santé mentale en milieu professionnel.
D’après l’Organisation mondiale de la Santé (OMS), la dépression et l’anxiété entraînent chaque année une perte de productivité de près de 1 000 milliards de dollars pour l’économie mondiale. Dans ce contexte, des outils d’IA sont déployés pour soutenir activement la santé mentale des employés. La véritable question ne réside pas dans l’utilité de cette technologie, mais dans sa capacité à gagner la confiance des employés et dans la manière dont les entreprises sauront l’utiliser de façon responsable.
Comment l’IA est-elle utilisée pour surveiller la santé mentale au travail ?
L’IA est désormais utilisée pour analyser de nombreux aspects, des enquêtes sur l’engagement des employés aux habitudes de communication numérique. Elle peut repérer des signes d’épuisement professionnel, de démotivation ou même des changements de ton indiquant de possibles difficultés émotionnelles. Ces outils sont présentés comme des solutions permettant de prévenir les crises de santé mentale en intervenant avant qu’elles ne se manifestent pleinement. Cependant, leur utilisation soulève souvent des préoccupations, notamment en ce qui concerne leur portée intrusive, surtout lorsque les employés ignorent qu’ils sont ainsi surveillés.
L’IA peut-elle détecter avec précision la santé mentale des employés, y compris le stress, sans risque d’erreur ?
Si l’IA est efficace pour repérer les changements de tendances, elle peine souvent à saisir les subtilités humaines. Par exemple, une personne qui envoie moins de courriels pourrait être perçue comme désengagée, alors qu’elle est en réalité plus concentrée et productive. Dans un environnement à haute pression, certains employés peuvent choisir de se dépasser, travailler à des heures irrégulières ou éviter des discussions informelles. L’IA pourrait interpréter ces comportements comme des signes d’épuisement professionnel, alors qu’ils témoignent en fait d’une réelle dynamique. Une mauvaise interprétation de ces signaux pourrait conduire à des interventions mal ciblées et engendrer une résistance envers les outils destinés à soutenir la santé mentale au travail.
Pourquoi la confiance est cruciale pour les outils d’IA
D’après un récent rapport d’Edelman, seulement 50 % des employés font confiance à leur employeur pour utiliser l’IA dans leur intérêt. Cette confiance devient encore plus fragile lorsqu’il s’agit de la santé mentale au travail. Beaucoup d’employés redoutent que les données collectées par l’IA ne soient utilisées à mauvais escient, notamment lors des évaluations de performance ou des licenciements. En l’absence de transparence et de choix, même les outils les mieux intentionnés risquent d’être perçus comme une menace plutôt que comme un soutien.
Parallèlement, la demande de soutien est forte. Une étude de l’American Psychological Association menée en 2022 a révélé que 92 % des travailleurs jugent « très » ou « assez » important de faire partie d’une organisation qui valorise leur bien-être émotionnel et psychologique. Les employés cherchent de l’aide, mais uniquement s’ils ont confiance dans le système qui la leur propose.
Ce qui se passe lorsque l’assistance de l’IA devient un obstacle plutôt qu’une aide
J’ai observé que la confiance peut freiner l’adoption des outils de santé mentale, même lorsque l’intention est positive. Dans une entreprise où j’ai travaillé, des massages de la nuque étaient proposés pour réduire le stress. Bien que l’idée semblait pertinente, la plupart des employés la trouvaient gênante. Se faire masser en plein bureau donnait l’impression d’être exposé, plutôt que d’être pris en charge. Très peu ont accepté l’offre.
Dans une autre société, la direction avait mis en place un programme d’aide aux employés. Sur le papier, c’était une ressource précieuse, mais en pratique, personne ne l’utilisait. L’équipe était assez petite pour que tout le monde sache si quelqu’un en bénéficiait. On pouvait repérer ceux qui étaient sous pression, et la culture de l’entreprise n’encourageait pas la recherche d’une aide discrète. Personne ne voulait être perçu comme en difficulté, et la plupart restaient silencieux. Cette expérience a démontré à quelle vitesse la confidentialité peut s’effondrer quand la confiance fait défaut.
Cette même inquiétude concerne les outils d’IA pour la santé mentale. Si les employés pensent être surveillés ou évalués en toute discrétion, même avec de bonnes intentions, ils seront moins enclins à les utiliser. Peu importe l’avancée technologique ou la noblesse de l’objectif : l’adoption de ces outils dépend de la sécurité psychologique des employés. Sans une culture de la confiance, ces outils ne parviendront pas à toucher ceux qu’ils sont censés aider.
Les outils d’IA pour la santé mentale en entreprise doivent être supervisés par l’humain
Les entreprises recourent de plus en plus à l’IA pour optimiser la gestion des ressources humaines. Certains systèmes proposent des rappels automatisés, suivent l’humeur ou évaluent le bien-être en fonction des frappes clavier et du comportement numérique. Des outils comme Humu envoient des rappels personnalisés pour encourager de meilleures habitudes ; Microsoft Viva Insights analyse les dynamiques de collaboration pour suggérer des plages de concentration, et des plateformes telles que Time Doctor ou Teramind surveillent les niveaux d’activité et le comportement de frappe pour détecter des signes de désengagement ou de surcharge. Bien que ces outils permettent de gagner du temps, ils risquent de remplacer les véritables connexions humaines, qui restent essentielles à toute approche réussie de la santé mentale en entreprise. L’IA devrait guider les conversations, sans jamais les remplacer.
Exemples d’IA réussissant ou échouant à soutenir la santé mentale en entreprise
Certaines entreprises réussissent à utiliser l’IA pour identifier des schémas culturels ou détecter des environnements toxiques, offrant ainsi aux responsables RH un aperçu inédit. Des plateformes comme Humanyze analysent les données de communication et de collaboration pour révéler la dynamique des équipes, tandis que des outils tels que Culturelytics utilisent l’IA pour évaluer l’alignement des valeurs et repérer les forces et les faiblesses culturelles. Cependant, toutes les initiatives ne sont pas couronnées de succès. Des entreprises comme IBM ont été critiquées pour la surveillance excessive de leurs employés et des propositions telles que le plan abandonné de Lattice, visant à confier aux bots d’IA la gestion des performances, ont immédiatement suscité des inquiétudes. Lorsque les employés ont l’impression que leur comportement est jugé par des algorithmes plutôt que compris dans un contexte humain, la confiance s’effondre. Sans cette confiance, même les outils d’IA les mieux intentionnés risquent d’avoir des effets contre-productifs. Pour que l’IA soutienne véritablement la santé mentale en entreprise, la priorité doit être donnée à la culture, suivie de la technologie.
Les limites éthiques sont essentielles lorsque l’IA est impliquée dans la santé mentale en entreprise
Avant de déployer un système d’IA touchant à la santé mentale, les entreprises doivent établir des limites éthiques claires. Quelles données seront collectées ? Qui y aura accès ? Combien de temps seront-elles conservées ? Ces questions ne sont pas seulement juridiques, elles sont avant tout culturelles. Les équipes RH doivent être impliquées dans leurs réponses. Lorsque ces systèmes sont utilisés avec soin et consentement, ils peuvent contribuer à un environnement de travail plus sain. En revanche, une utilisation négligente peut nuire au moral des employés et engendrer du désengagement.
Comment déployer l’IA de façon responsable pour favoriser la santé mentale au travail
Les initiatives les plus efficaces allient technologie et empathie. Les entreprises qui réussissent dans ce domaine sollicitent des retours, obtiennent le consentement des employés, offrent des options de retrait et veillent à ce que les données soient utilisées dans un objectif d’aide, non de contrôle. L’IA doit servir à éclairer et à encourager le dialogue, pas à contourner les conversations difficiles. Un tableau de bord ne remplacera jamais une vraie discussion, où l’on se sent écouté.
Un retour sur investissement tangible — à condition d’instaurer la confiance
Certaines entreprises en tirent déjà des bénéfices concrets. La plateforme Unmind annonce un retour sur investissement de 2,4 fois grâce à son contenu de soutien autonome. Ce chiffre grimpe à 4,6 fois quand l’outil est couplé à des services professionnels comme le coaching ou la thérapie. Moins d’absentéisme, plus d’engagement : les résultats sont là, mais ils ne sont possibles que si les employés ont confiance. Si l’IA ressemble plus à une caméra de surveillance qu’à une main tendue, l’effet inverse se produit — et les bénéfices s’évaporent.
L’avenir de l’IA en santé mentale dépend de la confiance, pas de la performance
L’IA peut jouer un rôle majeur dans le bien-être en entreprise, mais uniquement si elle est déployée avec transparence et humanité. Les employés ne s’exprimeront pas, ne répondront pas aux notifications ni n’utiliseront les outils proposés s’ils doutent de la manière dont leurs données seront traitées. Ce n’est pas la puissance technologique qui fera la différence, mais la capacité à instaurer une relation de confiance. C’est à cette condition que l’IA pourra vraiment faire progresser la santé mentale au travail.
Une contribution de Diane Hamilton pour Forbes US – traduit par Lisa Deleforterie
À lire également : Guerre commerciale et inflation : pourquoi la confiance digitale est le véritable facteur de différenciation dans une économie en crise

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits