Rechercher

Coach IA au travail : peut-on lui confier ses secrets sans danger ?

coach IA
Coach IA au travail : peut-on lui confier ses secrets sans danger ? Getty Images

De plus en plus de personnes confient à leur IA des pensées qu’elles réserveraient habituellement à un thérapeute ou à un mentor, s’appuyant sur ces technologies pour verbaliser leurs émotions et trouver des pistes de réflexion.

 

Une étude menée par Oracle et Workplace Intelligence révèle que plus de 68 % des employés préfèrent se confier à un robot plutôt qu’à leur manager lorsqu’il s’agit de stress ou d’anxiété. Ces outils numériques offrent un espace perçu comme plus sûr : on s’y livre sans crainte d’être jugé, interrompu ou mal compris.

À première vue, cela peut sembler être un progrès. Mais une question cruciale se pose : que deviennent ces informations une fois partagées avec une intelligence artificielle ? Qui peut y accéder ? Peuvent-elles réapparaître plus tard, dans un autre contexte, de façon inattendue ?


Si ces outils changent en profondeur notre manière de communiquer, ils soulèvent aussi de véritables enjeux. Car si le système censé garantir un climat de confiance se retourne contre l’utilisateur en exploitant ou en divulguant ses propos, la rupture est double : atteinte à la vie privée, mais surtout brèche dans la confiance. Et dans ce cas, les entreprises s’exposent à des risques juridiques non négligeables.

 

Pourquoi certains employés se sentent-ils plus en confiance avec une IA qu’avec leur propre manager ?

Parce qu’une intelligence artificielle ne juge pas. Pour une personne stressée, démotivée ou en proie au doute, il est souvent plus facile de se confier à un outil neutre qu’à un supérieur hiérarchique. Certains vont jusqu’à partager des ressentis qu’ils n’oseraient jamais exprimer à un être humain : un sentiment de mise à l’écart, un état d’épuisement, ou encore une perte de motivation. Ces outils sont d’ailleurs conçus pour cela : capter ce type de signaux faibles, les analyser et en dégager des tendances.

Dans certaines entreprises, des salariés reconnaissent même se montrer plus honnêtes avec un coach IA qu’avec une personne réelle. Une réaction qui peut paraître surprenante, mais qui s’explique : un outil ne vous tient pas rigueur. Il ne modifiera pas son comportement à votre égard. Pour ceux qui n’évoluent pas dans un environnement psychologiquement sûr, cette neutralité est rassurante.

À leurs yeux, ce qui est confié à l’IA reste entre eux et la machine. Du moins, c’est ce qu’ils espèrent.

 

Un coach IA peut-il vraiment améliorer le bien-être des employés ?

Étonnamment, la réponse est souvent oui. Même lorsqu’aucune action concrète ne suit l’échange, le simple fait de verbaliser ses pensées procure un sentiment d’allègement. Comme dans un journal intime, ou face à un interlocuteur neutre, s’exprimer sans crainte d’être jugé peut déjà représenter un soulagement. Des recherches confirment d’ailleurs que la possibilité de se confier de manière anonyme, y compris à une machine, peut apaiser sur le plan émotionnel.

Les outils de coaching par IA jouent ce rôle de soupape. Ils offrent un espace sécurisé pour réfléchir, structurer ses pensées et prendre du recul. Certains vont plus loin en proposant des messages de soutien ou des suggestions d’actions simples à entreprendre. Certes, ces outils ne remplacent pas un thérapeute qualifié, mais ils fournissent un cadre, une forme d’accompagnement qui aide les employés à se sentir proactifs face à leurs difficultés, sans pour autant devoir se tourner immédiatement vers un interlocuteur humain.

Mais ce soulagement, aussi réel soit-il, peut aussi masquer le problème. Le danger serait de croire qu’un apaisement temporaire suffit. Le sentiment d’avoir été « entendu » ne signifie pas que le problème sous-jacent est résolu. C’est là que les responsables humains doivent reprendre le relais : en écoutant, en agissant, et en créant un climat de confiance durable.

 

Que se passe-t-il lorsqu’on confie des informations personnelles à un coach IA ?

C’est à ce moment que la situation peut devenir délicate. Ces outils sont conçus pour soutenir la performance professionnelle, non pour sonder en profondeur le bien-être émotionnel des utilisateurs. Pourtant, il arrive que certains employés dépassent cette frontière, partageant des aspects très personnels : un épuisement, un désintérêt pour leur travail, ou des difficultés privées impactant leur efficacité.

Mais que devient réellement cette information sensible ? Est-elle accessible à des tiers ? Les services RH en sont-ils informés et interviennent-ils ? Ou reste-t-elle simplement consignée dans un rapport anonymisé ? Plus inquiétant encore, pourrait-elle être utilisée ultérieurement pour juger ou évaluer l’employé ?

Beaucoup d’entreprises n’ont pas encore pris pleinement la mesure de ces enjeux. Si certains outils d’intelligence artificielle sont programmés pour remonter les alertes aux responsables concernés, peu d’organisations disposent d’un protocole clair pour gérer ces retours sans mettre l’employé dans une position inconfortable.

Sans garanties solides sur la confidentialité et l’usage de ces données, le risque est réel : les utilisateurs pourraient se sentir davantage vulnérables et hésiter à s’exprimer honnêtement.

 

Les employeurs peuvent-ils accéder aux informations partagées avec un coach IA ?

La réponse varie selon la configuration, mais dans de nombreux cas, oui. Lorsqu’un outil d’intelligence artificielle est intégré à des plateformes comme Microsoft Teams, Slack ou le système RH d’une entreprise, les données saisies par les employés peuvent être enregistrées, stockées et consultées. Un rapport de Gartner de 2023 souligne que beaucoup d’organisations sous-estiment le volume et la sensibilité des informations collectées par ces outils.

Même lorsque l’IA est présentée comme un simple coach, elle analyse fréquemment les échanges, détecte les émotions exprimées et identifie des tendances dans les sentiments des utilisateurs.

À moins que l’entreprise ne mette en place des restrictions d’accès ou désactive le suivi, les administrateurs informatiques ou les dirigeants habilités peuvent avoir accès à ces données. Aux États-Unis, la législation offre peu de protections contre cet accès, sauf en cas de discrimination ou de représailles. Ainsi, un employé peut croire à tort que sa conversation est confidentielle.

Il est donc crucial que les dirigeants définissent clairement les limites d’utilisation de ces outils et garantissent la confidentialité pour préserver la confiance des utilisateurs.

 

Quels risques juridiques pour les entreprises utilisant des coachs IA ?

Avec l’adoption croissante d’outils d’intelligence artificielle collectant des données sensibles auprès des employés, les entreprises s’exposent à des enjeux juridiques complexes. Si un collaborateur partage des informations relatives à un problème médical, un cas de harcèlement ou tout autre sujet protégé par le droit du travail, le non-traitement approprié de ces données, voire leur utilisation à des fins disciplinaires, peut entraîner des conséquences légales. Aux États-Unis, par exemple, l’Americans with Disabilities Act (ADA) et le Title VII du Civil Rights Act peuvent être invoqués en cas de mauvaise gestion d’informations confidentielles.

Le consentement constitue également une question cruciale. Les employés doivent être clairement informés des données collectées, des modalités de stockage et des personnes habilitées à y accéder. Lorsque des révélations émotionnelles captées par ces outils influencent les évaluations de performance ou les décisions d’embauche, le risque éthique et juridique devient réel.

Même animées de bonnes intentions, les entreprises s’exposent à des difficultés majeures sans un cadre rigoureux encadrant l’utilisation de ces technologies.

 

Quelles entreprises ont déjà testé les coachs IA ?

Plusieurs entreprises ont expérimenté les outils de coaching par intelligence artificielle, découvrant rapidement la complexité de leur mise en œuvre.

Experian, par exemple, a lancé Nadia, un coach IA destiné à accompagner le développement des managers. Si l’engagement initial a été fort, des inquiétudes ont rapidement émergé autour de la sécurité des données et de la crainte que l’outil ne remplace l’interaction humaine. Pour apaiser ces craintes, l’entreprise a instauré des garde-fous clairs, rappelant que Nadia était un support et non un substitut. Cette transparence a renforcé la confiance des utilisateurs.

De son côté, Salesforce a déployé Career Agent, un assistant IA interne conçu pour faciliter la mobilité professionnelle des employés. Adopté rapidement, l’outil a néanmoins nécessité l’intégration de fonctions supplémentaires axées sur le consentement et la protection des données, afin d’éviter toute méfiance liée à un usage potentiel des informations à des fins d’évaluation. Offrir aux collaborateurs un contrôle accru sur leurs données s’est avéré déterminant pour assurer l’adhésion.

 

Les managers doivent-ils craindre d’être remplacés par un coach IA ?

Il est peu probable que les managers soient directement remplacés par des coachs IA, mais ils ne peuvent pas ignorer le phénomène. Si les employés préfèrent se confier à un chatbot plutôt qu’à leur supérieur, cela révèle un déficit de confiance à adresser.

Les managers ne sont pas tenus de jouer les thérapeutes, mais ils doivent favoriser un climat propice à des échanges sincères. Les outils d’IA peuvent certes aider à détecter ce que ressentent les collaborateurs, mais c’est aux véritables leaders d’incarner l’empathie et de passer à l’action. Il s’agit surtout d’instaurer une culture d’entreprise où chacun se sent suffisamment en sécurité pour s’exprimer directement, sans avoir à se tourner vers une intelligence artificielle pour être entendu.

 

Que doivent anticiper les dirigeants avant d’adopter un coach IA ?

Avant d’introduire un coach IA dans votre organisation, il est essentiel de bien réfléchir aux conséquences : qui aura accès aux données partagées ? Comment seront-elles exploitées ? L’employé sera-t-il informé des suites données ? Et surtout, êtes-vous prêt à garantir la confidentialité de ces informations ?

Si ces questions restent en suspens, le déploiement est prématuré. Les outils d’IA les plus performants instaurent la confiance en protégeant la vie privée, en définissant clairement leurs limites et en encourageant de véritables échanges humains. Leur rôle doit être de soutenir les managers, non de les remplacer, et de faciliter l’accès à l’aide sans jamais empêcher l’expression authentique.

La confiance repose avant tout sur des relations humaines solides. Un coach IA peut être un levier, mais ne remplacera jamais une culture d’entreprise inclusive et à l’écoute. Ce changement commence par des dirigeants prêts à entendre, répondre et agir. Lorsque vos collaborateurs se tournent vers l’IA pour s’exprimer, c’est un signe fort qu’ils souhaitent être entendus : la vraie question est de savoir si vous êtes prêts à les écouter.

 

Une contribution de Diane Hamilton pour Forbes US – traduit par Lisa Deleforterie


À lire également : Comment faire de ChatGPT votre coach en négociation salariale ?

Vous avez aimé cet article ? Likez Forbes sur Facebook

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC