« L’entreprise du XXIe siècle sera celle qui utilisera pleinement le potentiel de l’intelligence artificielle, et qui dans le même temps choisira de placer la valeur humaine au cœur de son modèle.»[1]

Dans un rapport datant de fin 2017, la CNIL explique que la réflexion éthique sur les systèmes d’IA et sur les algorithmes n’a de sens que si elle prend aussi en compte l’inscription de ceux-ci dans des contextes sociaux, humains, professionnels[2].

Il existe une croyance généralisée qui prône que les algorithmes sont objectifs car ils utilisent un grand nombre de données. Il n’y a rien de plus faux. L’IA n’est pas détachée de l’Intelligence Humaine. Les algorithmes sont écrits et maintenus par des humains et les algorithmes d’apprentissage automatique ajustent leurs actions en se basant sur le comportement des humains. Les algorithmes de systèmes d’Intelligence Artificielle travaillent sans se poser de questions, en fonction de leur programmation et de la formation qu’ils ont reçue. Ceci peut malheureusement donner lieu à des situations discriminatoires. En conséquence, les algorithmes pourraient très bien renforcer les préjugés humains. Sans même en avoir conscience, nous pourrions ‘enseigner’ et transmettre nos préjugés aux IA.

 

Un autre point d’attention lié aux algorithmes est la création de Bulle de Filtre (Filter Bubble). La « bulle de filtres » désigne à la fois le filtrage de l’information qui parvient à l’internaute par différents filtres ; et l’état d’ « isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu’il cherche sur Internet ou autre système informatique résultent d’une personnalisation mise en place à son insu. Comme dans une Chambre d’écho ce phénomène tendrait à s’auto-entretenir en reproduisant majoritairement les opinions, croyances et perspectives de l’utilisateur en formant un cercle vicieux. [3]

Il est indispensable de penser l’éthique en même temps que le développement technologique.

Aucune entreprise déployant un IA ne pourra faire l’économie de la question éthique. Il est évident que les opérationnels ne pourront pas répondre seuls à ces questions éthiques. Une nouvelle fonction essentielle va donc apparaitre dans les comités exécutifs : celle de Chief Ethics Officers ou Chief Value Officer ou, en français, le Déontologue.

C’est d’ailleurs une recommandation forte de la CNIL qui propose 6 déclinaisons opérationnelles aux pouvoir public :

  • Former à l’éthique tous les maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens)
  • Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
  • Travailler le design des systèmes algorithmiques au service de la liberté humaine
  • Constituer une plateforme nationale d’audit des algorithmes
  • Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général
  • Renforcer la fonction éthique au sein des entreprises.

Dans son excellent ouvrage, Des Robots et des Hommes[4], Laurence Devillers, quant à elle,  propose quatre piliers dans la réflexion sur l’éthique :

  • Eduquer les chercheurs et les concepteurs mais aussi les journalistes, les politiques et le plus grand nombre à l’éthique des robots
  • Expliciter des règles de bonnes conduites à coder sur le robot, et rendre le robot capable de les apprendre en continu
  • Mettre en œuvre des outils pour vérifier que le robot respecte les règles
  • Avoir un ensemble de règlementation juridique en cas de non-respect des règles

Le rôle du Déontologue et/ou de son comité, sera donc d’identifier de possibles irrégularités ou effets néfastes en amont du déploiement d’algorithmes.

En outre, il devra assurer un rôle de veille en continu pour identifier les problèmes émergents, imperceptibles au départ, les « signaux faibles » en apportant une alternative à la vision des opérationnels

Plusieurs modalités de mise en œuvre pourraient être envisagées, sous l’impulsion des Directions des Ressources Humaines :

  • Le déploiement de comités d’éthique au sein des entreprises déployant des algorithmes aux impacts significatifs
  • L’attribution de l’aspect déontologique à la fonction RSE
  • La constitution de réseaux éthiques organisés par secteurs ou branches professionnelles pour assurer la diffusion de bonnes pratiques et le repérage précoce de problèmes émergents. Ils pourront aussi réaliser une veille éthique, avec la création, à terme, de référentiels éthiques sectoriels (chartes éthiques, codes de conduite, chartes de déontologie etc.) et également réviser des codes d’éthique professionnels préexistants pour prendre en compte l’introduction de l’IA.
  • La création d’un chapitre dédié aux enjeux soulevés par les algorithmes, dans les chartes déontologiques des entreprises (en explicitant par exemple les limites à ne pas franchir en concevant les paramètres des systèmes, des obligations de qualité et d’actualisation des jeux de données utilisés pour entraîner les algorithmes, etc.)
  • La mise en place d’une gouvernance sur les sujets éthiques dans l’entreprise, en ouvrant le débat éthique à l’ensemble des parties prenantes.

“Face aux bouleversements à venir induits par l’IA et par la transformation numérique en général, il faut mettre en place une charte éthique au sein des RH”, estime pour sa part Jérémy Lamri, cofondateur du Lab RH, intervenant lors de la conférence “L’intelligence artificielle comme levier de performance de la fonction RH”. [5]

Ainsi, Le Lab RH[6] propose une  Charte Ethique & Numérique RH afin de poser un cadre de bonnes pratiques pour l’utilisation de solutions numériques dans le domaine des Ressources Humaines, afin que les droits, libertés et sensibilités de chacun soient respectés.

De son côté, le CERNA (Commission de Réflexion sur l’Ethique de la Recherche en science et Technologie du Numérique d’Allistene[7] ) a également produit un rapport sur l’éthique du chercheur en robotique en 2017. La vocation du CERNA est de se prononcer sur l’éthique de la recherche en sciences et technologies du numérique  et vise à inciter et aider les chercheurs à la vigilance éthique « chemin faisant » plutôt qu’à émettre des prescriptions normatives qui seraient vite obsolètes[8].

 

Pour plus d’informations sur le sujet IA et RH :

https://www.dunod.com/entreprise-economie/entreprise-disruptee-defis-ia-pour-ressources-humaines

Voir aussi :

Le DRH Face À l’IA : Un Porteur De Sens Au Travail

Ces informations sont le fruit de mon expérience, mes lectures et ma réflexion, elles ne reflètent que mes opinions.

 

[1] Pascal Demurger, Directeur Général du groupe MAIF

[2] Rapport CNIL ,Comment permettre à l’homme de garder la main, Décembre 2017

[3] https://fr.wikipedia.org/wiki/Bulle_de_filtres

[4] Des Robots et des Hommes, Laurence Devillers, Plon, 2017

[5]http://jobsferic.fr/Salon-Solutions-RH-2018-intelligence-artificielle-RGPD-start-up-innovantes.html

[6] Le Lab RH, association 1901, promeut l’innovation RH sous toutes ses formes, grâce à ses 420 membres, https://www.lab-rh.com/

[7] Allistene : Alliance des Sciences et Technologies du Numérique

[8] http://cerna-ethics-allistene.org/digitalAssets/53/53991_cerna___thique_apprentissage.pdf