OPINION// Les préoccupations croissantes concernant les implications sociétales des systèmes d’intelligence artificielle inspirent une vague d’analyses académiques et d’articles journalistiques dans laquelle les systèmes déployés sont analysés. Ces articles se terminent généralement par quelques rappels éthiques issus d’une pensée conséquentialiste : Il serait possible d’envisager, a priori, l’ensemble des conséquences d’un algorithme utilisant l’IA à la condition que celui-ci soit parfaitement transparent ou explicable.

 

Dans les faits, il est difficile pour les concepteurs d’algorithmes d’appréhender les répercussions néfastes de leurs programmes avant leur déploiement. Une fois déployés, les problèmes émergents peuvent devenir difficiles ou impossibles à retracer jusqu’à leur source. Ceci peut conduire les entreprises à retirer leurs applications du marché. A titre d’exemple, Le 11 janvier, exactement 20 jours après son lancement, ScatterLab a suspendu son chatbot Luda. Luda utilisait un algorithme développé à partir de données collectées grâce aux 10 milliards de conversations tenues sur Kakao Talk, la première application de messagerie Sud-Coréenne. Mais le chatbot est rapidement devenu le cœur d’une controverse en raison de ses réponses haineuses, au point que ses développeurs ont été contraints de le retirer. Scatterlab n’a pas fait état des implications financières et commerciales du retrait de Luda. Toutefois, Timnit Gebru, l’ex-co-directrice de l’équipe Ethique de l’IA de Google, signale l’ampleur des coûts financiers et environnementaux associés au développement de ce type de modèle. Lorsque les choses tournent mal, les concepteurs d’algorithmes IA sont donc les premières victimes de leurs créations. Ce point méritait d’être souligné avant d’exposer les limites et les carences des outils censés améliorer l’explicabilité des algorithmes.

Les données jouent un rôle essentiel dans l’IA. Chaque modèle d’apprentissage automatique de Machine Learning est entraîné et évalué à l’aide de données, souvent sous la forme d’un ensemble de données statiques. Les caractéristiques de ces ensembles de données influencent fondamentalement le comportement du modèle. Celui-ci a peu de chances d’être performant si le contexte de son déploiement diffère des caractéristiques de son entrainement ou de son évaluation. Ainsi, plusieurs exemples récents montrent que les modèles d’apprentissage automatique peuvent reproduire ou amplifier des biais sociétaux indésirables reflétés dans les données de formation (Bolukbasi et al, 2016)1. Les exemples d’inadéquations se multiplient et concernent la justice (Garvie, 2016)2, l’embauche (Mann et O’Neil, 2016)3, les finances (Lin, 2012)4 et les infrastructures économiques (O’Connor, 2017)5. Les fiches techniques de données, les codes de conduite et les processus d’audit sont censés traiter de ces questions.

 

Les fiches techniques de données

Une fiche de données documente la motivation, la composition, le processus de collecte et les utilisations recommandées d’un ensemble de données. Les fiches techniques de données peuvent accroître la transparence et l’esprit de responsabilité au sein de la communauté des concepteurs d’algorithme IA. Elles contribuent à atténuer les biais indésirables dans les systèmes d’apprentissage automatique, facilitent une plus grande reproductibilité des résultats de l’apprentissage automatique et aident les chercheurs et les praticiens à sélectionner des ensembles de données les plus appropriés pour leurs tâches.
Les fiches techniques de données sont destinées à répondre aux besoins de deux groupes d’intervenants clés : les concepteurs de bases de données et les consommateurs de ces bases.

Pour les concepteurs de bases de données, l’objectif premier est d’encourager une réflexion approfondie sur le processus de création, de distribution et de maintenance de la base de données. Les hypothèses sous-jacentes, les risques ou préjudices potentiels et les conséquences de l’utilisation des données sont ainsi appréciés. Par ailleurs, les champs d’application et les limites de ceux-ci peuvent être consciencieusement définis. Pour les consommateurs de bases de données, l’objectif premier est de s’assurer qu’ils disposent des informations nécessaires pour prendre des décisions éclairées concernant l’utilisation des données. Dès lors, les consommateurs de données portent l’entière responsabilité d’autoriser les utilisations des algorithmes utilisant ces données. Cette responsabilité peut inciter à l’adoption de comportements prudents en matière d’extraction ou d’exploitation des données. Toutefois les fiches techniques de données concernent d’abord et avant tout les caractéristiques des variables exploitées. Les relations établies entre ces variables par les algorithmes restent dans l’ombre. Par conséquent, nous sommes à la recherche d’outils complémentaires pour assurer l’explicabilité des algorithmes IA. Les codes de conduite et les audits sont tous les deux candidats pour tenir ces rôles.

 

Les codes de conduite

Issus d’une réflexion Ethique de nature conséquentialiste, les codes de conduite mènent une réflexion articulant les intentions, les moyens et les conséquences du déploiement d’algorithmes IA. L’ambition portée par les codes de conduite dépasse de très loin les objectifs assignés aux fiches techniques précédemment exposées. Tout d’abord, les moyens devant être utilisés pour satisfaire les intentions sont interrogés. Ensuite, la volonté d’exploration des conséquences des moyens mis en œuvre, conduit les rédacteurs de ces codes à questionner la légitimité des relations établies entre les variables. Ces relations sortent ainsi de l’ombre dans laquelle les fiches techniques les avaient plongées. Hélas, l’ambition des codes de conduite n’est pas elle-même dénuée de conséquences. En effet, nous assistons depuis 2016 à une prolifération des codes de conduite de l’IA ainsi qu’à une multiplication des règles à suivre. A titre d’exemple, L’initiative mondiale de l’IEEE vise à assurer l’éducation, la formation et l’autonomisation des concepteurs et développeurs d’IA soucieux de l’Ethique. Les travaux cumulés et les itérations actualisées menés par un collège de 250 membres, chercheurs et praticiens ont pour l’instant conduit à la promulgation consensuelle de 120 questions réputées clés. C’est beaucoup ! Ajoutons que les travaux de cette association sont toujours en cours. Il est possible que l’approche conséquentialiste adoptée montre ici ces limites : En explorant, a priori, toutes les conséquences possibles des algorithmes de l’IA les codes de conduite tentent de circonscrire précisément les moyens pouvant être mis en œuvre. In fine, Cette tentative mène à réduire le nombre des variables pouvant être utilisées ainsi que les types de relations envisageables entre celles-ci. Appliquées à une technologie qui n’a pas encore donnée sa mesure et qui montre pourtant son caractère envahissant, ces visées sont vouées à l’échec. Pour envisager l’ensemble des relations établies par les algorithmes de l’IA il faut renoncer à une approche conséquentialiste. Il faut accepter que les relations établies par ces algorithmes soient inconnues ex-ante. L’ensemble des conséquences des relations ainsi construite l’est tout autant. Ceci n’empêche pas d’évaluer les caractéristiques de ces relations ex-post. Cette assertion nous amène à décrire les processus d’audit.

 

Les processus d’audit

De nombreux chercheurs préconisent les processus d’audit comme un moyen de prévenir les conséquences sociales indésirables du développement de l’IA. Dans ce cadre, les processus d’audit évaluent les relations entre les valeurs prises par les variables utilisées et les préconisations fournies par les algorithmes. Les processus d’audit contribuent ainsi à une plus grande explicabilité des algorithmes IA. À cet égard, les mérites respectifs des audits internes et externes sont souvent comparés.

Les audits externes, dans lesquels les entreprises doivent rendre des comptes à un tiers sont fondamentalement limités par le manque d’accès aux processus internes des algorithmes audités. Bien que les audits externes réalisés par des experts crédibles soient moins affectés par les considérations internes à l’organisation, les auditeurs externes ne peuvent accéder qu’aux sorties des modèles, par exemple en utilisant une API. Les auditeurs n’ont pas accès aux modèles intermédiaires ou aux données d’entraînement, qui sont souvent protégés en tant que secrets commerciaux (Burrell, 2016)7.

Les objectifs d’un audit interne s’apparentent aux processus utilisés dans le cadre de l’assurance qualité. L’audit interne cherche à enrichir, mettre à jour ou valider l’analyse des risques liés au déploiement d’une application utilisant l’IA. Les audits internes sont destinés à évaluer dans quelle mesure l’algorithme, une fois en service dans le monde réel, correspondra au comportement attendu. Le niveau d’accès aux processus internes des algorithmes est plus élevé dans le cadre d’un audit interne. L’explicabilité de ceux-ci s’accroit. Toutefois, les résultats de l’audit peuvent conduire à des conclusions ambiguës. Il est donc essentiel d’identifier les parties prenantes et les décideurs clés qui peuvent fournir des réponses appropriées aux résultats de l’audit. De cette façon, les résultats de ces audits peuvent être utilisés pour recommander les changements organisationnels structurels nécessaires pour rendre contrôlable l’ensemble du processus de développement technique. En effet, le développement d’un algorithme IA ne suit généralement pas une approche standard caractérisée par des étapes de vérification et de validation. Le développement agile de l’IA est beaucoup plus rapide et itératif, et présente donc un défi pour « l ‘auditabilité ». Cependant, l’application des méthodes agiles aux audits internes eux-mêmes est un sujet de recherche actuel dans la profession de l’audit interne.

 

Conclusion

Le développement des algorithmes utilisant l’IA s’accompagne de beaucoup de craintes. Les comptes-rendus réguliers de ses échecs ou de sa puissance (Cambridge Analytica) alimentent d’une manière égale les peurs du public. Dans ce contexte si particulier il nous semblait important de souligner les limites des outils censés contrôler le fonctionnement de ces algorithmes. Dès lors, Il ne sert à rien de déclarer que le dirigeant d’une organisation est responsable des conséquences éthiquement négatives du déploiement de l’IA si ce dirigeant n’est pas en mesure d’appréhender l’ensemble des relations établies par les algorithmes utilisés. Les praticiens de l’IA manquent de méthodes éprouvées pour traduire leurs principes éthiques en pratique. Les obligations éthiques doivent être forgées au cours de l’action. Il appartient aux dirigeants d’entreprises de prendre les décisions appropriées dès la manifestation du problème posé par l’algorithme.

Fondamentalement nous pensons que l’approche conséquentialiste de l’évaluation d’une innovation radicale est vouée à l’échec. Pour dire les choses clairement, nous pensons que le plus grand tournant de nos sociétés concerne notre approche nouvelle de la découverte. A notre connaissance personne n’a interrogé par le passé les conséquences de la découverte de l’Amérique, de la machine de Watt, du moteur à explosion ou des débuts de l’aviation. Bien plus, nous ne trouvons pas d’exemple d’une innovation à laquelle l’humanité aurait décidé de renoncer. Par conséquent, Il ne peut s’agir de freiner le développement de l’IA ou de restreindre son champ d’application. Nous avons reporté plus haut les travaux de l’IEEE. Celle-ci clame l’émergence 120 propositions d’une nature Ethique et consensuelles. Nous espérons vous avoir fait frémir ; jamais la distinction entre le bien et le mal ne fera l’objet d’un consensus une fois dépassé les règles de base de la vie en société. En France, l’avortement, le mariage pour tous, la PMA ou l’aide à la fin de vie font toujours l’objet de débats passionnés. Une règle majoritaire s’impose mais le consensus est inatteignable. Il faut donc laisser la place au libre arbitre de chacun.

L’IA représente une opportunité unique de réanimer les valeurs un peu palies de nos démocraties. Au centre de celles-ci le projet éducatif contribue à l’autonomisation des individus. Il permet de développer le potentiel et la liberté de chacun pour son plus grand bénéfice et celui de la société. Ainsi, tout individu est libre, en conscience, de décider de ce qui appartient à sa sphère privée et de ce qui peut être rendu public. Également, il lui appartient d’évaluer, en conscience, la pertinence des propositions qui lui sont faites ou la véracité des informations divulguées. Enfin, il peut mettre en suspens ou cesser d’utiliser des applications dont les règles de fonctionnement sont contraires à ses exigences.
Nous plaidons pour une approche pragmatique de l’IA. Celle-ci repose sur la volonté des entreprises à prendre les décisions qui s’imposent quand le problème est manifeste. Elle engage également les publics à faire des choix en conscience. Nous invitons chacun à redécouvrir sa liberté, son libre arbitre et à démontrer son exigence dans ses relations à l’IA.

 

Tribune rédigée par Eric Braune, Professeur associé – INSEEC U

 

<<< À lire également : Nos pépites de l’IA (série 8/20) | DataRobot >>>