logo_blanc
Rechercher

Intelligence artificielle : Faut-il se méfier des algorithmes ?

algorithmessSource : GettyImages

OPINION | La rationalité pure et la puissance de calcul des algorithmes supassent, et de très loin, les capacités cognitives et computationnelles des individus. Pour de nombreuses entreprises, la capacité d’intégrer des algorithmes dans la prise de décision est susceptible de devenir un facteur clé de succès concurrentiel, voire une condition de survie. Pourtant de nombreux managers montrent une aversion à déléguer des décisions aux algorithmes de l’IA. 

 

Quelle est l’origine de cette aversion ? Quelles sont les facteurs freinant l’adoption de l’IA alors que chacun d’entre nous reconnait évoluer dans un environnement de plus en plus complexe et risqué ? 

Les possibilités offertes par l’intelligence artificielle (IA) pour soutenir la prise de décision managériale sont immenses. L’IA a la capacité de recourir simultanément à des millions de modèles complexes pour proposer des solutions d’une rationalité sans faille. De plus, dans un laps de temps comparable un individu n’a pas le temps d’explorer un seul de ces modèles. Enfin, l’IA est capable de traiter et de manipuler d’énormes quantités de données à un rythme que notre cerveau biologique ne peut égaler. La rationalité de l’IA est donc très supérieure à la nôtre. Aucun individu n’est en mesure d’approcher ses capacités cognitives. La vitesse de ses prises de décision est ahurissante. Les expériences menées indiquent que les décisions prises par l’IA surperforment les décisions humaines quelque soit le contexte considéré. L’écart de performance entre les deux modes de prise de décision (machine vs. hommes) s’accroit avec le degré de complexité de l’environnement. 

Malgré les avantages incontestables de l’utilisation d’algorithmes pour la prise de décisions stratégiques, les dirigeants hésitent à adopter un processus décisionnel basé sur des algorithmes.  Une confiance excessive en leurs propres capacités, la crainte d’être remplacés et de perdre le prestige associé à leurs fonctions, les préoccupations concernant les atteintes à la vie privée et la pression des pairs expliquent, en partie, ces hésitations. 

Pourtant, il ne s’agit pas de remplacer les cadres par des machines. La création d’une forme de collaboration permettant de combiner les capacités cognitives de la technologie avec la très grande complexité et la finesse des intentions humaines est un facteur clé de succès dans la conception des plans stratégiques. Il est donc urgent de trouver les chemins de cette coopération. 

La complexité des choix posés aux managers influence peut-être leur perception des intérêts à mobiliser les algorithmes de l’IA dans la prise de décision. Une plus grande conscience de la qualité des modèles mentaux convoqués dans les processus décisionnels peut conduire les managers et cadres dirigeants à réexaminer les apports de l’IA. La complexité des choix et la conscience des limites de leurs modèles mentaux peut inciter les mangers à déléguer une partie de la décision à des algorithmes. Nous vous convions à explorer avec nous ces deux chemins. 

 

Les rapports entre complexité des choix et la délégation des décisions

Les rapports des études menées dans le cadre de l’économie expérimentale indiquent que, généralement, les individus préfèrent décider par eux-mêmes. La delegation de decisions apparait exceptionnelle. De plus, le degré de difficulté à opérer un choix n’influence pas la recours à la délégation. Ainsi, la complexité du choix n’incite pas à déléguer la decision à un tiers. 

Toutefois, ces premiers constats méritent d’être vite amendés. En effet, les mêmes études soulignent que face à des choix difficiles nous renonçons simplement à opter pour l’un d’entre eux. La difficulté perçue nous conduit à douter de notre capacité à prendre la bonne décision. La crainte d’éprouver un sentiment de regret, la perception de nos propres limites ou la responsabilité d’une décision sous-optimale nous contraint à un attentisme certain. 

Par ailleurs, il semble que nous évitions, autant que possible, de faire émerger des situations de conflits. Ainsi, les décisions contestables sont repoussées. La nécessité de prendre de telles décisions peut également être ignorée. Pousser dans nos derniers retranchements nous pouvons également confier la prise de décision à un tiers qui endossera la responsabilité et devra gérer les oppositions. Peut-on parler de délégation alors que le seul objectif de cette stratégie d’évitement défensif réside dans la volonté de faire porter à autrui la responsabilité du conflit et les blâmes potentiels de ses pairs ? Les chercheurs montrent que le choix de la personne qui assumera la responsabilité de la décision n’est pas guidée par l’expertise de ce dernier. Souvent cette « délégation » est contrainte. Elle tient tout entière dans l’autorité du déléguant et dans l’absence de stratégie de fuite du délégué.  

Pour autant peut-on déléguer les décisions génératrices de conflit à un algorithme ? 

Les disputes s’accompagnent d’enjeux symboliques qui ne peuvent trouver le moyen de leur expression dans un rapport homme-machine. Echappant aux règles de la rationalité pure ces enjeux ne sont pas intégrés par les algorithmes. Il s’ensuit que les conflits émergeant de décisions contestables ne peuvent trouver de résolutions par une mobilisation de l’IA. 

L’exploration des rapports unissant la complexité des choix et la délégation des décisions à l’IA ne nous a pas permis de trouver le chemin d’une coopération entre les décideurs et les algorithmes. Les individus préfèrent décider seuls. 

Ils n’hésitent pas à remettre à plus tard les choix difficiles. L’aide potentielle de l’IA ne leur permet pas d’échapper à la perception de leurs propres limites ni à une évaluation objective du caractère sous-optimal des choix ayant leur préférence. Enfin, l’IA n’apparait d’aucun secours pour la prise de décisions génératrices de conflits potentiels. Chaque dispute porte en elle une part d’irrationalité et les algorithmes ne sont pas en mesure de traiter ce qui leur échappe tout à fait. 

 

L’IA et les modèles mentaux des décideurs. 

Les modèles mentaux sont définis comme les structures de connaissances ou les représentations du fonctionnement de l’environnement de l’entreprise. Ces modèles aident les managers à décrire, expliquer et prévoir les problèmes prenant leur source dans l’environnement de l’entreprise. Les modèles mentaux incluent la représentation des interdépendances entre les différentes variables constitutives du modèle mental, ainsi que les représentations de performance qui reflètent la perception des liens unissant les actions envisageables et la performance de l’entreprise. Bien sûr, les modèles mentaux des managers influencent leurs choix stratégiques. 

En mesurant les conséquences réelles de leurs décisions les décideurs évaluent également la qualité de leurs modèles mentaux. Lorsque ces modèles semblent pertinents, les décideurs éprouvent un sentiment de confiance en leur capacité à effectuer, seuls, les bons choix. Ils sont donc incités à prendre des décisions sans recourir à l’avis ou les conseils de tiers. Ces décideurs s’appuient sur l’expérience antérieure acquise dans des situations similaires et mobilisent des heuristiques précédemment construites pour décider. Ils éprouvent un faible sentiment d’incertitude concernant les conséquences réelles de leur choix et ne ressentent pas la nécessité de déléguer tout ou partie de leurs décisions. 

Toutefois, un écart entre les conséquences attendues et celles constatées conduit à un questionnement concernant la qualité du modèle mental mobilisé. Deux types de modèles mentaux inappropriés peuvent alors se révéler. 

Les « complexificateurs » utilisent des modèles mentaux surspécifiés. Ceux-ci incluent la perception de relations qui n’ont en fait aucune réalité ou dont la pertinence peut être remise en cause. De manière opposée, les « simplificateurs » recourent à des modèles mentaux sous-spécifiés oublieux de certaines relations ou d’interdépendances entre des variables pertinentes. Les « complexificateurs » et les « simplificateurs » éprouvent de grandes difficultés à décider. Les premiers sont prisonniers d’une complexité interne qui rend l’évaluation des intérêts relatifs de chaque option particulièrement ardue. Les seconds ont pleinement conscience des angles morts du choix ayant leur préférence. Dans l’impossibilité de mesurer les conséquences des relations omises les simplificateurs se contentent trop souvent de décisions routinières dont les conséquences sont très limitées.  

A la condition que l’IA lève le voile sur les relations établies dans ses algorithmes cette technologie est d’un grand secours pour les « complexificateurs » et les simplificateurs. L’IA peut aider les uns et les autres à réviser leurs modèles mentaux. Une fois les qualités de ses algorithmes reconnues, l’IA peut devenir le compagnon d’aide à la décision rêvé par ses partisans. Sa large diffusion nécessite l’acceptation par les décideurs des limites de leur modèles mentaux et de la charge cognitive induite par ces limites. Loin de réduire le rôle des décideurs dans la prise de décision, l’IA permet à ceux-ci de se concentrer sur leurs qualités inatteignables à la machine : l’intuition, la créativité et la richesse de leurs intentions.

 

Conclusion 

Les entreprises doivent réfléchir à la manière dont elles souhaitent que leurs cadres et leurs employés appliquent l’IA. Notre article montre que l’option de la délégation est plus attrayante lorsque les décideurs doutent de leurs modèles mentaux, et sont donc moins confiants pour prendre des décisions par eux-mêmes. Il parait alors judicieux de confier la décision à l’IA car l’algorithme pourrait être mieux à même de prendre une décision pertinente. Toutefois, cette voie revient à déléguer l' »inconnu » à quelque chose de potentiellement encore moins connu et compris : les algorithmes utilisés par l’IA. La nécessité d’ouvrir la boite noire de ces algorithmes devient essentielle. Par ailleurs les conflits éthiques récents au sein de Google amènent à questionner la représentativité des bases de données utilisées par l’IA. 

En dernière instance, une plus large adoption de l’IA exige de celle-ci davantage de transparence et une documentation exhaustive des processus et données exploités. 

 

Tribune rédigée par Pascal MONTAGNON, Directeur de la Chaire de Recherche Digital, Data Science et Intelligence Artificielle ( INSEEC U – Lyon) et Eric BRAUNE, Professeur Associé (INSEEC U – Lyon)

<<< À lire également : Anticiper L’Affinité Interpersonnelle Grâce Aux Algorithmes >>>

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC