~ Georges Anidjar, Directeur Général Europe de l’Ouest chez Pegasystems nous explique la différence entre une IA transparente et une IA opaque. ~

L’intelligence artificielle (IA) reste un sujet controversé, comme l’a prouvée la récente joute verbale par médias interposés entre Elon Musk et Mark Zuckerberg, tous deux à la tête de géants de la high-tech. Petit retour sur les faits : le patron de Tesla a récemment fait les gros titres suite à ses déclarations sur l’intelligence artificielle. Selon lui, elle représente une menace de taille et doit absolument être réglementée. Son inquiétude est telle qu’il a affirmé que l’IA représentait un « risque fondamental pour l’existence de notre civilisation ». De son côté, le fondateur de Facebook a qualifié ces déclarations « d’irresponsables », préférant souligner les avantages de l’intelligence artificielle qui peut permettre de sauver des vies grâce aux voitures autonomes ou à l’amélioration des diagnostics médicaux.


Les experts ont donc un avis tranché sur l’IA et n’hésitent pas à monter au créneau pour expliquer quel sera, selon eux, son impact sur l’humanité. En fait, le débat est beaucoup plus nuancé, justement parce que l’IA a de nombreux visages. L’intelligence artificielle sur laquelle s’opposent Elon Musk et Mark Zuckerberg est dotée de capacités cognitives semblables à celles d’un humain. Cette intelligence artificielle forte, aussi connue sous le nom d’AGI (Artificial General Intelligence), est encore loin d’exister, malgré les avancées impressionnantes réalisées dans plusieurs domaines (des voitures autonomes au jeu de go).

D’ailleurs, ce débat laisse un élément clé de côté : l’intelligence artificielle est déjà largement utilisée dans les entreprises et les risques qui y sont associés n’ont rien à voir avec une possible destruction de l’humanité. Oublions donc ces scénarios catastrophes et concentrons-nous sur les vrais dangers liés à cette technologie à l’heure actuelle. Mal utilisée, elle peut conduire au non-respect des réglementations, à la perte de valeur de l’entreprise ou nuire à l’image de marque. Ces risques ne sont certes pas apocalyptiques, mais ils peuvent jouer un rôle majeur dans le succès ou l’échec d’une organisation.

Pour gérer les risques liés à l’IA en entreprise, il faut prendre en compte les différentes formes d’intelligence artificielle, et notamment deux grands modèles : l’IA transparente ou opaque. Ces deux modèles ont des usages, des applications et des impacts très différents pour les entreprises et les utilisateurs. Commençons par définir ces termes : dans un système transparent, les données peuvent être facilement comprises et évaluées. Il est donc possible de faire du « reverse engineering » : analyser chaque résultat pour comprendre le processus de décision. Au contraire, il est difficile de comprendre comment fonctionne un système d’IA opaque. À l’instar du cerveau humain, expliquer le raisonnement exact qui a conduit à une décision donnée peut s’avérer compliqué.

Il est vrai que les termes « transparent » et « opaque » ont des connotations émotionnelles. Pourtant, nous ne devons pas nous laisser influencer. Il est important de se rappeler qu’il n’y a pas de « bonne » ou de « mauvaise » intelligence artificielle, mais une utilisation « appropriée » ou « inappropriée » de chaque système au regard de nos besoins. L’IA opaque a des aspects positifs qui peuvent s’avérer utiles dans un contexte pertinent. En effet, la transparence peut parfois limiter le pouvoir et l’efficacité de l’intelligence artificielle, rendant les systèmes opaques plus attractifs dans certaines situations.

Ce choix est d’autant plus déterminant dans les industries très réglementées. Dans le secteur financier, l’utilisation correcte d’un modèle opaque dans l’octroi de prêts améliore la précision des décisions et réduit les erreurs. Mais dans le cas où les banques doivent au contraire expliquer le raisonnement utilisé pour arriver à ces améliorations opérationnelles via le « reverse engineering » (comme l’exigera bientôt la réglementation européenne GDPR), ce modèle devient alors problématique voire risqué.

L’objectivité des décisions peut aussi être mise en cause avec un système opaque. Il pourrait commencer à favoriser, à votre insu, des politiques qui contredisent votre promesse de marque. Aussi étonnant que cela puisse paraître, l’IA peut facilement utiliser des données neutres pour obtenir des renseignements sur les clients, qu’elle peut ensuite utiliser pour prendre des décisions arbitraires. Dans une banque par exemple, un système d’IA opaque pourrait ainsi interpréter des données clients et les utiliser pour proposer des offres plus avantageuses à certaines personnes selon des critères démographiques, comme le sexe ou l’origine. De telles décisions auraient bien entendu un impact désastreux sur l’entreprise.

Dans ce contexte, comment savoir si vous utilisez l’IA correctement et comment choisir entre le modèle transparent ou opaque ? La réponse se trouve dans le degré de confiance de votre organisation envers l’intelligence artificielle. Si votre choix se porte sur l’IA transparente, cela vous permettra de comprendre son fonctionnement et son raisonnement ; mais si vous devez opter pour un système opaque, assurez-vous avant de le mettre en œuvre de le soumettre à des tests extrêmement poussés. Ces derniers devront non seulement vérifier sa capacité à produire des résultats pour l’entreprise, mais ils devront aussi rechercher les éventuels partis pris involontaires mentionnés ci-dessus.

Comme nous l’expliquions plus haut, il y a d’autres aspects à prendre en compte, notamment pour les entreprises qui utilisent l’IA dans leur stratégie d’engagement client. Quand la réglementation européenne GDPR entrera en vigueur en mai 2018, les entreprises devront être capables d’expliquer de manière détaillée certaines décisions prises grâce aux algorithmes d’IA concernant leurs clients. Une entreprise capable d’augmenter facilement la transparence de son IA, en déplaçant un curseur (que l’on appellera T-Switch) sur une échelle allant « d’Opaque » à « Transparent », détiendra un avantage indéniable lui permettant de se mettre aux normes très rapidement.

Quels que soient les arguments d’Elon Musk et Mark Zuckerberg, l’IA n’est pas encore en mesure de détruire ni même de sauver l’humanité. En revanche, il semble clair que les entreprises sont de plus en plus nombreuses à devoir faire face à un choix cornélien au moment de sélectionner le système qui correspond le plus à leurs besoins. En théorie, le système transparent semble être le choix le plus naturel si les facteurs à prendre en compte n’étaient pas aussi nombreux. En réalité, la décision est beaucoup plus difficile à prendre.

Par exemple, seriez-vous certain d’opter pour une IA médicale transparente pour diagnostiquer les patients, si vous connaissiez l’existence d’une solution opaque capable d’offrir un meilleur diagnostic et donc de sauver des vies ! Parfois, c’est un élément à première vue insignifiant qui fera pencher la balance au moment de prendre la décision. Les entreprises doivent prendre en compte de nombreux aspects, tels que la rentabilité, l’expérience client ou les réglementations. Dans les médias, c’est la vision apocalyptique de l’IA détruisant l’humanité qui est sur le devant de la scène. Ces gros titres ne doivent pas vous faire oublier que l’enjeu le plus pressant pour votre entreprise est d’adopter un modèle d’IA pertinent. C’est pourquoi il est primordial de faire le bon choix en adéquation avec vos besoins.