« L’IA va changer le monde ». Cette phrase, on l’a beaucoup (trop) entendue et on va l’entendre encore. Mais quand on parle de l’IA de quoi parle-t-on exactement ? Il n’y a pas une IA, mais bien différentes technologies avec des spécificités qui leur sont propres. Voilà comment elles bouleversent les façons de faire dans le domaine du risque, de la compliance et de la gouvernance (GRC).
Une contribution d’Emmanuel Poidevin, fondateur et président de Aprovall
L’apprentissage automatique (deep learning) au service de l’anti-fraude.
L’apprentissage automatique est une catégorie d’intelligence artificielle qui permet au système « d’apprendre » à partir de l’analyse d’un certain nombre de données sans qu’il y ait de programmation explicite. Ce sont des algorithmes d’apprentissage très spécialisés, très précis qui ont la capacité d’analyser des données historiques permettant notamment de prédire des risques futurs. Ils permettent donc une gestion proactive des risques. Il y a peu, il fallait beaucoup d’analystes pour analyser ces données ce qui était fastidieux, long, coûteux… voire impossible. Mais ce n’est pas tout, car ces algorithmes sont aujourd’hui en mesure d’identifier des irrégularités dans des milliers (millions) de données et ainsi détecter des fraudes qui n’auraient jamais pu être détectées par l’homme.
Le traitement en langage naturel : l’essence de la simplification
Aujourd’hui, on peut s’adresser à l’IA avec nos propres mots. Plus besoin de coder, d’écrire une requête technique, source d’erreur. Maintenant les machines sont en mesure de comprendre et d’interpréter le langage humain. Le traitement en langage naturel déployé dans des plateformes de GRC permet, par exemple, d’interpréter et d’analyser un contenu, en faire une synthèse, ou mettre en lumière des informations spécifiques. Aujourd’hui, il est possible de voir s’il y a des écarts entre les codes de déontologie d’une société donneuse d’ordres et celui de son fournisseur. Cette analyse par les plateformes de GRC qui utilise ce type de technologie peut être faite en quelques secondes. Avant, il fallait des semaines ! Le gain de temps et d’argent est considérable, mais l’analyse est également plus précise ; sans cette aide précieuse, l’analyse ne pouvait être faite que très partiellement parfois.
L’IA générative : la création de contenus spécialisés
La « gen AI » permet de créer de nouveaux contenus : images, vidéos, mais aussi du texte. Aujourd’hui, elle est en mesure de générer un document tel qu’un code de conduite, un scénario de risque ou une politique d’évaluation de conformité pour un fournisseur. Toutefois, il est important de faire intervenir un spécialiste dans la relecture de ce document, il y a encore des phénomènes dits « d’hallucinations » ou autrement dit, d’erreurs. Dans le monde de l’évaluation des tiers, l’IA générative peut également être utilisée pour l’auto-complétude des questionnaires soumis aux fournisseurs. Cela réduit considérablement le temps dédié à cette tâche administrative à très faible valeur ajoutée.
RPA : l’automatisation robotisée des processus
La RPA (Robotic Process Automation), entraîne des algorithmes sur des données afin que le logiciel puisse effectuer des tâches plus rapidement et de façon plus efficace : créer un processus automatisé. Ce n’est pas de l’IA à proprement parler, mais il est possible d’y associer l’IA. Il faut toutefois commencer par décrire un processus, qui par la suite sera automatisé. Il est donc possible d’automatiser la production de rapports ou lancer un processus de due diligence.
L’analyse prédictive : la plus grande déception
Là se situe une des limites de l’IA. Ce qu’on appelle IA prédictive aujourd’hui, sont en fait des outils d’aide à la décision. Ils ne remplacent pas la prise de décision. Il est possible d’anticiper les risques grâce à la capacité de traitement massif de données hyper rapides. Mais choisir, ça l’IA ne peut pas encore le faire. Mais ce n’est pas la seule limites… la traçabilité des recherches qui ont permis de générer une recommandation, pourrait rapidement devenir un problème. Dans le cadre d’un audit, voire d’un procès, l’élément de preuve est fondamental. De plus, ces algorithmes sont une boite noire où les preuves sont difficilement accessibles. Quid du transfert de compétences ? Ou de données sensibles ? C’est une question de souveraineté, de traçabilité, de preuve et in fine de responsabilité.
Comme le disait Winston Churchill (repris pour les plus jeunes par Benjamin Franklin Parker l’oncle de Peter) « là où il y a un grand pouvoir, il y a une grande responsabilité ». L’usage de tels outils, si puissants, n’est pas sans conséquences. Humaines, bien sûr, l’IA va continuer de remplacer des postes : traducteurs, data analystes, et tant d’autres. Mais des conséquences environnementales également. Si le pouvoir de l’IA semble sans limite, les ressources qu’elle utilise, elles, le sont. Derrière chaque utilisation de l’IA, il y a des hectolitres d’eau utilisés, de l’énergie consommée, ou encore des terres rares réquisitionnées. Il faut en avoir conscience et se questionner sur l’usage qu’on fait de l’IA. Quid de mettre en place un code de bonne conduite sur l’utilisation de l’IA dans chaque société ? En se posant la question de le générer (ou pas) par l’IA…
À lire également : La souveraineté numérique européenne : un défi existentiel à l’ère du cloud

Abonnez-vous au magazine papier
et découvrez chaque trimestre :
- Des dossiers et analyses exclusifs sur des stratégies d'entreprises
- Des témoignages et interviews de stars de l'entrepreneuriat
- Nos classements de femmes et hommes d'affaires
- Notre sélection lifestyle
- Et de nombreux autres contenus inédits