L’Union européenne est à la tête du monde en matière de réglementation des questions essentielles qui ont un impact sur toute personne interagissant avec les entreprises et les citoyens de l’UE. Elle a ouvert la voie en matière de réglementation de la confidentialité des données avec le règlement général sur la protection des données (RGPD). Ils le font à nouveau avec la réglementation de l’IA, et cela aura un impact sur votre entreprise.

 

L’IA doit-elle être réglementée ? Sans aucun doute. Une réglementation limitée de l’IA existe aujourd’hui aux États-Unis. Certaines réglementations portent sur une infime partie de la protection des consommateurs.

 

Pourquoi devez-vous faire attention ?

À l’instar du RGPD, les réglementations sur l’IA issues de l’UE auront un impact sur presque toutes les entreprises mondiales. Les réglementations européennes de ce type s’appliquent à toutes les entreprises qui cherchent à faire des affaires dans l’UE ou avec des entreprises ou des consommateurs basés dans l’UE.

En d’autres termes, à moins que vous ne soyez prêt à renoncer à travailler avec les 450 millions de citoyens de l’UE, ces nouvelles réglementations auront un impact sur vous. (Le plan actuel est que les règlements de l’UE en matière d’IA fonctionneront en harmonie avec le RGPD et ne tenteront pas de modifier les règlements relatifs à la confidentialité des données).

Selon McKinsey, « les entreprises qui obtiennent les meilleurs rendements de l’IA sont beaucoup plus susceptibles de déclarer qu’elles sont engagées dans une atténuation active des risques ». Pour obtenir le meilleur rendement de vos initiatives en matière d’IA et réduire le risque d’avoir des démêlés avec la réglementation, vous devez agir dès maintenant.

 

5 choses à faire maintenant

L’UE va réglementer l’IA considérée comme un « risque inacceptable » et l’IA considérée comme un « risque élevé ». Ces nouvelles réglementations s’appliquent que vous soyez une entreprise d’IA qui construit et vend des systèmes d’IA ou que vous soyez une entreprise qui achète des systèmes d’IA à des fournisseurs d’IA.

 

1) Avant toute chose, vous devez vous assurer que vous ne participez pas à une initiative d’IA présentant un « risque inacceptable ». Les systèmes à risque inacceptable comprennent :

– Des techniques d’exploitation, subliminales ou manipulatrices qui causent des dommages. L’IA de Facebook qui a tendance à pousser les gens à publier des contenus incendiaires pourrait-elle être concernée ?

– Toutes les formes de systèmes de notation sociale, y compris le système de crédit social de la Chine, qui suit le comportement et la fiabilité de tous les citoyens.

– Les systèmes d’identification biométrique dans les espaces publics, comme les systèmes de reconnaissance faciale. 

 

2) Ensuite, déterminez si vous allez construire ou utiliser un système d’IA à « haut risque ». Cela peut inclure :

– Les infrastructures critiques où le système pourrait mettre en danger la vie et la santé des gens (par exemple, les transports) ;

– Les composants de sécurité des produits (exemple : la chirurgie assistée par robot) ;

– L’emploi (exemple : l’examen des CV) ;

– La gestion des travailleurs (exemple : l’évaluation des performances) ;

– Certaines identifications biométriques ;

– Les services privés essentiels (exemple : les prêts).

Les systèmes d’IA à haut risque feront l’objet d’un examen minutieux et d’une réglementation importante.

Malheureusement, certaines applications d’IA apparemment inoffensives peuvent être prises dans le filet à haut risque. C’est le cas de Duolingo (une plateforme populaire d’apprentissage des langues). Duolingo étant parfois utilisée pour l’admission dans les établissements d’enseignement, elle entre dans la catégorie à haut risque. La valeur marchande de Duolingo risque de baisser en conséquence.

 

3) Préparez-vous à inclure des humains dans les décisions prises par l’IA

La manière la plus courante de décrire l’implication des humains dans les décisions de l’IA est de trois ordres :

– L’humain dans la boucle : Un humain doit prendre part à la décision. Un exemple de système « humain dans la boucle » serait l’approbation d’un candidat à un poste lors d’un entretien d’embauche. Bien que l’IA puisse être capable de présenter d’excellents candidats, des problèmes de partialité peuvent amener l’UE à exiger que l’IA soit reléguée à un rôle de conseiller uniquement, l’humain prenant la décision finale.

– L’humain sur la boucle : Les humains peuvent intervenir dans les décisions prises par l’IA. Les instructions de conduite automatisées sont un exemple de système où l’humain intervient au-dessus de la boucle. La plupart du temps, l’humain suivra les recommandations du système, mais il peut choisir de temps en temps de prendre une autre direction. L’impact de la réglementation européenne sur ces systèmes n’est pas clair.

– L’humain hors de la boucle : L’IA fonctionne sans interaction humaine. Un exemple de système humain hors de la boucle pourrait être un véhicule entièrement automatisé à conduite autonome. Ces types de systèmes seront beaucoup plus difficiles à mettre en œuvre dans le cadre de la nouvelle réglementation.

 

4) Préparez-vous à inclure l’explication dans votre système d’IA

Certaines demandes de prêt sont approuvées en quelques minutes par le groupe Ant (qui fait partie d’Alibaba) en Chine. L’IA impliquée dans ces décisions a accès à des milliers de points de données recueillis dans le vaste trésor de données d’Alibaba.

En raison du type d’IA utilisé et de la complexité des algorithmes impliqués, il est impossible de savoir comment l’IA a décidé d’approuver un prêt pour une personne et d’en rejeter un autre. Le système est opaque, et il n’est pas explicable.

Il est probable que la réglementation européenne en matière d’IA n’autorise pas un système opaque. L’UE insiste pour que les systèmes d’IA à haut risque soient explicables. L’accès équitable aux produits financiers étant l’une des priorités de l’UE, tout fournisseur de systèmes d’évaluation des prêts par l’IA devra montrer précisément comment l’IA a pris une décision.

Cette réglementation est une bonne chose pour éliminer les partialités potentielles et garantir l’équité. Cependant, elle ralentira considérablement le processus d’approbation des prêts, réduisant ainsi les avantages d’un système basé sur l’IA.

 

5) Assurer une surveillance continue des systèmes

Étant donné que les systèmes d’IA s’améliorent généralement en permanence, il ne suffit pas de se conformer aux règlements de l’UE lors de l’utilisation initiale d’un système. La réglementation de l’UE propose que « tous les fournisseurs mettent en place un système de surveillance post-commercialisation ».

L’hypothèse est qu’en raison de l’évolution continue des systèmes, une entreprise devra surveiller le système pour garantir une conformité permanente. Votre travail de conformité ne sera jamais terminé et sera probablement beaucoup plus complexe en raison de la fréquence à laquelle les systèmes d’IA peuvent être mis à jour.

 

Traitez ces prochaines réglementations européennes comme une opportunité de gérer et de gouverner tous les risques liés à l’IA. Bien que les réglementations puissent être lourdes, vous pouvez obtenir un avantage concurrentiel si votre organisation les devance dès maintenant. Et, comme le souligne McKinsey, obtenez même les meilleurs rendements de vos initiatives en matière d’IA.

 

Article traduit de Forbes US – Auteur : Glenn Glow

 

<<< À lire égalementL’étique de l’IA : la morale ne se délègue pas ! >>>