logo_blanc
Rechercher

Retour sur les avancées majeures pour l’encadrement de l’IA & coup d’œil sur l’IA ACT

IA générativeLes outils d’IA générative tels que ChatGPT vont révolutionner une grande partie du travail des RH. | Source : Getty Images

Une contribution de Pascal de Lima et Morgane Balboni

L’IA, par sa nature à la fois technique et juridique suscite un grand nombre d’interrogations. D’ailleurs, les risques, quant aux questions liées à la vie privée, à la sécurité et à celles des droits de l’homme, inquiètent. De leurs côtés, les législateurs mondiaux ont déjà bien avancé sur les propositions d’encadrement. Si certains points sont encore à clarifier, les travaux législatifs semblent donc sur la bonne voie pour fournir, aux citoyens comme aux consommateurs, un solide cadre de protection. Retour sur les propositions d’encadrement de l’IA et les réactions de l’IA ACT.

 

Avancées majeures pour l’encadrement de l’IA

2017 | La France se lance dans une stratégie nationale pour l’IA et souhaite devenir pionnière d’ici 2030[1] : A cette date, « le gouvernement se lance dans une réflexion sur le thème de l’IA, sous forme de stratégie nationale divisée en 2 phases (entre 2018 et 2025) », selon économie-gouv. L’objectif de la France ? S’offrir une place de pionnière de l’innovation d’ici 2030 ! Pour y parvenir, le gouvernement mise sur une stratégie nationale pour l’intelligence artificielle en établissant les bases d’une structuration de l’écosystème d’IA sur le long terme et à tous les stades (innovation, recherche, applications, commercialisation, diffusion intersectorielle, encadrement du déploiement). La seconde phase vise à imposer les Français sur le devant de la scène internationale. 

2019 | Ethics guidelines for trustworthy IA [2]: Le 8 avril 2019, le site de la Commission européenne indique qu’un « groupe d’experts de haut niveau sur l’IA a présenté ses lignes directrices en matière d’éthique pour une intelligence artificielle digne de confiance ». Ces lignes stipulent que pour être digne de confiance, une IA devrait être : licite, c’est-à-dire conforme aux lois et réglementations applicables ; éthique, en observant les principes et valeurs éthiques ; et robuste, d’un point de vue technique, et en considérant son environnement social. 

2020 | Lancement du partenariat mondial sur l’IA (GPAI) [3]: « Le Canada et la France s’unissent avec l’Allemagne, l’Australie, la République de Corée, les États-Unis d’Amérique, l’Italie, l’Inde, le Japon, le Mexique, la Nouvelle-Zélande, le Royaume-Uni, Singapour, la Slovénie et l’Union européenne pour créer le partenariat mondial sur l’intelligence artificielle (PMIA) », précise le site économie.gouv. Le PMIA (ou GPAI en anglais) vise à guider le développement responsable et la collaboration internationale d’une IA responsable. Elle met l’accent sur des enjeux tels que l’inclusion, la diversité, l’innovation, le tout, dans un esprit de croissance économique.

 2021 | Premier cadre réglementaire de l’UE pour l’IA [4]: La Commission européenne propose en 2021, un cadre stipulant que « des systèmes d’IA qui seront utilisés dans différentes applications seront analysés et classés en fonction du niveau de risque qu’ils présentent pour les utilisateurs », relaye Europarl. Elle ajoute à cela que les différents niveaux de risque entraîneront une réglementation spécifique, c’est-à-dire au cas par cas. Ces règles seront les premières au monde sur l’IA

2022 | Une réglementation de l’IA aux USA [5] Jusqu’en 2022, les États-Unis ne disposaient pas de cadre fédéral pour réguler l’IA. Et si le projet Algorithmic Accountability Act a été adopté après avoir été présenté au Sénat américain et à la Chambre des représentants le 3 février 2022, sa mise en application n’est elle, pas immédiate. Cette règlementation autoriserait la Federal Trade Commission (FTC) à exiger que l’ensemble des sociétés sous sa juridiction soit en capacité d’évaluer les problématiques liées à la discrimination et l’exclusion générées par les algorithmes. Elle souligne également que ces sociétés devront prendre toutes les mesures pour y remédier. L’EPIC a d’ailleurs publié « The State of State AI Policy », un résumé compilant les lois relatives à l’IA, examiné par les États et villes sur la période de janvier 2021 et août 2022. Depuis 2022, plus de 10 États américains ont depuis adopté ou déposé des projets de lois régulant l’IA, c’est le cas de l’Alabama, du Colorado, de l’Illinois, du Massachusetts ou encore, de la Californie.

Le 4 octobre 2022, le président des Etats-Unis dévoile une nouvelle déclaration des droits de l’IA[6], assurant la protection des Américains contre les méfaits liés à ces technologies. Elle s’articule autour de cinq principes de protection : proposer des systèmes sûrs, éviter la discrimination par les algorithmes, fournir la protection des données, déterminer si un système automatisé est utilisé, et enfin, pouvoir refuser les décisions du système en bénéficiant d’un interlocuteur pour examiner et résoudre les problèmes rencontrés.

14 JUIN 2023 | Mercredi 14 juin, le Parlement adopte sa position de négociation concernant la législation sur l’intelligence artificielle[7] (avec 499 voix pour, 28 contre et 93 abstentions), préalablement aux discussions avec les États membres sur la version définitive de la législation. Sur son site, le Parlement européen explique que les règles visent à garantir que « l’IA, développée et utilisée en Europe soit pleinement conforme aux droits et valeurs de l’UE, notamment sur la surveillance humaine, la sécurité, la protection de la vie privée, la transparence, la non-discrimination et le bien-être social et environnemental ».

SEPT 2023 | Le Comité de l’intelligence artificielle générative [8] (en lien avec la stratégie nationale pour l’IA du plan France 2030) : Lancé le 19 septembre 2023 et réunissant des personnalités de différents secteurs (culturel, économique, technologique, de recherche), ce comité vise à éclairer les décisions du Gouvernement mais aussi à faire de la France, un pays à la pointe de la révolution de l’intelligence artificielle. Le Chiffre clé ? 90 MILLIARDS DE DOLLARS. « Ce montant correspond à l’évaluation des résultats économiques attendus des technologies de l’IA dès 2025, contre 7 milliards en 2020, selon le cabinet de conseil Statistica » explique le site économie.gouv.

 

Coup d’œil sur l’IA ACT

L’IA Act est le premier cadre juridique sur l’IA relatif à la stratégie numérique pour l’Europe. Le projet de règlement sur l’Intelligence Artificielle (Artificial Intelligence Act – AIA) s’appuie sur un nombre conséquent d’études et de rapports provenant de divers groupes de réflexions sur l’IA, publiés au cours de ces dernières années.

Un accord trouvé le 8 décembre 2023

Récemment, un accord a été trouvé par l’UE pour réguler l’IA, il s’agit par ailleurs, du premier continent à fixer des règles strictes de son utilisation. En effet, le 8 décembre dernier, les eurodéputés ont trouvé un accord politique sur un texte visant à favorisant l’innovation en Europe tout en limitant ses dérives possibles. Une étape cruciale pour rendre l’IA digne de confiance.

Le compromis prévoit, concernant les IA génératives, une approche en deux temps : des directives claires, visant à garantir la qualité des données exploitées dans le développement des algorithmes, et s’assurer qu’elles respectent scrupuleusement la législation sur les droits d’auteur. Sans oublier l’obligation pour les développeurs d’identifier clairement tout contenu généré par une IA en tant qu’artificiel.

Au centre du projet figure également un listing de règles concernant les systèmes à haut risque et exploités dans les domaines sensibles (Éducation, RH, maintien de l’ordre,…). Il est aussi question d’un contrôle humain obligatoire sur la machine, d’un système de gestion du risque et d’une documentation technique. La législation prévoit par ailleurs un encadrement spécifique pour toute IA interagissant avec l’humain. Ce texte vise l’interdiction d’applications contraires aux valeurs européennes, comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine jusqu’à l’identification biométrique à distance des personnes dans les lieux publics. La législation européenne sera dotée de moyens de surveillance et de sanctions avec la création d’un « office européen de l’IA », au sein de la Commission européenne.

 

USA : La mise en garde

Le projet européen de réglementation de l’intelligence artificielle (IA Act) inquiète. Le gouvernement américain apporte d’ailleurs une mise en garde contre les effets néfastes du texte adopté par le Parlement cet été dans un document officiel partagé avec les responsables européens. Selon Bloomberg[9], Washington pense que les nouvelles règles européennes créeront un impact positif sur les grandes entreprises du secteur (favorisant ainsi leur position dominante sur ce marché et de pouvoir vis-à-vis des États), mais pénaliseront les start-ups sur leur mise en conformité, par manque de ressources. L’analyse menée par le gouvernement américain ajoute que ce cadre réglementaire risque de freiner « l’augmentation de la productivité » attendue par l’IA et conduise à « une migration des emplois et des investissements vers d’autres marchés ».

 

La France reste critique

L’AI Act avance de manière progressive, néanmoins la France reste critique quant au projet de règlement européen de l’IA. L’Union Européenne a pourtant cherché à trouver un équilibre subtil entre les enjeux d’innovation et de régulation.

Mais depuis juin 2023, la France semble préoccupée par certaines clauses du texte pouvant entraver l’innovation des start-ups européennes avec l’allemande Aleph Alpha et surtout françaises (LightOn, Mistral AI) cherchant à rivaliser avec des acteurs américains. Au travers de son exception culturelle, la France reste aussi particulièrement vigilante sur les enjeux de droits d’auteur. Enfin, et de façon à minimiser les risques pour la société, elle pointe du doigt les questions de conformité encadrant la puissance des modèles AI.

 

En conclusion, l’encadrement de l’intelligence artificielle (IA) a su évoluer au cours des dernières années et des initiatives majeures sont à noter, tant sur le plan national qu’au niveau international. Il est néanmoins crucial de souligner la disparité significative entre d’une part les pays occidentaux, caractérisés par une volonté de régulation et de protection, et d’autre part, les autres grandes puissances, comme c’est le cas de la Chine (se tournant davantage vers une logique de contrôle). Ces stratégies diverses traduisent les défis complexes du développement de l’IA et expriment une volonté de domination stratégique et économique. En attendant, le processus législatif de l’AI Act est sur le point d’être achevé. Vendredi 2 février, les pays devront normalement se prononcer sur la ratification du texte !

 


[1]Economie.Gouv (2023) www.economie.gouv.fr/strategie-nationale-intelligence-artificielle

[2]European Commission (2019)  https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

[3]Economie.Gouv (2020) https://www.economie.gouv.fr/lancement-partenariat-mondial-intelligence-artificielle#

[4]Source :Parlement européen (2023) https://www.europarl.europa.eu/news/fr/headlines/society/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle

[5]Actuaia (2022) https://www.actuia.com/actualite/ou-en-est-la-reglementation-de-lintelligence-artificielle-aux-usa/

[6]Capital (2022) https://www.capital.fr/economie-politique/la-maison-blanche-devoile-une-nouvelle-charte-des-droits-de-lia-1448141

[7]Source :https://www.europarl.europa.eu/news/fr/press-room/20230609IPR96212/les-deputes-sont-prets-a-negocier-les-regles-pour-une-ia-sure-et-transparente

[8]Source : www.economie.gouv.fr/strategie-nationale-intelligence-artificielle

[9] https://www.strategies.fr/actualites/culture-tech/LQ2412279C/washington-met-en-garde-leurope-pour-son-ai-act.html

 

À lire également : Intelligence artificielle générative : un enjeu d’adaptation collective 

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC