logo_blanc
Rechercher

Ivana Bartoletti, experte en IA et Global Privacy Officer chez Wipro : « Beaucoup trop de dirigeants de la tech jouent sur cette idée de scénario catastrophique où l’IA prendrait le contrôle. »

Ivana Bartoletti, experte en IA et Global Privacy Officer chez WiproIvana Bartoletti, experte en IA et Global Privacy Officer chez Wipro

Actuellement Global Privacy Officer chez Wipro, Ivana Bartoletti est une chercheuse italienne en intelligence artificielle spécialisée sur les questions de protection de la vie privée et de sécurité des données personnelles. Auteure de l’ouvrage An Artificial Revolution on Power, Politics and AI et cofondatrice du réseau Women Leading in AI, l’experte s’engage pour une révolution éthique de l’IA. Entretien.

Pouvez-vous nous en dire plus sur votre parcours universitaire ?

J’ai toujours focalisé mes sujets de recherche sur les questions techniques et de sécurité autour de la technologie. Mes recherches à l’Université d’Oxford – plus précisément à l’Oxford Internet Institute – ou encore à Virginia Tech m’ont par exemple permis d’explorer l’avancement du partage de l’information au niveau mondial avec toutes les problématiques liées en matière de vie privée et de protection des données et des droits de l’Homme.

En 2018, j’ai publié mon ouvrage An Artificial Revolution on Power, Politics and AI (Une révolution artificielle sur le pouvoir, la politique et l’IA) et j’ai récemment fini un rapport pour le Conseil de l’Europe sur la question du respect des droits humains. La question est de savoir comment les produits numériques, plateformes et algorithmes peuvent être plus respectueux envers les internautes car il se trouve que les plus grands réseaux sociaux ont tous un système de scoring social qui n’est pas ce qu’on pourrait qualifier de vertueux.

Le regain d’intérêt récent pour les IA génératives retient-il aussi votre attention ?

Oui, et il faut dire que ces modèles algorithmiques ne sont pas nouveaux – ni ChatGPT par ailleurs. Ce qui est nouveau, c’est que désormais des centaines de millions de personnes y ont recours et cela accélère considérablement l’accès à l’information. Mais c’est la même question qui revient : seriez-vous prêts à conduire une voiture dont les freins n’ont pas été préalablement testés ? C’est ce qui se passe avec ces nouveaux outils, même si évidemment ils nous assistent pour des tâches de manière extraordinaire.

Le premier risque reste le fait que ces IA sont basées sur des systèmes exclusivement computationnels et cela peut mener à des dérives si un contrôle humain n’est pas prévu. Le deuxième risque à mon sens est lié à la manipulation de l’information et nous en avons déjà vu quelques exemples avec Midjourney. Il faut veiller à un contrôle plus strict pour éviter que ces IA soient utilisées pour propager de fausses informations ou dans le but de semer la dissension dans le débat public. Le troisième risque est relatif à la question de la vie privée et de la protection des données au niveau européen. Et récemment, le Comité européen de protection des données a justement créé un groupe de travail sur ChatGPT et toutes les IA du même type.

Enfin, la future réglementation européenne sur l’intelligence artificielle baptisée “AI Act” – dont l’entrée en vigueur est prévue fin 2024 – va aussi inclure ces nouveaux modèles pour s’assurer que tous les risques soient pris en compte.

L’Italie a récemment levé l’interdiction de ChatGPT, en partie parce qu’il respectait les règles de vérification de l’âge des mineurs… Avez-vous identifié d’autres problèmes qui pourraient être décrits comme des violations du RGPD?

Oui, cette décision n’est pas suffisante et le régulateur italien a eu recours aux moyens dont il disposait pour mieux encadrer ChatGPT sur le point de vue de la transparence. Ce dernier aurait pu transposer davantage de règles européennes mais cela nécessitait des enquêtes plus approfondies, notamment sur l’utilisation des données.

Au final, faut-il se méfier de l’IA ou peut-on trouver un équilibre ? Est-ce qu’on risque de nous priver de son potentiel si son contrôle est trop élargi ?

Oui, il est possible de trouver un équilibre et il faut aussi à tout prix se distancer de cette dichotomie opposant IA et vie privée, ou bien IA et régulation. Car, en fin de compte, si un produit n’est pas fiable et sûr, les entreprises ne vont tout simplement pas l’utiliser. C’est ce qui explique le grand décalage entre un développement rapide de l’IA et son déploiement effectif. L’approche européenne en la matière est selon moi la plus pertinente car même si il existe une course mondiale à l’IA, il n’en demeure pas moins que ce sont les produits les plus fiables et éthiques qui s’inscriront durablement sur le long terme.

Pour l’IA générative, les risques sont aussi connus depuis longtemps. Celle-ci imite l’humain comme un perroquet de façon troublante mais cela ne leur procure pas une “âme” pour autant. Les journalistes, communicants et politiques doivent s’emparer de ce narratif et écarter l’idée d’une conscience de l’IA. Il vaut mieux éduquer le public à ces enjeux plutôt qu’instiller la peur.

Beaucoup trop de dirigeants de grandes entreprises de la tech aujourd’hui jouent sur cette idée de scénario catastrophique où l’IA prendrait le contrôle. Ces mêmes géants à qui nous accordons trop d’autorité car ils développent tous les outils que nous utilisons aujourd’hui couramment. Nous savons que ces technologies ont besoin d’encadrement et nous avons bien appris à travers l’Histoire que le marché ne peut jamais s’auto-réguler. De plus en plus d’entreprises du secteur elles-mêmes le défendent : il faut réguler pour éviter les dérives mais aussi le risque que des solutions restent au placard par manque de certitude réglementaire.

Pourquoi l’AI Act semble si unique ? L’Europe pourra-t-elle trouver cet équilibre et l’imposer au reste du monde ?

La grande question, c’est : est-ce que l’AI Act aura le même effet que le RGPD ? En attendant, cette réglementation demeure une première mondiale en matière de protection de la vie privée face à l’IA. Elle offre une sorte de cadre basé sur le produit lui-même et ses risques. Des projets similaires ont été présentés récemment par la Cyberspace Administration of China (CAC) et la National Telecommunications and Information Administration (NTIA) du ministère américain du Commerce mais la spécificité européenne réside dans sa volonté d’une standardisation de l’IA assez ambitieuse.

Quand Internet est né, l’ambition était de créer un espace de libertés et de paix qui échappe au contrôle et la censure du pouvoir. Cette ambition est toujours la même aujourd’hui mais nous n’avions pas calculé à quel point les dérives en matière de désinformation pouvaient être sérieuses. Nous sommes à la croisée de la relation entre l’humanité et la technologie et c’est dans ce contexte que des textes européens comme le Digital Services Act, le Digital Markets Act, le Data Governance Act ou encore l’AI Act sont nés. Nous avons pris conscience que la technologie, la donnée et les algorithmes jouent un rôle prédominant du point de vue économique et naturellement les États s’intéressent à une vision souveraine de ces sujets.

Dans votre ouvrage « Une révolution artificielle, sur le pouvoir, la politique et l’IA » publié en 2018, vous défendez également l’impératif de protection des droits de l’homme et de la démocratie, allant jusqu’à dénoncer l’utilisation de l’IA comme sujet de populisme dans le débat politique… Où cela nous mène-t-il aujourd’hui ?

Cet ouvrage a intéressé de nombreux étudiants et universitaires dans leurs travaux et j’en suis vraiment reconnaissante. Ce risque me fascine et j’ai toujours été convaincue qu’il était important de le mettre en lumière car cela a un effet direct sur la société et l’imaginaire collectif. Le populisme autour de l’IA est devenu commun et les entreprises s’en emparent de plus en plus. J’ai d’ailleurs pu le constater à l’International Journalism Festival cette année, un événement qui se déroule chaque année à Pérouse en Italie.

Il y a évidemment aussi une peur qui persiste et certains bannissent par exemple ChatGPT de leurs pratiques, par crainte notamment qu’elle puisse remplacer des métiers. Mais il faut démontrer qu’un modèle responsable peut être réinventé, un espace sûr qui permet de maximiser certains produits ou assister les collaborateurs de manière vertueuse. Si nous laissons les gouvernements et les entreprises utiliser les technologies uniquement à des fins de profit, nous risquons simplement de perdre notre humanité. Il faut dès à présent une réponse politique à cet enjeu pour assurer la protection de la démocratie et des droits de l’Homme.

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC