logo_blanc
Rechercher

Qu’est-ce que l’« IA responsable » et pourquoi les grandes entreprises technologiques y investissent des milliards de dollars ?

IASource : Pixabay

Le boom de l’intelligence artificielle (IA) et de l’informatique super-intelligente a pris le monde d’assaut. Les experts qualifient la révolution de l’IA d’« événement générationnel », qui changera à jamais le monde de la technologie, de l’échange d’informations et de la connectivité.

 

L’IA générative a redéfini le baromètre de la réussite et du progrès dans ce domaine, créant de nouvelles opportunités dans tous les secteurs, de la médecine à l’industrie manufacturière. L’avènement de l’IA générative, associée à des modèles d’apprentissage profond, a permis de prendre des données brutes et des invites pour générer du texte, des images et d’autres médias. La technologie est fortement basée sur l’apprentissage automatique supervisé à partir d’ensembles de données, ce qui signifie que ces systèmes peuvent développer leur répertoire et devenir de plus en plus adaptables et réactifs au fur et à mesure qu’ils sont alimentés en données.

Kevin Scott, directeur de la technologie chez Microsoft, écrit sur la façon dont l’IA va changer le monde, décrivant que l’IA générative va aider à libérer la créativité de l’humanité, fournir de nouvelles façons de « débloquer une itération plus rapide » et créer de nouvelles opportunités en matière de productivité : « Les applications sont potentiellement infinies, limitées uniquement par la capacité de chacun à imaginer des scénarios dans lesquels des logiciels d’aide à la productivité pourraient être appliqués à des travaux cognitifs complexes, qu’il s’agisse d’éditer des vidéos, d’écrire des scripts, de concevoir de nouvelles molécules pour des médicaments ou de créer des recettes de fabrication à partir de modèles 3D. »

Microsoft et Google sont tous deux à la pointe de ce développement et ont fait d’incroyables progrès dans la technologie de l’IA au cours de l’année écoulée. Microsoft a intégré la technologie de manière transparente dans ses fonctions de recherche, tout en créant des plateformes permettant aux développeurs d’innover dans d’autres domaines utiles. Google a également progressé de manière significative sur ce front, se montrant très prometteur avec sa plateforme Bard et son API PaLM.

Cependant, la promesse de possibilités infinies s’accompagne d’une immense responsabilité.

En effet, l’avènement de l’IA générative a également soulevé de nombreuses préoccupations quant à la meilleure façon de développer ces plateformes de manière juste, équitable et sûre.

L’une des principales préoccupations concerne la création de systèmes capables de fournir des résultats équitables et appropriés. Il y a quelques années, Amazon a dû démanteler un système d’IA que l’entreprise testait pour rationaliser le processus de recrutement. Afin d’introduire l’automatisation dans le recrutement, l’entreprise a construit un système d’IA capable de trier les CV des candidats et d’aider à identifier les meilleurs talents, sur la base de données historiques d’embauche. Cependant, un problème important est apparu : étant donné que le système utilisait des modèles basés sur des données historiques et que l’industrie technologique est historiquement dominée par les hommes, le système sélectionnait de plus en plus d’hommes pour avancer dans le processus de recrutement. Bien que les recruteurs d’Amazon n’aient utilisé ce système que pour des recommandations et qu’ils aient pris eux-mêmes les décisions finales, ils ont supprimé l’ensemble du programme afin de garantir une transparence et une équité totales dans le processus à l’avenir.

Cet incident a mis en lumière un problème majeur pour les développeurs : les systèmes d’IA ne valent que ce que valent les données avec lesquelles ils sont formés.

Conscient du risque de tels problèmes, Google a été incroyablement proactif dans son approche du développement. Au début du mois, lors de la conférence annuelle des développeurs de Google, les dirigeants ont consacré toute une partie de la conférence à l’« IA responsable », assurant le public qu’il s’agissait d’une priorité essentielle pour l’entreprise.

En fait, Google s’efforce d’être transparent sur ses mesures de sécurité, en expliquant les principaux enjeux d’un développement responsable de l’IA : « Le développement de l’IA a créé de nouvelles opportunités pour améliorer la vie des gens dans le monde entier, du commerce à l’éducation en passant par les soins de santé. Il a également soulevé de nouvelles questions sur la meilleure façon d’intégrer l’équité, l’interprétabilité, la protection de la vie privée et la sécurité dans ces systèmes. » En parallèle à l’énigme à laquelle Amazon a été confronté, Google évoque l’importance de l’intégrité des données et des intrants et modèles utilisés pour former les systèmes d’IA : « Les modèles de Machine Learning reflètent les données sur lesquelles ils sont entraînés, alors analysez soigneusement vos données brutes pour vous assurer que vous les comprenez. Dans les cas où cela n’est pas possible, par exemple avec des données brutes sensibles, comprenez vos données d’entrée autant que possible tout en respectant la vie privée, par exemple en calculant des résumés agrégés et anonymes. » En outre, l’entreprise insiste sur le fait que les utilisateurs doivent comprendre les limites des modèles de données, tester les systèmes à plusieurs reprises et surveiller de près les résultats pour déceler tout signe de biais ou d’erreur.

De la même manière, Microsoft a déployé des efforts considérables pour faire respecter des normes responsables en matière d’IA : « Nous mettons nos principes en pratique en adoptant une approche centrée sur les personnes pour la recherche, le développement et le déploiement de l’IA. Pour y parvenir, nous adoptons des perspectives diverses, un apprentissage continu et une réactivité agile à mesure que la technologie de l’IA évolue. » Dans l’ensemble, l’entreprise déclare que son objectif pour la technologie de l’IA est de créer un impact durable et positif pour relever les plus grands défis de la société, et d’innover d’une manière qui soit utile et sûre.

Les autres entreprises qui innovent dans ce domaine doivent également s’investir dans le développement de ces systèmes de manière responsable. Le développement et l’engagement en faveur d’une « IA responsable » coûteront sans aucun doute des milliards de dollars par an aux entreprises technologiques, car elles sont obligées d’itérer et de réitérer pour créer des systèmes équitables et fiables. Bien que ce coût puisse sembler élevé, il est certainement nécessaire. L’IA est une technologie à la fois incroyablement nouvelle et puissante, qui va inévitablement bouleverser de nombreux secteurs dans les années à venir. C’est la raison pour laquelle les bases de cette technologie doivent être solides. Les entreprises doivent être en mesure de créer ces systèmes de manière à susciter la confiance des utilisateurs et à faire progresser la société de manière positive. Ce n’est qu’à cette condition que le véritable potentiel de cette technologie sera libéré et qu’elle deviendra un atout plutôt qu’un fléau pour la société.

 

Article traduit de Forbes US – Auteur : Sai Balasubramanian, M.D., J.D.

<<< À lire également : Ivana Bartoletti, experte en IA et Global Privacy Officer chez Wipro : « Beaucoup trop de dirigeants de la tech jouent sur cette idée de scénario catastrophique où l’IA prendrait le contrôle. » >>>

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC