logo_blanc
Rechercher

IA : les dérives possibles sur le plan technologique, économique, social et politique

IA

Depuis plusieurs années et grâce à d’importantes avancées technologiques, l’intelligence artificielle connaît un véritable regain d’intérêt. Certain l’interprète comme une véritable révolution quant d’autres, nourrissent un certain nombre d’inquiétudes. Cette nouvelle intelligence semble nous diviser : est-elle une menace imminente ou davantage une promesse d’innovation ?

Par Pascal de Lima et Morgane Balboni 

 

L’intelligence artificielle (IA) a connu une évolution fulgurante ces dernières années. Si elle apparaît telle une véritable avancée technologique, il est également certain qu’elle transformera notre société, comme de nombreuses autres avant elle. Néanmoins les dérives rattachées à l’IA existent, explorons-les sous différents axes : technologique, économique, social et politique.

 

Sur le plan technologique : de la conception à l’utilisation

La terminologie IA englobe un vaste éventail de technologies, de méthodes et d’outils, allant d’un simple algorithme de recherche jusqu’à l’élaboration de prototypes d’armes autonomes, utilisés à des fins militaires. La possibilité que des programmes d’IA soient détournés en raison de failles apparentes, ou encore, qu’ils soient exploités à des fins malveillantes ou de désinformation, existe et représente un certain niveau de risque pour la société et ses citoyens. Citons le cas des deefake, qui superposent des fichiers audio ou vidéo existants sur d’autres et permettant de faire dire n’importe quoi à n’importe qui ; le trucage d’images générées par IA permettant de porter préjudice à l’histoire ou à l’individu ; ou encore, l’utilisation d’algorithmes dans les réseaux sociaux, enfermant l’utilisateur dans une bulle d’information.

D’ailleurs, un autre sujet est fréquemment pointé du doigt lorsque l’on évoque l’IA : les biais présents dans les données et algorithmes. C’est justement le point faible de l’IA. Ils suscitent une préoccupation majeure en raison de leur impact sur la précision et l’équité des résultats obtenus. Ces biais proviennent de la manière dont les données sont collectées et sont souvent difficiles à identifier, même par les développeurs eux-mêmes. Les algorithmes d’IA, qui apprennent à partir de données historiques, peuvent produire des résultats biaisés, reproduisant alors les préjugés déjà présents dans la société. L’absence même de diversité au sein des sources de données engendre inévitablement des biais involontaires. L’exemple de reconnaissance faciale en est une illustration parfaite. Une étude récente révèle que ce système est moins précis pour les personnes de couleur, les algorithmes ayant été formés sur un ensemble de données davantage représentatives de la population blanche. Garantir le développement d’une IA responsable et éthique est-elle tenable face aux enjeux économiques et de domination que l’on connait ?

 

Sur le plan économique : entre compétitivité et évolution du travail

Le secteur de la tech exerce une influence de plus en plus forte sur l’économie mais l’accroissement des inégalités technologiques pourrait changer la donne. Par exemple, si une disparité dans la répartition des avantages de l’IA se dessine en faveur des économies les plus avancées, l’écart de compétitivité, quant à lui (et entre les acteurs économiques d’un même pays) est à son tour à craindre et risque de s’accentuer.

Penchons-nous maintenant sur le volet de l’employabilité. Dans le cas présent, l’automatisation accrue de certaines tâches grâce à l’IA entraînera, c’est certain, des conséquences importantes sur l’emploi et la qualité du travail. Selon un premier rapport du leadeur du conseil en stratégie McKinsey intitulé « Emplois perdus, emplois gagnés » entre 400 et 800 millions d’emplois pourraient être touchés, d’ici 2030, par l’automatisation (provenant, entre autres, des IA génératives). Selon un rapport plus récent « The economic potential of generative AI »(2023), l’IA couplée avec d’autres technologies pourrait automatiser jusqu’à 50% du temps des salariés et permettre d’augmenter la productivité annuelle de 0,5 à 3,4 % par an entre 2023 et 2040. Elle devrait générer à l’économie mondiale, annuellement, entre 2600 à 4400 milliards de dollars. Cette transformation toucherait toutes les strates du marché du travail : des employés, aux ouvriers en passant par les « cols blancs » aux profils experts, habituellement très recherchés et protégés des affres du chômage. Les mêmes qui s’inscrivaient auparavant comme les acteurs des plans de restructurations passées et des licenciements massifs pour les autres catégories professionnelles. 

Toutes les révolutions, qu’elles soient technologiques ou industrielles, ont permis l’émergence de nouveaux métiers. Espérons, (puisqu’il en est question), que l’IA favorisera l’émergence de métiers à plus forte valeur ajoutée, émancipateurs et qu’elle offrira une meilleure relation au travail, comme elle le sous-entend.

 

Sur le plan social et éthique : le risque d’une société basée sur la sélection technologique

Actuellement, l’IA permet d’offrir un gain de temps considérable aux professionnels des RH. Sur le plan du recrutement, elle apporte par exemple une valeur indéniable dans la gestion des candidatures, au travers du « recrutement prédictif » (sourcing, trie des candidatures, planification des entretiens). L’IA se contente pour l’heure de simplifier les processus, mais l’émergence d’une nouvelle technologie devrait progressivement apporter quelques changements. L’IA émotionnelle, qui permet la mesure les émotions au travers des expressions faciales et analyses vidéo pourrait redéfinir ces processus. Cette utilisation peut-elle dériver, à mesure que les capacités de l’IA grandiront et acquerront de nouvelles capacités. Le risque d’une société basée sur la sélection technologique doit nous alerter. Toutes les limites sur le plan éthique seront-elles anticipées ?

Imaginons maintenant qu’elle intervienne dans les domaines « critiques ». Si l’IA est utilisée dans des domaines critiques tels que la santé, la sécurité et la justice, la création d’erreurs pourrait avoir des conséquences dramatiques. Il est d’autant plus important de souligner que les décisions prises par les systèmes d’IA peuvent être difficiles à comprendre et à contester. Evidemment, l’IA peut aider positivement les avocats dans leurs recherches et argumentaires, mais en parallèle, elle peut aussi devenir problématique lorsqu’il s’agit de faire appliquer des décisions de justice. Manque de neutralité, analyse discriminante, utilisation de biais… La crainte d’une justice automatique revient fréquemment dans les critiques de l’IA. Seriez-vous prêt à vous faire juger par un robot ?

 

Sur le plan sociétal et politique : un risque pour la société ?

L’IA pourrait « déstabiliser la société » : dystopie ou réalité ? Si le sujet fait couler beaucoup d’encre, et sans vouloir nous diriger vers des scénarios trop catastrophiques, certains points évoqués par des experts méritent toutefois notre attention.

Lewis Griffin précise que « L’expansion des capacités des technologies basées sur l’IA s’accompagne d’une augmentation de leur potentiel d’exploitation criminelle ». Le chercheur en informatique à l’University College London (UCL) a par ailleurs référencé, avec d’autres collègues, les applications potentiellement dangereuses de l’IA aboutissant à une classification des applications pénales. Parmi elles : le chantage, le piratage de voitures autonomes, l’utilisation de robots cambrioleurs, la corruption des données, les cyberattaques… Geoffrey Hinton, considéré comme l’un des parrains de l’IA a récemment quitté son poste au sein de Google en vue de pouvoir alerter sur les menaces potentielles de cette technologie. Ses plus grandes craintes ? Que l’IA dépasse le créateur, perturbe le marché du travail, impose des progrès trop rapides comparé à notre capacité à la réguler, l’utilisation à des fins malveillantes et la désinformation. Margrethe Vestager, responsable de la technologie au sein de l’UE évoque quant à elle une préoccupation liée aux préjugés et discriminations et exprime, entre autres, des inquiétudes vis-à-vis d’un « risque certain » que l’IA puisse être utilisée pour influencer les élections.

Mais qu’en est-il réellement ? Entre la surveillance de masse, l’atteinte à la vie privée, la manipulation de l’opinion publique,.. Les risques auxquels nous expose l’IA sont divers. L’aspect préoccupant semble principalement lié à notre faculté de gérer l’évolution de l’IA, spécifiquement en cas de croissance (trop) rapide comme le soulignent les experts. Par ailleurs, les systèmes d’IA ne semblent pas infaillibles. Les dispositifs de sécurité sur lesquels l’IA se développe doivent donc être en capacité de se protéger de toutes velléités, tant celles provenant de leur propre IA, qu’au travers de toutes initiatives extérieures.  

L’IA Act, comme tout autre organisme de régulation seront-ils en mesure de proposer un cadre suffisamment protecteur pour maîtriser les défis de l’intelligence artificielle ? Précisons également que certaines formes d’intelligence apparaissent pour le moment, davantage comme des concepts théoriques et futuristes. L’IA dans sa version la plus aboutie (la super intelligence), n’est en réalité, pas (encore) pleinement développée.

En conclusion, l’intelligence artificielle (IA) peut présenter un potentiel immense pour améliorer notre société mais pour l’heure, elle semble surtout susciter un grand nombre d’inquiétudes. Les dérives possibles que nous venons d’aborder, qu’elles soient technologiques, économiques, sociales, ou politiques soulignent la nécessité d’une gestion prudente, éthique et responsable. Un équilibre subtil entre protection, innovation, et croissance est-il néanmoins possible à trouver ?

 

À lire également : Intelligence artificielle générative : vers une nouvelle civilisation ?

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC