logo_blanc
Rechercher

Reconnaissance Faciale : Les Géants Du Net Face À Leur Responsabilité Sociale

reconnaissance facialepolice cameras

Dans la cadre de sa stratégie de développement, Amazon démarchait les agences de renseignement et de police de tous les États-Unis pour leur vendre son système de reconnaissance faciale. Après la mort de George Floyd, Amazon a annoncé soudainement, le mercredi 10 juin, interdire pendant un an à la police d’utiliser son logiciel décrié de reconnaissance faciale Rekognition, intégré dans les caméras de surveillance.

Une position de non-développement de ce marché porteur vers les services de polices et de renseignements d’Amazon qui pourrait être « suivie » par d’autres géants du net. Microsoft, par la voie de Brad Smith, a ainsi certifié au Washington Post que la société ne vendait pas logiciels de reconnaissance faciale aux services de police des États-Unis et ne vendrait pas de tels outils à la police tant qu’une loi nationale « fondée sur les droits de l’homme »  ne sera pas en place.

Depuis des mois, des organisations dont l’Union américaine pour les libertés civiles (ACLU), faisaient campagne afin d’interdire l’utilisation de la reconnaissance faciale dans le caméras de surveillance à destination des forces de l’ordre sur le territoire américain…

«One false match is one too many ! »

Nous pouvons nous interroger sur une telle précipitation à faire marche arrière. Tout du moins à mettre sur « pause » un processus de commercialisation engagé par Amazon sur un marché prometteur. La raison en est fort simple ! Dans un contexte d’émeutes lié à une police américaine en discrédit d’équité de traitement selon la couleur de sa peau , il est pour le moins difficilement défendable de poursuivre la promotion d’une technologie qui s’avère être faillible et discriminante, pour en équiper ceux et celles qui ont – a priori – pour mission première la protection de la population.

Il est utile de rappeler qu’en août 2019, afin d’illustrer les dangers du recours par les forces de l’ordre à ce logiciel, l’Union américaine pour les libertés civiles (ACLU) avait utilisé la solution pour comparer le visage de 120 élus californiens avec les « mugshots, les photographie d’identité judiciaire, de 25 000 personnes arrêtées par la police. Il est avéré qu’après avoir utilisé la solution de reconnaissance faciale, 26 des 120 législateurs avaient été identifiés comme des « criminels », une majorité de ces supposés « criminels » étant des personnes issues de ce que notre société a décidé de qualifier de « minorités visibles », avec un taux de faux positifs – si nous nous limitons aux 120 législateurs intégrés dans la base – de… 21,67 %.

Lors d’une conférence de presse avec des responsables de l’ACLU, le député californien Phil Ting, auteur d’un projet de loi* visant à limiter l’utilisation de la technologie de reconnaissance faciale dans l’État, figurait – l’histoire sait se montrer facétieuse – parmi plusieurs législateurs faussement identifiés comme des « criminels ». Il avait alors déclaré que ce test impliquant les visages du législateur avait été effectué pour démontrer que cette solution technologique n’était pas prête pour être déployée :

« Bien que nous puissions en rire en tant que législateurs, il n’y a pas de quoi rire si vous êtes quelqu’un à la recherche d’un emploi, qui essaye d’obtenir un logement. Si vous êtes faussement accusé, que se passe-t-il ? Cela affecte votre capacité à obtenir un emploi, pour trouver un logement. Il y a des personnes que cela peut impacter « , avait-il ajouté.

Si le débat refait surface, après le calvaire de Georges Floyd, il est à noter que depuis le 8 octobre 2019, la Californie a adopté « la loi « AB 1215 » interdisant l’utilisation de la reconnaissance faciale dans les caméras corporelles portées par les policiers ». Pour l’ACLU, et concernant ces caméras intelligentes qui seraient mises à la disposition des forces de l’ordre, le mot d’ordre demeure et il se résume en une phrase  : « One false match is one too many », ce qui pourrait se traduire littéralement par : « Une mauvaise identification, c’est une de trop »

Le combat entre marchés porteurs, l’éthique et la responsabilité sociale des entreprises est engagé !

Le marché de la reconnaissance faciale au service de la surveillance de masse, et du biopouvoir, est très prometteur. Il était estimé à 4,55 milliards d’euros dans le monde en 2019, et – si personne ne s’y oppose à l’instar d’IBM ou d’autres à venir -, il devrait dépasser les 9 milliards d’euros en 2025, selon une étude menée par le cabinet d’analyse Mordor Intelligence.

Le recul d’Amazon (pour une durée déterminée d’une année) et le positionnement de Microsoft se réfugiant derrière une législation claire avant toute démarche de commercialisation vers les Etats se fait dans un contexte très particulier, et sous haute tension de l’opinion publique mondiale.

Nul ne peut prédire ce qu’il adviendra demain des postures adoptées aujourd’hui par les géants concernés, une fois l’émotion mondiale passée. Ce qui est certain à contrario, si l’on se place sur le terrain de responsabilité sociale de l’entreprise, c’est que l’une d’entre elles, confrontée aux mêmes événements tragiques, ne temporise pas, ne manie pas la langue de bois, ne se positionne pas à l’affût d’un marché douteux, mais a clairement et définitivement choisi son camp entre bénéfices escomptés du marché de la surveillance de masse, d’atteintes aux libertés publiques et de l’éthique !

Dans une lettre adressée au congrès américain, le mot du nouveau CEO de la société, Arvind Krishna ne laisse aucune place à l’ambiguïté sur la position d’IBM et son retrait du marché de la reconnaissance faciale.

 

<<< À lire également : Amazon Ne Laissera Pas La Police Utiliser Sa Technologie De Reconnaissance Faciale Pendant Un An >>>

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC