logo_blanc
Rechercher

Comment Facebook Nous A Habilement Transformés En Rats De Laboratoire

Dans un sinistre écho à l’étude Facebook réalisée en 2014 et massivement critiquée pour avoir manipulé les émotions des utilisateurs, ayant également fait l’objet d’un rare éditorial de la part de PNAS (Proceedings of the National Academy of Sciences), revue scientifique américaine, hier, The Australian, journal australien, a révélé l’histoire selon laquelle la division australienne de Facebook a mené des recherches secrètes sur les comportements émotionnels de plus de 6,4 millions de jeunes Australiens, incluant 1,9 million de lycéens âgés de seulement 14 ans, afin d’estimer le moment où ces adolescents étaient les plus vulnérables en éprouvant des sentiments « d’inutilité » ou ‘d’échec », dans le cadre de recherches menées à des fins marketing.

Trois ans après le tollé général déclenché par les traitements infligés par Facebook à ses utilisateurs, en les considérant comme des rats de laboratoire sublimés sur lesquels faire toutes sortes d’expérimentations selon leur bon vouloir, et après des confirmations que l’entreprise procédait à des changements dans sa façon d’aborder ses recherches sur des informations sensibles, Facebook semble s’y remettre de plus belle, mais cette fois en étendant sa cible aux populations les plus vulnérables, en explorant les données liées aux activités de 1,9 million de lycéens, avec un âge moyen de 16 ans et allant jusqu’à ceux âgés de 14 ans, ajoutant à cela 1,5 million d’étudiants post-baccalauréat âgés d’environ 21 ans et 3 millions de « jeunes [professionnels] … sur le marché du travail », comme l’a rapporté The Australian.

Facebook a répondu à l’article en avançant que toutes les données utilisées dans la recherche « étaient rassemblées et présentées en accord avec la loi en vigueur en matière de vie privée et de protections légales, incluant le retrait de toute information pouvant permettre l’identification de la personne. » Cependant, malgré ces affirmations garantissant que les données avaient été complètement dépourvues de tout caractère d’identité, et rassemblées dans une résolution protégeant la vie privée de l’utilisateur, Facebook a mentionné dans son dossier confidentiel de recherche que les informations ne feraient « pas l’objet d’une mise à disposition du public » et surtout qu’elles ne seraient « partagées sous la signature d’une close de confidentialité uniquement. » Quand j’ai demandé à Facebook pourquoi, si les informations collectées n’étaient basées que sur des informations ne permettant pas l’identification des utilisateurs et regroupées, ne présentant aucun risque d’atteinte à la vie privée ni aucun autre risque que ce soit, les informations collectées étaient tout de même considérées sensibles au point qu’il faille signer un accord de confidentialité pour y avoir accès, l’entreprise a refusé de s’exprimer, renvoyant à sa déclaration publique et disant que son court post constituait « sa réponse officielle à ce problème ».

Comme je l’écrivais en juin dernier, l’ère de la collecte d’informations a apporté avec elle un profond changement dans l’éthique de la recherche. Elle est finie l’époque où les commissions de révision des universités convoquaient des experts informés afin d’évaluer avec attention les demandes de recherches en privilégiant la récompense intellectuelle au détriment de l’éventuel traumatisme infligé aux participants. Aujourd’hui les demandes de recherches qui impliquent d’importants rassemblements de données en matière de sciences sociales, particulièrement des collectes de données provenant des réseaux sociaux, sont fréquemment exemptées de soumission aux commissions de révision. Cela se produit si souvent que des disciplines entières telles que les sciences de l’informatique ont historiquement eu très peu de contacts avec ces commissions et les principales revues de leurs domaines ne requièrent pas, explicitement, l’aval des commissions de révisions, ni même ne les demandent, pour éviter de multiplier des restrictions de recherches jugées « injustifiées » ou « injustes » en exigeant des examens de l’éthique des collectes d’informations par les réseaux sociaux.

A l’époque de l’étude de Facebook de 2014, j’ai remarqué que la publicité négative autour de l’étude n’avait vraisemblablement pas d’influence sur la politique de l’entreprise sur de telles études. Au contraire, je constatais qu’elles survenaient simplement dans le secret et devenaient potentiellement encore plus intrusives, tandis que l’attention a fini par porter exclusivement sur les buts commerciaux atteignables en monnayant les utilisateurs, sans les contraintes restricitves de la question de savoir comment la recherche et son financement peut être reçue par le public et de la recherche en général.

En effet, malgré le tollé soulevé par l’étude menée par Facebook, les préoccupations toujours plus importantes de la revue scientifique PNAS au sujet de l’éthique de cette collecte d’informations, le même éditeur m’a dit l’année dernière que la revue n’exclurait pas cette même étude de sa publication si elle était soumise aujourd’hui, alors que l’institution académique impliquée dans l’étude n’a procédé à aucun changement qui aurait empêché la collecte d’informations d’être réalisée aujourd’hui. Tout en proclamant que cette étude avait grandement renforcé son processus de contrôle éthique dans les résultats de la recherche, Facebook a catégoriquement refusé de fournir de véritables éclaircissements sur ce dont il s’agit vraiment, et refusé de rendre publique les protocoles, la documentation et les grandes lignes sur sa façon de procéder aux recherches.

Dans ses déclarations à The Australien hier, Facebook a difficilement pris acte de sa campagne de récolte d’informations et souligné que l’étude de The Australian n’avait pas été soumise a révision, suggérant que cela avait débouché sur une enquête non autorisée qui n’avait pas reçu l’aval de l’entreprise. Cependant, au lieu de platement s’excuser et condamner les actes de ses employés, Facebook a seulement déclaré qu’elle « entreprendrait des démarches disciplinaires et autres comme il se doit, » mais s’est officiellement exprimée face aux médias d’une manière qui s’est éloignée de ces propos en référant à l’incident comme une « surveillance » mineure.

En quelques mots, l’entreprise a insisté sur le fait qu’elle dispose d’une forte commission de contrôle d’éthique qui détermine ce qui est considéré comme une enquête admissible et qui doit délivrer une autorisation pour toute recherche d’entreprise d’une nature sensible menée sur les utilisateurs d’un service. Elle a ajouté que, dans ce cas, deux employés ont pris les devant en utilisant leurs accès privilégiés pour rechercher les moments d’émotions chez les enfants qui les montraient dans leur posture la plus vulnérable sans jamais soumettre leur recherche à un contrôle, et que sa réponse à cela était qu’il ne s’agissait pas d’un écart majeur dans le protocole de recherche qui nécessitait une suspension immédiate et un contrôle des collectes d’informations sensibles dans l’entreprise ; selon elle il ne s’agit que d’une surveillance d’ordre mineur de laquelle nul n’a à s’inquiéter.

Ce qui est peut-être le plus surprenant dans cette affaire est le fait que deux employés de Facebook aient pu mener une recherche présentant un caractère si sensible sur une population cible composée de jeunes personnes (considérés comme faisant partie d’une couche de la population protégée, requérant des considérations morales additionnelles significatives), sans que l’entreprise ne soit apparemment jamais au courant de ce travail. Pour certaines entreprises auxquelles je me suis adressé, l’accès à des informations dépourvues de l’identité des utilisateurs est sévèrement contrôlé. Des individus se voient accorder l’accès à des outils d’analyse émis uniquement pour la durée spécifique de leur projet approuvé, et avec une équipe de sécurité qui analyse continuellement les codes d’accès pour assurer que chaque requête soit conforme aux projets déjà approuvés, selon le fait que même les données rassemblées et dépouillées de tout caractère identitaire peuvent, parfois, contenir des notions extrêmement sensibles.

Dans le cas de Facebook, cela soulève la question de savoir comment leur contrôle éthique renforce la légalité des démarches si deux employés peuvent accéder aux outils d’analyse de données internes de l’entreprise, et mener une recherche de cette ampleur sans jamais évoquer leur demande de contrôle. Facebook n’a pas répondu à cette question, et n’a pas non plus dit si l’entreprise était au courant ou non de ce qui se passait alors. Facebook a également refusé de faire savoir si les documents concernant sa récolte d’informations seraient fournis ou non.
De manière plus préoccupante, l’entreprise a aussi refusé de s’exprimer sur sa mise en place ou non d’un inventaire d’accès à ses outils d’analyse à l’échelle de l’entreprise, afin de déterminer s’il existait des projets de recherche similaires ayant été mis en place ou engagés actuellement sans contrôle d’éthique. Un inventaire de la sorte semblerait être une réaction naturelle dans le cas où l’entreprise considèrerait ce manque de contrôle comme un problème d’ordre majeur; son manque d’engagement à mettre en place un tel contrôle reflète a perception que l’entreprise a de tout cela: une simple surveillance de peu d’importance.

Tandis que l’entreprise insiste sur le fait qu’elle n’a pas encore utilisé ces données sensibles à des fins commerciales, en permettant aux entreprise de cibler leurs annonces en les adaptant à l’état émotionnel de l’utilisateur, ce qui comprend la publicité à l’intention de jeunes enfants expérimentant des sentiments qui les vulnérabilisent. Lorsqu’on lui a demandé d’affirmer qu’elle n’utiliserait pas de telles informations dans le futur, l’entreprise a encore refusé de s’exprimer. En effet, sa déclaration publique dénote une attention particulière déployée pour utiliser la formule « ne fournit pas les outils » nécessaires au ciblage émotionnel et non pas « ne fait pas et ne fera jamais » de ciblage émotionnel. Cela seul est digne de la plus grande attention car, bien qu’elle appuie fortement sur l’idée qu’elle n’a jusqu’à ce jour jamais utilisée les émotions des utilisateurs comme un critère de ciblage commercial, l’entreprise ne déclarera pas officiellement qu’elle considère le comportement émotionnel comme une donnée suffisamment sensible, en particulier les émotions des enfants, et ne s’engagera pas non plus à ne jamais vendre de la publicité sur ces indicateurs.

La politique de publicité de l’entreprise elle-même avance que « les publicités à l’adresse des mineurs ne doivent pas promouvoir de produits, de services, ou de contenus qui[…] exploitent ou exercent une pression indue sur l’âge des populations visées. » Lorsque l’on demande à l’entreprise si la recherche en vue de déterminer à quel moment un enfant se trouve dans sa plus haute vulnérabilité émotionnelle et « les moments où les jeunes sont en besoin d’un regain de confiance en eux » pourrait entrer en conflit avec sa politique de publicité puisque cibler de manière explicite une personne ayant au préalable été étiquetée comme étant dans un état particulièrement vulnérable serait en soi placer ces personnes sous une pression indue, l’entreprise a sur ce point également refusé de faire tout commentaire.

En définitive, on constate que les premières réactions violentes à l’encontre de l’étude des émotions de 2014 a eu peu d’impact sur l’élaboration des études à venir sur les émotions intimes de ses utilisateurs. En fait, au cours des trois années qui suivirent l’entreprise est passée à l’étape supérieure en étudiant les formes d’émotions les plus sensibles, sur ses utilisateurs les plus vulnérables. L’unique changement semble demeurer dans le fait qu’elle mène à présent des recherches dans le secret, communiquant les résultats aux partenaires commerciaux sous close de confidentialité, pendant que le public ne se doute de rien.

Ensuite, malgré ses dires affirmant qu’elle a pris en compte les problèmes soulevés par son étude de 2014 en renforçant sa procédure de contrôle d’éthique, il est évident que de telles recherches peuvent se poursuivre, simplement en évitant la demande d’approbation. Il est aussi clair que l’entreprise manque visiblement d’autorisation technique et de mesures permettant d’empêcher les études non autorisées. Enfin, la réaction de l’entreprise fut très détachée lorsqu’elle fut alertée du fait que deux de ses employés avaient mené des enquêtes non autorisées d’un caractère hautement sensible: elle a tout d’abord déclaré que des mesures disciplinaires devraient être prises, pour ensuite désigner cette démarche comme une simple surveillance.

Le refus de l’entreprise de formuler de clairs regrets et de condamner les actions qui lui sont reprochées, de même que son manquement à déclarer publiquement qu’elle mènerait une analyse à l’échelle de l’entreprise pour identifier toutes les récentes et actuelles recherches afin de prouver que les employeurs tentaient d’obtenir les permissions d’éthique nécessaires, ne font rien pour libérer ses deux milliards d’utilisateurs de l’idée que Facebook ne les considère pas autrement que comme des rats de laboratoire digitaux sur lesquels des expérimentations sont faites en fonction de la seule volonté de Facebook. Bienvenue dans la sombre réalité du réseau social et du prix que l’on règle pour un compte Facebook « gratuit ».

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC