Les Facebook Papers ont permis de mettre en lumière la manière dont l’entreprise, anciennement connue sous le nom de Facebook, traite la modération du contenu et toute une série d’autres problématiques. Cependant, ils ont également permis de montrer la réalité derrière les activités publicitaires du réseau social et la manière dont les utilisateurs réagissent aux publicités qu’ils voient. Les milliers de pages de documents internes rassemblés et publiés par la lanceuse d’alerte Frances Haugen fournissent de multiples exemples sur les pratiques de Facebook, rebaptisé depuis Meta, et de ses filiales.


 

Une grande partie de l’attention s’est portée sur des détails explosifs concernant la manière dont Facebook traite la désinformation en ligne et l’impact de son contenu sur la santé mentale, l’image de soi et la politique. Il s’avère que le réseau social est particulièrement toxique pour les femmes politiques. Toutefois, les Facebook Papers offrent également un aperçu fascinant des produits publicitaires de Facebook, de la manière dont ils sont perçus par les utilisateurs et les spécialistes du markéting, ainsi que des démarches entreprises par les employés du réseau social pour répondre à toute une série de préoccupations.

Un document datant de février 2016 soulève plusieurs questions sur l’impact des émoticônes de réaction sur Facebook. Une note rédigée par un employé de Facebook détaille les commentaires laissés par un client publicitaire du réseau social, Joyable. Société de services évoluant dans le secteur de la santé mentale, Joyable demandait que l’émoticône « en colère » soit retirée de ses publicités. Le document révèle également que la société dépensait 2500 dollars par jour en publicités Facebook et près d’un million de dollars par an. Pourtant sur les 75 réactions présentes sous l’annonce de Joyable, seulement cinq étaient des émoticônes en colère. Le client s’est plaint à l’employé de Facebook, expliquant qu’il était « mauvais pour notre marque que des utilisateurs critiquent publiquement nos publicités sur Facebook » et que cela était également mauvais pour leur retour sur investissement.

« C’est un problème particulier pour nous, car la santé mentale est un sujet clivant », selon le commentaire laissé par le représentant de Joyable à l’employé de Facebook. « Pour nous, faire de la publicité sur Facebook à l’encontre de notre nature à cause de commentaires comme “l’anxiété sociale n’est pas réelle”, “sortez votre tête de votre téléphone” ou encore “buvez simplement de l’alcool”. Cela ne fait qu’aggraver la situation. »

Les Facebook Papers rassemblent divers documents fournis par Frances Haugen à la Securities and Exchange Commission des États-Unis ainsi qu’au Congrès américain sous une forme expurgée par l’équipe juridique de la lanceuse d’alerte. Les versions caviardées reçues par le Congrès ont également été transmises à des organismes de presse le mois dernier.

 

Facebook Papers
La lanceuse d’alerte Frances Haugen s’exprime sur la scène principale du Sommet mondial sur le web de Lisbonne le 1er novembre 2021. | Source : Getty Images

 

Lors d’une intervention devant le Parlement britannique au mois d’octobre, Frances Haugen a déclaré que la diffusion de publicités « haineuses, colériques ou semant la discorde » était moins chère que d’autres types de publicités. Elle a ajouté que le prix des publicités sur Facebook était fixé en partie en fonction de la probabilité que les utilisateurs interagissent avec ces annonces.

 


« Nous avons vu à maintes reprises dans les recherches de Facebook qu’il est plus facile d’attiser la colère des utilisateurs plutôt que de les inciter à faire preuve d’empathie ou de compassion, et nous subventionnons donc littéralement la haine sur ces plateformes. »

Frances Haugen, lanceuse d’alerte à l’origine des Facebook Papers, lors d’une intervention devant le Parlement britannique.


 

« En substance, il est moins cher de diffuser une publicité haineuse, colérique ou qui sème la discorde que de diffuser une publicité compatissante ou empathique », a déclaré Frances Haugen. « Et je pense qu’il est nécessaire […] de faire preuve d’une totale transparence sur le flux de publicités et de comprendre quels sont les enjeux et comment les publicités sont ciblées. »

Les Facebook Papers ont déjà incité au moins quelques marques à retirer leurs publicités du réseau social. Début novembre, le producteur d’œufs et de beurre Vital Farms a annoncé son intention de mettre en pause toutes ses publicités payantes sur Facebook et Instagram « jusqu’à ce que nous ayons la certitude que le contenu de ces plateformes est géré de manière responsable et ne pose pas intentionnellement de problème. […] C’est notre petite contribution pour faire avancer ce grand débat. »

Fin novembre, Lush a franchi une étape supplémentaire en supprimant tous ses comptes sur les réseaux sociaux, pas seulement ceux appartenant à Meta, mais également sur Snapchat et TikTok. Le géant britannique des cosmétiques a expliqué qu’il « ne demanderait pas à [ses] clients de [les] rejoindre au bout d’une ruelle sombre et dangereuse » et a appelé les législateurs à adopter des mesures pour protéger les clients contre « le préjudice et la manipulation qu’ils peuvent subir en essayant de se connecter avec [Lush] sur les réseaux sociaux. »

« J’ai passé toute ma vie à éviter de mettre des ingrédients nocifs dans mes produits », a déclaré Mark Constantine, cofondateur et PDG de Lush, dans un communiqué. « Il y a désormais des preuves accablantes que nous sommes mis en danger lorsque nous utilisons les réseaux sociaux. Je ne suis pas prêt à exposer mes clients à ce danger, il est donc temps de retirer les réseaux sociaux de l’équation. »

 

  • Comment les préférences en matière de publicité politique influencent la vision de Facebook

L’une des principales révélations des Facebook Papers sur l’activité publicitaire de Facebook a peut-être été la manière dont le réseau social traite la politique. Avant même l’élection de novembre 2020 aux États-Unis, les publicités politiques étaient perçues comme peu attrayantes. Des documents internes datant de mars 2020 révèlent que les utilisateurs inondés de publicités sont moins satisfaits de leur expérience sur la plateforme, et tout aussi susceptible de les fermer que de fermer des publicités non politiques. En comparant les réactions négatives des utilisateurs aux publicités politiques et aux publicités non politiques, les chercheurs de Facebook ont constaté que les utilisateurs fermaient autant de « publicités sexuellement suggestives » ou « frauduleuses » que de publicités politiques.

Selon le rapport intitulé « How do political ads impact user sentiment towards FB ads? » (Comment les publicités politiques influencent-elles le sentiment des utilisateurs à l’égard des publicités FB ?, NDLR), au cours des deux premiers mois de 2020, les publicités politiques représentaient plus de 8 % de ce qu’un dixième des utilisateurs voyaient apparaître sur leur fil d’actualité. Le rapport révèle également que lorsque les publicités politiques représentaient plus de 10 % du fil d’actualité des utilisateurs, ces derniers se déclaraient davantage « plutôt ou très insatisfaits ». En réalité, les utilisateurs plus exposés aux publicités politiques sont « significativement plus susceptibles d’être insatisfaits de leur expérience publicitaire sur Facebook. »

Par ailleurs, les résultats de ce rapport permettent de comprendre pourquoi les utilisateurs sont autant gênés par les publicités. Par exemple, certains utilisateurs ont eu des réactions négatives à des publicités qu’ils ont perçues comme « trompeuses, offensantes ou contenant de fausses informations. » D’autres ont admis ne pas apprécier les publicités qui, selon eux, portaient sur un « sujet sensible » ou ne correspondaient pas à leur propre affiliation politique. Toutefois, les chercheurs de Facebook ont affirmé que la non-concordance d’affiliation politique n’expliquait pas entièrement la plupart des publicités fermées par les utilisateurs.

 


Une enquête réalisée par Facebook auprès de 3,6 millions d’utilisateurs au début de l’année a révélé que 30 % des jeunes adultes aux États-Unis déclaraient « voir trop de publicités. »


 

Enfin, le rapport de Facebook révèle également qu’il est peu probable que les utilisateurs tombent sur des publicités provenant de points de vue opposés. En fait, les utilisateurs conservateurs ont vu moins de 2 % de publicités provenant d’audiences principalement libérales. Quant aux utilisateurs libéraux, ils n’ont vu « presque aucune publicité » sur les pages d’audience principalement conservatrices (seulement 5 %). Les chercheurs ont suggéré à Facebook d’indiquer plus clairement aux utilisateurs comment modifier leurs préférences publicitaires, tout en limitant le nombre total de publicités politiques.

Dans un autre rapport intitulé « Effects of Turning Off Political Ads » (Supprimer les publicités politiques, quels effets ?, NDLR), daté du 25 août 2020, il est indiqué que les utilisateurs ont vu « légèrement moins de contenus civiques » après la suppression des publicités politiques pendant deux semaines. Cependant, les chercheurs ont constaté que le nombre de clics sur le contenu civique est resté à peu près identique, même si les utilisateurs ont vu plus de contenus provenant de Groupes au lieu de Pages.

Les Facebook Papers mettent également en lumière les difficultés rencontrées par le réseau social en matière de transparence des publicités politiques. Dans une note du 9 novembre 2018, un employé de Facebook explique qu’il n’y a « rien à faire » lorsqu’il s’agit de certains aspects de l’étiquetage correct des annonceurs ou de la prévention des acteurs manipulateurs. Par exemple, le réseau social a découvert qu’une page Facebook associée à un groupe de pages de droite avait acheté des publicités semblant soutenir des causes libérales sans être étiquetées comme étant achetées par des annonceurs ayant des liens avec le conservatisme. Cette tactique, connue sous le nom d’astroturfing, est responsable de la diminution du taux de vote selon Facebook.

Ces dernières années, Meta a pris des mesures supplémentaires pour améliorer la transparence des publicités politiques et pour les authentifier avec plus de précision. En 2019, le groupe a commencé à exiger des annonceurs politiques qu’ils fournissent davantage d’informations sur leurs organisations avant que les publicités puissent être diffusées. En 2020, Meta a commencé à empêcher la diffusion de nouvelles publicités sur les questions sociales, les élections et la politique aux États-Unis entre le 27 octobre et le 3 novembre.

« Depuis 2018, nous avons renforcé nos politiques sur l’ingérence électorale et la transparence des publicités politiques », a déclaré un porte-parole de Meta dans un communiqué adressé par courriel à Forbes. « Nous continuons à travailler pour rendre les publicités politiques plus transparentes sur notre plateforme et nous accueillons favorablement les nouvelles réglementations élaborées avec l’aide des décideurs politiques à mesure que nous œuvrons pour faire évoluer nos politiques dans cet espace. »

D’autres documents internes divulgués par les Facebook Papers mettent en lumière les efforts du réseau social pour lutter contre la désinformation de QAnon durant la pandémie. Par exemple, un document datant de mars 2021 utilise l’analogie d’une pierre jetée dans un étang pour décrire la manière dont la désinformation se propage, la pierre représentant « le mauvais contenu entrant dans notre système » et les ondes la réaction du réseau social. Bien que Facebook ait tenté d’« empêcher le plus grand nombre possible de pierres d’être jetées », d’« étouffer les ricochets », et de « remplir le vide avec du bon contenu et des conversations », le document explique qu’il reste encore beaucoup à faire pour réduire la désinformation dans les cadres publicitaires, les pauses pub et les articles instantanés. En outre, Facebook a envisagé d’utiliser le contenu sur la réticence à la vaccination comme une étude de cas possible pour élaborer des mesures plus sévères contre les firmes publicitaires étrangères.

 

Facebook Papers
Le PDG de Meta, Mark Zuckerberg, grimé en chaman de QAnon et en d’autres personnes ayant participé à l’insurrection du Capitole des États-Unis. Réalisés par le collectif “SumOfUs”, ces personnages en carton soulignent le rôle joué par Facebook et d’autres réseaux sociaux dans l’insurrection du Capitole. | Source : Getty Images

 

« Le fait est que tout ce qui est proche et cher au cœur des gens, comme leur santé, sera exploité par d’autres à des fins lucratives, et les informations faisant autorité se vendent moins bien que la peur », indique le document.

 

  • Le rôle des lanceurs d’alerte jusqu’à présent

Les Facebook Papers ont également offert aux politiciens du monde entier davantage de matière pour enquêter sur un certain nombre de pratiques de Meta. Alors que Frances Haugen a déjà témoigné devant le Congrès des États-Unis, des membres du Sénat américain s’entretiendront avec Adam Mosseri, le directeur d’Instagram (propriété de Meta), le 6 décembre dans le cadre d’une série d’auditions sur la protection des enfants en ligne. La responsable de la sécurité de Meta, Antigone Davis, a également rencontré les législateurs américains en septembre dernier et a réfuté toutes les allégations selon lesquelles les plateformes du groupe seraient nuisibles aux adolescents. Parallèlement, les membres de la Chambre des représentants et du Sénat des États-Unis examinent une série de textes de loi relatifs à la confidentialité des données et aux pratiques anticoncurrentielles.

Pour la Commission européenne, les Facebook Papers constituent une raison supplémentaire d’aller de l’avant avec une proposition visant à réglementer la publicité politique sur les réseaux sociaux. Début novembre, lors du Sommet mondial du web à Lisbonne, Věra Jourová, vice-présidente de la Commission européenne chargée des valeurs et de la transparence, a indiqué que les législateurs ne seraient pas « en mesure de convaincre la population que la mise en place d’une réglementation est nécessaire » si des lanceurs d’alerte comme Frances Haugen et d’autres n’avaient pas révélé les processus internes de Facebook.

 


« Si nous voulons nous assurer que les consommateurs sont libres de choisir, nous devons être sûrs que les informations qu’ils voient en ligne ne sont pas alimentées par un fonctionnement obscur de plateformes, de systèmes algorithmiques et d’une armée de robots non identifiés. »

Věra Jourová, vice-président de la Commission européenne chargée des valeurs et de la transparence.


 

Dans les semaines qui ont suivi la publication des Facebook Papers, Meta a apporté un certain nombre de changements, notamment à ses activités publicitaires et à ses politiques en matière de confidentialité des données. Le 2 novembre, la société a annoncé qu’elle arrêtait l’utilisation de son logiciel de reconnaissance faciale qui avait fait l’objet de critiques par les défenseurs ses consommateurs. Une semaine plus tard, Meta a annoncé empêcher les annonceurs d’acheter des publicités basées sur des données relatives à l’ethnie, à l’affiliation politique, à l’orientation sexuelle, à la religion et à la santé des utilisateurs : des informations jugées trop sensibles pour être utilisées dans des messages ciblés.

Alors qu’il s’exprimait sur la scène du Sommet mondial du web, Christopher Wylie, ancien employé de Cambridge Analytica, s’est présenté en tant que lanceur d’alerte et a déclaré que les Facebook Papers ainsi que les débats qu’ils soulèvent ont pour lui une impression de déjà-vu.

« Vraiment du déjà vu pour moi avec les audiences devant le Sénat, et tout le reste », a déclaré Christopher Wylie. « Nous ne faisons que parler de la même chose, encore et encore et encore. Nous sommes en quelque sorte coincés dans cette boucle, et je pense que l’un des problèmes est qu’il est clair qu’il y a beaucoup de problèmes, et ceux-ci font constamment l’objet de débats, mais nous manquons un débat essentiel qui est celui autour des solutions et des cadres de régulation. »

 

  • Les problèmes de sécurité de la marque ne sont pas nouveaux également

Les employés de Facebook ont également exprimé leur inquiétude quant au fait que l’entreprise permette à des sites internet d’extrême droite de faire partie de son réseau plus large d’éditeurs. Dans une note datée du 4 juin 2020, un employé du groupe a écrit : « Dois-je expliquer celle-ci ? », avec en pièce jointe de nombreux titres d’articles de Breitbart News en lien avec les manifestions Black Lives Matter. Une autre note d’octobre 2018 rédigée par un employé travaillant sur Facebook Audience Network, indiquait : « Nous devons parler de Breitbart (encore) ». L’employé argumentait que si Facebook prétendait être politiquement neutre et que Breitbart ne semblait pas encore avoir violé les politiques du réseau social, le fait de permettre à ce site de prospérer par le biais de Facebook était « un acte politique. »

L’employé de Facebook, dont le nom a été dissimulé, a déclaré que 11 000 annonceurs avaient ajouté Breitbart à leur liste de sites internet sur lesquels ils souhaitaient éviter de faire de la publicité, ajoutant que le site était inscrit sur 30 000 listes de blocage, et que presque tous les annonceurs disposant d’une telle liste y avaient inclus Breitbart. Facebook a finalement retiré le site de son réseau d’audience l’année dernière.

« Lorsque l’on parle de la sécurité de la marque, qui est un sujet important pour la plupart de nos annonceurs et la deuxième raison la plus probable de désaffection des annonceurs, on entend également parler de Breitbart », a écrit l’employé de Facebook. « Quand ils parlent des éditeurs qu’ils veulent bloquer, c’est souvent eux… L’on ne parle pas d’informations de droite qui devraient être autorisées autant que les informations de gauche, mais de vitriol. Cela nous fait perdre des annonceurs, de la confiance, de l’argent et de l’intégrité morale tous les jours. Nous devons revoir notre position et agir. »

Interrogé sur la décision de retirer Breitbart de Facebook Audience Network, un porte-parole de Meta a déclaré à Forbesque le groupe s’en remettait à des vérificateurs de faits tiers, qui évaluent des éléments de contenu spécifiques et gèrent des systèmes internes pour les récidivistes. Ces systèmes peuvent prévoir des pénalités lorsque le contenu d’une page reçoit plusieurs fausses informations et l’empêcher de recevoir des fonds ou de la publicité.

« Nous apportons des changements pour réduire le contenu problématique ou de faible qualité afin d’améliorer l’expérience des utilisateurs sur la plateforme, et non en raison du point de vue politique d’une page », a déclaré le porte-parole de Meta. « Lorsqu’il s’agit de changements qui auront un impact sur les Pages publiques comme les éditeurs, nous analysons bien sûr l’effet du changement proposé avant de le faire. »

D’autres documents montrent comment Facebook a demandé à ses équipes de vente mondiale de formuler une réponse après l’attaque du 6 janvier contre le Capitole américain. Dans un document interne qualifié de haute priorité, l’entreprise encourage les employés à « répondre de manière réactive » aux questions des clients, proposant même un script. En réponse à une question visant à savoir si les annonceurs devaient interrompre leurs dépenses, le document explique comment Facebook examinait et supprimait les contenus enfreignant ses règles relatives à l’incitation à la violence. Une autre réponse tente d’expliquer pourquoi l’entreprise a retiré une vidéo publiée par l’ancien président américain, Donal Trump, suggérant que les publications de l’ancien dirigeant contribuaient « au risque de violence en cours, plutôt que de le diminuer. »

Le 7 janvier 2021, une mise à jour a permis de répondre aux questions concernant la décision de Facebook de bloquer les publications de Donald Trump, et notamment de comprendre pourquoi l’entreprise avait décidé que le moment était venu d’agir. Le 15 janvier, Facebook a mis à jour son message pour y inclure des réponses à la question de savoir si le groupe avait vu venir la violence et, dans l’affirmative, pourquoi il n’avait pas agi. La script indiquait qu’avant l’attaque, Facebook avait supprimé plus de 600 mouvements sociaux militarisés de sa plateforme, ainsi que le groupe « Stop The Steal » et d’autres groupes haineux.

 

  • « Des problèmes liés à la demande »

Selon Andrew Bosworth, directeur de la technologie de Meta, les problèmes de modération des discours haineux rencontrés par la plateforme relèvent d’une question d’offre et de demande. Il a déclaré que plus Facebook investissait dans les moyens d’améliorer ses contrôles de qualité de contenu, « plus les gens travaillaient dur pour contourner ces outils. »

 


« En tant que société, nous n’avons pas un problème d’offre de discours haineux, nous avons un problème de demande de discours haineux. »

Andrew Bosworth, directeur de la technologie de Meta.


 

« Les plateformes en ligne travaillent du côté de l’offre, car elles ne contrôlent pas le côté de la demande, et elles continueront à y investir des sommes énormes pour assurer la sécurité des utilisateurs », écrit-il. « C’est une composante clé de notre responsabilité en tant que plateforme, et je pense que nous le faisons mieux que n’importe lequel de nos concurrents. Mais jusqu’à ce que nous fassions plus de progrès sociaux en tant que société, nous devrions tempérer nos attentes en matière de résultats. »

 

  • Une ville Meta « médiévale »

L’une des métaphores les plus intéressantes pour Facebook et les Facebook Papers provient peut-être d’une note datant d’octobre 2018 et intitulé « Une note sur les fléaux ». L’auteur de cette note écrit que Facebook est « actuellement une ville médiévale », et si une telle ville peut avoir des marchés, des galeries d’art, des universités et des inventions, il y a aussi des pestes.

« Avant même que vous ne réalisiez ce qui se passe, elle balaie la ville comme un incendie. Sa virulence est redoutable. Vous n’avez jamais rien vu de tel. Vous essayez de la contenir, mais rien de ce que vous pouvez faire ne semble avoir d’effet. La peste finit par se terminer. Mais la ville a perdu beaucoup d’habitants. Ceux qui ont survécu sont effrayés », écrit l’auteur de la note.

L’employé indique également que certaines personnes dans cette ville médiévale pourraient affirmer que cette peste est « la conséquence d’une simple erreur », une erreur qui peut être corrigée pour empêcher de futures épidémies, tandis que d’autres pourraient suggérer que cela n’est pas leur problème et que la maladie est inévitable :

« Mais cela serait également une erreur. En réalité, c’est en grande partie de notre faute. En créant cette ville, nous avons créé d’immenses possibilités pour les utilisateurs, mais aussi pour les microbes. Nous avons rapproché les utilisateurs comme jamais auparavant. Nous les avons tellement collés les uns aux autres que les déchets produits par les uns infectent les autres. Nous avons augmenté le nombre de contacts que chacun possède. Ce faisant, nous avons brisé certains seuils qui empêchaient les épidémies locales de se transformer en pandémie. Cela relève de notre responsabilité. Certains diront que c’est ainsi que le monde fonctionne, que ceux qui veulent vivre dans une ville et en profiter doivent aussi accepter le risque de tomber malade. Mais ce serait une erreur. Le problème doit être résolu. »

Par ailleurs, l’employé de Facebook précise que les villes ont construit des égouts pour les déchets, des filtres pour l’eau potable, des insecticides pour les puces ainsi que des antibiotiques et des vaccins pour les maladies. Par le passé, l’on a donc su atténuer des problèmes majeurs.

« Les utilisateurs viennent [sur Facebook] et en retirent de la valeur, mais ils sont confrontés à de nouveaux dangers auxquels ils ne sont pas habitués », écrit l’employé de Facebook dans sa note. « C’est quelque chose qui n’a jamais existé dans l’histoire du monde, il est donc tout à fait raisonnable que nous n’en comprenions pas encore les conséquences. Mais cela ne signifie pas que nous devrions les accepter. Nous avons une occasion unique de les étudier et de trouver des solutions. »

Désormais, il reste à déterminer si Meta réussira à sortir de l’ère « médiévale » de Facebook et à entrer dans une période de renaissance. Toutefois, lors de la conférence téléphonique sur les résultats du troisième trimestre du groupe en octobre dernier, Mark Zuckerberg, cofondateur de Facebook et PDG de Meta, a rejeté en bloc tout le contenu des Facebook Papers. Selon lui, ces documents sont un moyen de « présenter une fausse image de notre société ». Cependant, le PDG de Meta précise que « les critiques de bonne foi nous aident à nous améliorer. »

« Je pense également que tout compte rendu honnête devrait être clair sur le fait que ces questions ne concernent pas principalement les réseaux sociaux », a déclaré Mark Zuckerberg. « Cela signifie que peu importe les démarches entreprises par Facebook, nous ne résoudrons jamais ces questions par nos propres moyens. Par exemple, le clivage de la société a commencé à augmenter aux États-Unis bien avant ma naissance. […] La réalité est que si les réseaux sociaux ne sont pas le principal moteur de problèmes, ils n’ont pas vocation à les résoudre par leurs propres moyens également. »

 

Article traduit de Forbes US – Auteur : Marty Swant

<<< À lire également : Commission européenne : les dernières révélations des lanceurs d’alerte soulignent la nécessité de réglementer la publicité politique en ligne >>>