Lorsque deux sources d’actualité ont suggéré, vendredi dernier, que Facebook réduisait systématiquement la circulation sur la plateforme de contenus critiques envers l’entreprise, la responsable du fil d’actualité de l’entreprise a répliqué en disant : « Nous ne touchons absolument pas aux informations critiques à notre égard ». Cela reflète la réponse de l’entreprise à toutes sortes d’attaques, que ce soit sur la modération du contenu pour les recherches internes ou ces antécédents en matière de protection de la vie privée et des données des utilisateurs. L’entreprise dit toujours « aie confiance », tout en refusant de donner des détails ou de se faire auditer par un organisme extérieur. Mais il est temps de forcer Facebook à s’ouvrir et à devenir transparente en acceptant de faire évaluer ses algorithmes et procédés. Autrement, nous devrons juste abandonner l’idée de « droits numériques » dans l’univers de Facebook.

Il est primordial de se demander si Facebook oriente systématiquement son fil d’actualités vers certaines informations en prenant bien soin d’en éviter d’autres, si l’on veut pouvoir définir le rôle de la plateforme dans la société, car Facebook influence notre compréhension du monde, mais de quelle manière ?


Le parti pris le plus saisissant de l’entreprise remonte à 2016, lorsque le module d’actualité de la plateforme n’a quasiment pas mentionné d’actualités provenant de certaines parties du globe. En effet, très peu d’informations provenant d’Afrique, du Moyen Orient, d’Asie centrale ou même d’Europe de l’est ont circulé sur le réseau social cette année-là. Était-ce un acte délibéré de la part de Facebook ? Bien sûr que non. Le problème, c’est que personne au sein de l’entreprise n’a pris le temps de voir si les informations étaient biaisées, ou personne ne s’y est intéressé. En tout cas, personne n’a essayé de pallier le manque. Est-ce que le ou la responsable des fils d’actualités en 2016 aurait pu publier un tweet disant que l’entreprise ne boycotte absolument pas les nouvelles d’Afrique ? On ne sait pas, car l’entreprise a gardé secrète la liste de ses 1 000 sources d’informations, en plus d’avoir refusé de publier le moindre détail concernant leurs opérations internes, avant qu’un tollé public ne l’y oblige à contre-cœur.

La stratégie d’évitement systématique de Facebook en matière d’actualités africaines ne fait que nous rappeler le peu de transparence dont nous disposons sur le fonctionnement de l’entreprise, ainsi que la confiance aveugle dont nous faisons preuve. Personne chez Facebook n’a pris le temps de regarder la liste des 1 000 sources d’informations pour se rendre compte qu’un continent presque entier n’y figurait pas ? Ou au contraire, le réseau social était-il entièrement conscient de cette absence, mais ne pensait pas que c’était réellement important ? On ne sait pas.

Il est fort probable qu’une entreprise qui se repose entièrement sur les algorithmes et les données ne se soit tout simplement pas rendu compte que toute une partie du globe était ignorée par les algorithmes.

Aujourd’hui, lorsque Facebook dit que son fil d’actualités n’évite absolument pas les informations négatives la concernant, comment l’entreprise peut-elle en être sûre ? Si des modérateurs humains sont impliqués dans le processus de sélection d’informations, de quelque manière que ce soit, il est alors extrêmement difficile de débarrasser entièrement le flux d’actualités de tous biais. L’entreprise a refusé à plusieurs reprises de rendre publiques toutes les informations concernant ses modérateurs et la fiabilité de leurs décisions. Si des algorithmes de machine learning sont utilisés, comment l’entreprise peut-elle être aussi sûre que la sélection n’est absolument pas biaisée, étant donné le fonctionnement mystérieux de la plupart des méthodes de machine learning ? Le fait que l’entreprise ait refusé de communiquer même les indicateurs basiques de faux positifs ou de faux négatifs de ses algorithmes de machine learning  montre que Facebook ne fait pas forcément entièrement confiance à son propre algorithme.

En effet, lorsque nous avons demandé à l’entreprise si elle allait autoriser un audit externe de son flux d’informations et de ses algorithmes afin de prouver qu’elle n’évitait pas les articles pouvant lui nuire, le porte-parole de Facebook n’a fait que répéter le communiqué selon lequel la sélection d’articles n’est pas biaisée, mais il n’a pas souhaité dire si l’entreprise accepterait un audit de la part d’un organisme indépendant. Facebook affirmait ne pas être au courant de ce biais, or si l’entreprise avait accepté une évaluation externe pour mettre en évidence tous potentiels défauts du processus de sélection, ses deux milliards d’utilisateurs pourraient alors être sûrs que Facebook ne tente pas de les manipuler d’une façon qui lui est particulièrement favorable.

Les méthodes de machine learning sont assez perturbantes, car l’entreprise continue de refuser de communiquer toutes informations concernant le fonctionnement et la cohérence de ses modèles, alors qu’ils jouent un rôle majeur dans l’expérience de ses nombreux utilisateurs. Dernièrement, lors de débats concernant les efforts d’entraînement des modèles de machine learning à la détection de fake news, l’entreprise a répondu qu’elle utilisait de nombreux indicateurs (bien qu’elle n’ait pas souhaité en donner la liste exhaustive) afin d’entraîner les modèles informatisés à scanner de manière autonome ce qui est posté et débattu sur Facebook et à identifier les actualités définies comme fausses par les algorithmes, et tout cela sans intervention humaine. Ces actualités sont ensuite envoyées vers des organismes de vérification externes. Lorsque nous avons demandé à Facebook s’il a, à un moment, été question que tous le processus soit réalisé sans intervention humaine, la société n’a pas souhaité répondre. Elle n’a également pas souhaité donner d’exemples d’actualités que l’algorithme a définies comme étant fausses. Il n’est pas impossible que de tels algorithmes aient appris par inadvertance que les actualités critiques envers Facebook sont fausses, et nous ne pouvons rien faire de plus que de croire l’entreprise quand elle nous dit de lui faire confiance.

L’adoption croissante de la modération automatique et le manque de transparence concernant le fonctionnement de l’entreprise sont particulièrement troublants, surtout si l’on prend en compte les rumeurs (niées par l’entreprise) selon lesquelles Mark Zuckerberg pourrait entrer dans la vie politique en se présentant aux élections présidentielles. Imaginez une campagne électorale durant laquelle toutes les actualités critiques envers Mark Zuckerberg seraient automatiquement étiquetées comme étant fausses, en plus de l’impossibilité de les publier ou de les partager sur la plateforme ?

De la même manière, BuzzFeed dévoilait, jeudi dernier, un mémo datant de 2016, dans lequel un dirigeant de Facebook présentait une prévision de croissance de l’entreprise à tout prix. « Le harcèlement peut coûter une vie, tout comme quelqu’un pourra peut-être mourir suite à une attaque terroriste orchestrée avec notre outil », comme s’il s’agissait du prix à payer pour pouvoir connecter les gens entre eux dans le monde entier. L’entreprise a répondu en confirmant l’authenticité du mémo, mais en précisant tout de même que Mark Zuckerberg n’était pas d’accord avec ces propos. Cependant, lorsqu’il a été demandé à Facebook de fournir des preuves du désaccord de son PDG, l’entreprise n’a jamais donné suite.

Il semble que pour un mémo ayant autant circulé au sein de l’entreprise et qui est aussi controversé, le fondateur aurait pu prendre le temps de publier une réponse formelle affirmant sa position et son désaccord, en présentant sa propre vision de la place et du rôle de Facebook dans le monde. Une fois de plus, nous devons faire confiance à l’entreprise lorsqu’elle nous dit que Mark Zuckerberg n’était pas d’accord avec ce mémo.

Dans toutes les interviews, les tempêtes de tweets ou les fuites, on peut dénicher quelques nouveaux détails sur le fonctionnement interne de l’entreprise, notamment des consignes de modération qui ont été révélées par The Guardian, ou les recherches internes de Facebook sur les enfants dépressifs publiées par The Australian. La transparence de Facebook se fait par bribes, sous forme de fuites ou de réponses minimalistes à la suite de tollés publics. L’entreprise surveille ce que presque un quart de la population de la planète voit et dit sur sa plateforme, mais elle a survécu à presque quinze années de scandales concernant la vie privée et la protection des données sans avoir à dévoiler à ses utilisateurs ne serait-ce que le moindre aperçu de la manipulation dont ils sont victimes.

Mark Zuckerberg compare son entreprise et ses 2 milliards d’utilisateurs à un gouvernement. Mais il doit bien savoir qu’un gouvernement qui dirige ses citoyens avec une autorité absolue, sans voix et pas d’informations, c’est ce que l’on appelle communément une dictature, et ce genre de régime est très instable. En effet, la constante évolution des règles de modération de Facebook signifie que ses citoyens ne savent même pas quels discours ils peuvent tenir. Comme dans les vieux royaumes, il est possible de bannir une personne pour un acte qui était encore légal hier, mais qui ne l’est plus aujourd’hui, et ce, de manière rétroactive.

Tout compte fait, la vision utopique de Facebook s’est transformée en dystopie de surveillance dans laquelle même ses créateurs ne sont pas certains de savoir pourquoi ou comment la plateforme prend ses décisions. Les écrans de 1984 de George Orwell ne surveillaient que des citoyens au hasard, alors que les algorithmes de Facebook nous suivent à tous moments, en choisissant silencieusement ce que nous pouvons voir ou dire, sans pour autant pouvoir comprendre les règles du jeu, alors que même ses créateurs ne sont pas conscients de la multitude de décisions prises par leur programme. Il est peut-être temps de dire non aux entreprises dont la seule et unique réponse est : « Aie confiance ».