Pour répondre aux critiques croissantes concernant ses pratiques en matière de suppression de contenu, Facebook a publié, ce mardi, sa politique interne de modération de contenu pour la première fois. Il s’agit d’un pas considérable vers la transparence concernant la gestion des informations sur le réseau social.

Facebook a révélé s’appuyer sur l’association de plus de 7 500 modérateurs humains, travaillant dans quarante langues différentes tout autour du monde, soit 40 % de relecteurs de plus qu’il y a un an, et d’outils d’intelligence artificielle, afin de retirer de la plateforme tous les contenus indésirables comme les discours haineux, la pornographie, les activités terroristes, la violence graphique, etc. Ce procédé était, jusqu’à maintenant, resté assez mystérieux. Ce document de 27 pages offre aux deux millions d’utilisateurs de la plateforme, la définition de Facebook des menaces violentes, du discours haineux, de l’exploitation sexuelle, parmi tant d’autres genres de contenus indésirables. Le document fournit également des informations contextuelles permettant de justifier la politique de l’entreprise. 


« On nous demande souvent comment on décide quels contenus sont autorisés sur Facebook », déclare Monica Bickert, vice présidente de la gestion de la politique générale de l’entreprise dans un article de blog ce mardi. « Ces décisions sont extrêmement importantes car elles permettent de nous assurer que Facebook est à la fois un lieu sécurisé et où l’on peut librement exprimer son point de vue ».

Monica Bickert explique que Facebook a publié sa politique pour deux raisons : « Tout d’abord, cela permettra aux utilisateurs de comprendre où se trouve la limite sur certains sujets délicats. Ensuite, cela nous permettra de recevoir des conseils, surtout de la part d’experts dans différents domaines, afin de pouvoir améliorer cette politique et nos prises de décision au fur et à mesure ».

En plus d’avoir rendu publique sa politique, Facebook a également annoncé la mise en place d’une nouvelle mise à jour de son processus de relecture. Durant l’année à venir, Facebook souhaite permettre aux utilisateurs de faire appel de la décision de la plateforme si une de leurs publications a été retirée pour avoir enfreint les normes communautaires. Cet appel permettra à une autre personne de l’équipe de Facebook de revoir cette décision, dans les 24 heures. Si Facebook a fait une erreur, alors l’utilisateur sera averti que sa publication est rétablie. Facebook explique vouloir étendre cette pratique surtout pour les contenus signalés qui ne sont pas retirés.

« Vous aurez la possibilité de dire ” Est-ce que vous pouvez vérifier ? ” », a précisé Monica Bickert durant une conférence de presse. « Nous espérons que les nouvelles normes communautaires fourniront aux utilisateurs les outils nécessaires pour faire appel ».

Afin d’inciter les utilisateurs à faire part de leurs retours, Facebook a annoncé vouloir organiser une série de rencontres publiques cette été, les « Facebook Forums : Community Standards ». Elles auront lieu en France, en Allemagne, au Royaume-Uni, en Inde, à Singapoure, aux États-Unis et dans bien d’autres pays. Leur objectif est de recueillir directement les avis des utilisateurs. Facebook a déclaré vouloir mettre à jour sa politique de modération toutes les semaines ou tous les quinze jours. Cela permettra de les adapter au fur et à mesure de leur confrontation avec le public. Facebook gardera une archive de ses différentes politiques afin de pouvoir en suivre l’évolution. Le document publié mardi s’inscrit dans la démarche de l’entreprise débutée à l’été 2015, vers une plus grande transparence des normes communautaires.

Lors de la conférence de presse, Monica Bickert a insisté sur le fait que les dirigeants de l’entreprise souhaitaient partager cette politique interne avec les utilisateurs depuis un certain temps. Ils ont d’ailleurs commencé à élaborer ce document en septembre dernier, pour qu’il soit facilement compréhensible par les utilisateurs. Au passage, Facebook s’est renseigné auprès d’experts internes sur des sujets tels que les discours haineux, la sécurité des enfants et le terrorisme, ainsi que les sur les agences et les organisations externes, pour faciliter la rédaction de sa politique et la transposer en des termes simples.

« Le conversation de l’automne dernier portait sur ” si nous le faisons, nous voulons le faire de manière exhaustive  ” », expliquait la responsable de la politique de contenu de Facebook, Mary DeBree, lors d’une conférence de presse. « Cela reflète ce que l’on donne aux utilisateurs en interne et c’est le maximum que nous pouvons faire en externe ».

Ce document a fait son apparition presque deux semaines après l’audition de Mark Zuckerberg par le Congrès américain concernant les pratiques de Facebook en matière de gestion de données privées. En effet, des révélations publiques démontrent qu’une société d’analyse politique ayant aidé Donald Trump durant sa campagne présidentielle, a illégalement obtenu les données personnelles de 87 millions d’utilisateurs de la plateforme. Monica Bickert a cependant déclaré que la publication de la politique contenu de l’entreprise n’était en aucun cas liée à l’implication de Facebook dans le scandale Cambridge Analytica.

Tout miser sur l’intelligence artificielle

Facebook est accusé de ne pas savoir gérer la présence de publications incitant à la violence, postées par des organisations terroristes ou visant certaines ethnies dans des pays comme la Birmanie ou le Sri Lanka. Le PDG de Facebook, Mark Zuckerberg, a déclaré que l’intelligence artificielle était essentielle pour aider l’entreprise à gérer plus rapidement et de manière plus responsable ses pratiques de modération de contenus à l’avenir.

Actuellement, Facebook affirme traiter des millions de signalements de contenu indésirable par semaines dans des dizaines de langues différentes. L’un des outils les plus utilisés par l’équipe de modération, c’est un logiciel de reconnaissance d’image, qui, selon Monica Bickert, permet d’identifier des images de propagande terroriste ou une utilisation abusive d’images d’enfants.

« Même si nous fonctionnons avec une marge d’erreur de 99,9 %, nous faisons de nombreuses erreurs tous les jours, précise Monica Bickert. Cette dernière remarque également que lorsque l’IA est utilisée pour modérer un contenu, un modérateur en chair et en os passe toujours derrière avant de supprimer la publication. Dans certains cas, l’intelligence artificielle signale et supprime automatiquement certains contenus, comme des liens vers des sites pornographiques ou des spams, sans intervention de l’Homme. L’entreprise espère qu’avec le temps, l’intelligence artificielle pourra agir davantage toute seule.

Facebook affirme qu’en seulement quelques années,  son système d’intelligence artificielle a considérablement progressé. Par exemple, il y a deux ans, le seul outil technique dont bénéficiait Facebook pour lutter contre la propagande terroriste, c’était un logiciel de reconnaissance d’image. À présent, l’intelligence artificielle permet d’éviter la création de près d’un million de faux comptes chaque jour, selon Monica Bickert.

Mark Zuckerberg assure que les effectifs travaillant sur la sûreté et la sécurité de la plateforme compteront plus de 20 000 employés supplémentaires avant la fin de l’année, dont  7 500, rien que pour l’équipe de modérateurs. Monica Bickert affirmait ne pas pouvoir estimer combien d’employés viendront gonfler les rangs des modérateurs de Facebook cette année.

« Nos politiques ne seront efficaces que si nous les appliquons scrupuleusement, mais, dans la pratique, ce n’est pas parfait », précisait Monica Bickert ce mardi. « Parfois, nous faisons des erreurs parce que notre politique n’est pas assez claires aux yeux de nos modérateurs. Mais dans la plupart de cas, les erreurs proviennent des modérateurs eux-mêmes, car l’erreur est humaine ».