Facebook, YouTube et d’autres réseaux sociaux tentent de limiter les dégâts après que l’auteur d’une fusillade de masse a diffusé une vidéo de 17 minutes de l’attentat meurtrier qui a visé deux mosquées de Nouvelle-Zélande. L’auteur a également publié des liens redirigeant vers d’autres crimes de haine sur les réseaux sociaux, ce qui vient appuyer l’idée que ces plateformes favorisent la visibilité des extrémistes.

 

La police de Nouvelle-Zélande a déclaré que l’auteur, un citoyen australien, a tué 49 personnes et blessé 48 autres lorsqu’il a ouvert le feu dans deux mosquées lors d’un office de prières, tout en diffusant l’attaque en direct sur Facebook. La vidéo s’est très vite répandue sur Instagram, YouTube, Twitter et Reddit. Bien que la vidéo originale liée à l’attaque de Christchurch ait été supprimée, les géants de la Silicon Valley restent vigilants et traquent maintenant des segments de la vidéo ainsi que de la propagande qui ont été publiés et repostés sur internet.

Certaines séquences de la vidéo étaient encore présentes il y a quelques heures sur le forum très controversé 8chan, où un utilisateur se targuait d’être l’auteur de l’attentat et avait posté le lien de la page Facebook où la vidéo a été diffusée en direct.

Les traces laissées sur internet par l’auteur présumé de l’attentat suggèrent qu’il a passé beaucoup de temps sur des forums dédiés à l’extrémisme, et qu’il a cherché à atteindre une très grande audience. Avant d’avoir été supprimés, les profils Facebook et Twitter liés au tireur montraient des vidéos en faveur du nationalisme blanc et des vidéos anti-immigration.

Facebook, qui a été mis au courant de la présence de cette vidéo par la police de Nouvelle-Zélande, a supprimé la vidéo ainsi que les profils Facebook et Instagram peu de temps après la diffusion en direct de l’attaque. Le réseau social a ensuite déclaré qu’il continuait à supprimer tout contenu faisant l’éloge de l’attaque.

Facebook a également annoncé vendredi dernier une nouvelle technologie destinée à éviter la propagation virale d’images et de vidéos. Des modérateurs peuvent maintenant créer une empreinte numérique d’une image problématique, qui, selon Facebook pourrait « l’empêcher d’être partagée sur notre plateforme ». On ne sait pas vraiment comment cette technologie aurait pu empêcher la propagation de la vidéo en direct publiée par l’auteur de l’attentat.

Google, la société mère de YouTube, a également annoncé faire de son mieux pour retirer toutes les vidéos liées à l’attaque terroriste. Après l’attaque, des vidéos ont continué à être partagées. La propagation rapide de cette vidéo, même après que Facebook et YouTube ont commencé à la retirer, a souligné le problème rencontré par ces plateformes qui ont utilisé un processus automatisé pour supprimer les contenus inappropriés. Même en ajoutant des examinateurs humains, la propagation de la vidéo a été telle qu’elle a faire perdre le contrôle à la plateforme.

Malgré l’horreur de la propagation via les réseaux sociaux de la vidéo de l’attaque en Nouvelle-Zélande, il serait hypocrite pour n’importe quel réseau social de dire que cette propagation a été inattendue. Selon une analyse de BuzzFeed parue en 2017, au moins 45 cas de partages de vidéos violentes en direct ont eu lieu sur Facebook Live depuis ses débuts en 2015. Cela inclue des bagarres, meurtres, viols et suicides. Et tout comme l’auteur de cet attentat terroriste qui a utilisé les réseaux sociaux pour propager son crime et sa propagande raciste, l’état islamique va encore plus loin dans son utilisation des réseaux sociaux comme outils de radicalisation et de recrutement