Rechercher

Algorithmes de recommandation : leviers de radicalisation, d’enfermement et de paupérisation intellectuelle ?

Une contribution de Yannick Chatelain 

 

Il ne s’agit pas de mal le voir partout, ni le bien nulle part ! Mais l’enfer est, malheureusement, hier comme aujourd’hui, supposé être pavé de bonnes intentions. Sur la base de cet adage, les algorithmes de recommandation ont naturellement prétention à aider les usagers, ainsi dès lors que vous utilisez un navigateur « traditionnel », de multiples algorithmes de ce type vous « attendent » au détour de la toile.  Pour faire simple et sans rentrer dans le détail de leur typologie, nous pouvons distinguer : Le Filtrage collaboratif, User-Based, Item-Based / La factorisation de matrice / Content-based / Populaire / Random… Ces derniers analysent vos navigations sur le Net pour vous recommander des contenus susceptibles de vous intéresser… Nous pourrions dès lors évoquer, dès vos premiers pas sur le Net, un surf en entonnoir, pour ne pas dire un surf « d’enfermement ».   

Ces recommandations impactent tous les domaines. Pour ceux et celles qui disposent de Netflix, ils peuvent en mesurer la « puissance » au travers des suggestions de « titres similaires » ou titres qui pourraient vous « correspondre », ces recommandations se font également sur la presse, les réseaux sociaux, les sites de musiques, de streaming etc. L’usage de ces algorithmes demeurant, selon les structures plus ou moins transparents et perceptibles par l’usager.

Des algorithmes de « radicalisation », d’enfermement et de paupérisation intellectuelle ?

Si les sites et services qui y ont recourt utilisent comme argument principal l’amélioration de l’expérience utilisateur (client), il est également une autre façon de voir les choses : est-ce une réelle amélioration utilisateur que de l’enfermer dans un univers « intellectuel », notamment pour ce qui concerne les contenus presse… souvent et par ailleurs sans qu’il n’en soit vraiment conscient ?  Dans le pire des cas nous pouvons alors évoquer une « radicalisation » progressives des postures des utilisateurs invariablement soumis à des contenus les renforçant dans leurs croyances.

Avant l’avènement de l’Internet at large, et pour appuyer mon argumentation, selon leurs sensibilités politiques les lectorats des supports étaient (sont) connus, ils retrouve ainsi -en règle générale- dans le journal de leurs choix des articles et reportages croisant leurs convictions et les renforçant ipso facto dans leurs convictions et dans leurs croyances…. Un grand pas vers des certitudes. Vous en conviendrez rare sont ceux et celles – hormis certaine profession comme les journalistes – qui vont acheter dans leurs kiosques à journaux « l’humanité » et « le figaro magazine », ou mieux encore s’attacher à faire une revue de presse globale, une approche qui pourrait pourtant favoriser notre esprit critique afin d’éviter l’enfermement que j’évoque. Les algorithmes favorisent ce dernier avec une puissance bien supérieure. Si je peux oser une digression, ils ne sont pas exempts de responsabilité pour ce qui concerne la radicalisation d’une certaine jeunesse en quête de sens.

 

Internet et algorithmes de recommandations : de la porte-fenêtre ouverte sur le monde à l’œil de bœuf.

Dans la logique de recommandation il est indéniable que la porte-fenêtre ouverte sur le monde se transforme en œil de bœuf. Il ne s’agit donc dès lors pas de respect de la vie privée, et du droit inaliénable à l’anonymat que j’évoque souvent lorsque je parle du traçage parfois abusif des usagers, il s’agit de libre arbitre et d’une neutralité sur votre liberté d’opinion…  Dans la mesure ou ces algorithmes ne font que restreindre votre accès au monde réel complexe et diversifié, et ce de manières multiples, sur les réseaux sociaux ils vont par exemple jusqu’à choisir et vous suggérer des « amis-compatibles », jusqu’à pouvoir contrôler et orienter vos émotions. Fantasme ? Tant s’en faut, en janvier 2012 Le réseau social a mené une étude sur la «contagion des émotions» sur Internet en manipulant le flux d’actualité de 700.000 utilisateurs sans que ces derniers n’aient donné leur accord.  Comme le relate le figaro « le service d’analyse des données de Facebook, aidé de plusieurs chercheurs d’universités californiennes, a mené une expérimentation. Durant une semaine, il a ainsi manipulé le flux d’actualité de près de 700.000 utilisateurs du réseau social américain. Certains étaient exposés à des messages majoritairement positifs. D’autres à des statuts plutôt négatifs. Un autre groupe, enfin, à des messages neutres ». La découverte de cette expérience, dont les résultats ont été publiés le 17 juin dans la revue scientifique américaine Comptes rendus de l’Académie nationale des sciences (PNAS) a suscité une vague d’indignation aux Etats-Unis. »

Cette étude a été publiée en 2014 sous le titre «Experimental evidence of massive-scale emotional contagion through social networks » (Preuve expérimentale d’une contagion émotionnelle à grande échelle par les réseaux sociaux). Nonobstant le « scandale » de l’expérimentation sur des cobayes non consentants ( 689 003 pour être exact) et le côté d’apprentis sorciers de la recherche visiblement assez peu soucieux d’éthique, ni vraiment inquiet des conséquences potentielles de leur étude, leur introduction est la suivante et devrait faire frémir tout chercheur et chercheuse digne de ce nom :  « Nous démontrons, via une expérience massive (N = 689 003) sur Facebook, que les états émotionnels peuvent être transférés à d’autres individus via la contagion émotionnelle, amenant les gens à ressentir les mêmes émotions à leur insu. Nous fournissons des preuves expérimentales que la contagion émotionnelle se produit sans interaction directe entre les personnes (l’exposition à un ami exprimant une émotion est suffisante) et en l’absence totale d’indices non verbaux. ». Notons que devant le tollé suscité par l’approche la directrice des opération Sheryl Sandberg à esquissé des excuses publiques « Comme le font des entreprises de recherche en permanence, nous testons différents produits, mais voilà comment ça s’est passé : la communication a été mauvaise (…) et pour cette communication, nous nous excusons  Nous n’avons jamais cherché à vous déranger. » Par-delà les indignations et le excuses de la firme, si l’on s’en tient aux résultats, ils sont probants et auraient dû  initier  un encadrement strict des algorithmes de recommandations permettant à l’utilisateur d’être décisionnaire et d’avoir la main, avant qu’ils ne soient banalisé et deviennent la norme, ou tout du moins, alerter l’opinion publique comme je le fais aujourd’hui pour d’une part recourir aux meilleurs navigateurs anonymes disponibles entre autres DuckDuckgo, Brave, Tor, Avast Secure Browser , Vivaldi…) d’autre part être bien conscient des effets potentiellement nocifs des réseaux sociaux. Inutile en effet de manipuler les flux informationnels sur FB, ce miroir déformé de la réalité, pour impacter les émotions, provoquer un mal être chez certains utilisateurs comme l’a démontré Hui-Tzu Grace Chou professeur au département des sciences du comportement à Utah Valley qui a été la première à évoquer la notion de « Facebook depression »,  j’ai par ailleurs évoqué dans un précédent article les graves problématiques de santé engendrées par l’usage de moult filtres notamment d’applications comme « FaceTune« ,    « BodyTune », conjuguées à des requêtes visant à s’améliorer physiquement » , puis des recommandations afférentes : « Réseaux sociaux, filtres visages et corps, publicités ciblées (amaigrissement), bienvenue dans l’enfer de la dysmorphie ! »

Pour en revenir à nos chercheurs californiens, la conclusion de ces derniers à la fin de leur publication décriée était sans appel « Nous avons la preuve expérimentale à grande échelle que la contagion émotionnelle entre personnes est possible via un support textuel, et ce en l’absence d’expressions faciales et de signaux non verbaux ». Pour ce qui est de Facebook les responsables d’alors se sont mollement excusés de leur approche.

Toujours plus de la même chose ?

Notons à toutes fins utiles et afin de nous faire réfléchir que deux ans après la publication de cette étude, soit depuis le 24 février 2016, il était  possible d’exprimer « cinq nouvelles émotions » sur les publications du réseau social Facebook en plus du simple « J’aime » d’origine. En 2022 il en est désormais sept . Si vous pensez que cette évolution et innovation est pour votre confort d’utilisation,  si vous êtes convaincus que votre choix d’émoticon à la suite d’une publication est neutre… que vous dire ? Vous êtes en droit de le penser.

« À l’ère des algorithmes de recommandation de plus en plus pointus, la Toile n’a jamais autant mérité son nom… les algorithmes de recommandation seraient-ils alors les araignées et l’usager la mouche ? »

 

À lire également : Faut-il renforcer la transparence et l’explicabilité des algorithmes ?

Vous avez aimé cet article ? Likez Forbes sur Facebook

Newsletter quotidienne Forbes

Recevez chaque matin l’essentiel de l’actualité business et entrepreneuriat.

Abonnez-vous au magazine papier

et découvrez chaque trimestre :

1 an, 4 numéros : 30 € TTC au lieu de 36 € TTC