EXTRAIT DU MAG – Le réseau social est accusé aléatoirement, par les uns et les autres, de laisser apparaître des contenus jugés néfastes et/ou de supprimer des éléments jugés pertinents. Derrière cette problématique, c’est la question de l’influence de l’entreprise qui est posée.

UP 17Cet article est extrait du UP mag n°17  sorti le 18 septembre 2017 avec un dossier consacré aux « Fake news » et  à retrouver sur notre boutique.

« Nous ne voulons pas être les arbitres de la vérité », répètent à l’envi les dirigeants de Facebook. Le réseau social aime à rappeler qu’il n’est pas producteur de contenus et n’est pas responsable de ce qui est posté par ses utilisateurs. Pourtant, des modérateurs suppriment bien, au quotidien, des profils d’utilisateurs ou leurs posts, selon des règles qui, en fait, semblent plutôt arbitraires. Au printemps dernier, l’hebdomadaire britannique Guardian s’est procuré des extraits des « manuels de modération » fournis aux modérateurs du réseau social, jusqu’ici restés secrets. Dans cette série d’articles intitulée « Facebook files », on apprenait  par exemple qu’une remarque telle que « quelqu’un devrait tuer Trump » serait supprimée car, en tant que chef de l’État, Trump fait partie des « catégories protégées » établies par le réseau social. En revanche, il est possible d’écrire « pour briser le cou d’une conne, faites bien attention à appuyer au milieu de sa gorge » ou encore « va chier et meurs », car ces propos ne sont pas considérés comme de véritables menaces.

Il faut d’emblée reconnaître qu’établir des règles de modération appliquées à des milliards d’utilisateurs aux profils politiques et culturels immensément variés n’est pas chose aisée. Mais ces exemples sont pour le moins déroutants. Déroutante l’est encore plus, la manière dont Facebook définit ses « catégories protégées ». Le site d’investigation américain ProPublica a révélé en juillet dernier qu’il supprime les contenus qui s’attaquent à des catégories de race, genre, appartenance religieuse, origines nationales et ethniques, orientation sexuelle et handicap, ou maladie, mais qu’en revanche, les sous-catégories que sont les classes sociales, l’âge, l’avis politique ou bien les sous-groupes religieux sont « non-protégées ». Résultat, quand un membre de la Chambre des représentants des États-Unis écrit « Massacre des musulmans radicalisés […], chassez-les, identifiez-les et tuez-les », sa publication n’est pas supprimée, car elle vise le sous-groupe spécifique des musulmans radicalisés. En revanche, quand Didi Delgado, poète et militante du mouvement Black Lives Matter, traite tous les Blancs de racistes, son message est supprimé et son compte suspendu pendant une semaine.

Intérêt économique

« Ces documents révèlent les décisions politiques de Facebook. Alors que l’entreprise affirme sans cesse que son rôle n’est pas éditorial, ceux-ci attestent du contraire. (…) Lorsque Facebook estime que des images participent à une opération de sensibilisation de l’opinion, il laisse en ligne des contenus qui contreviennent aux règles qu’il a lui-même édictées. Dans ce cas, on peut aussi s’interroger sur ce qui est retiré ! », observe Sarah Roberts, chercheuse en sciences de l’information à l’université de Californie de Los Angeles (UCLA), dans une interview accordée au Monde.

« Alors qu’on attribue à Facebook d’avoir facilité le “Printemps Arabe“ de 2010-2011, contre les régimes autoritaires, les documents suggèrent que, au moins dans certains cas, les règles de modération de l’entreprise tendent à favoriser les élites et les gouvernements par rapport aux militants de base ou les minorités raciales », écrit le site ProPublica. Le site rapporte également qu’au moment de l’annexion de la Crimée par la Russie, en 2014, de nombreux Ukrainiens se sont plaints de voir leurs posts censurés et profils bloqués à la demande d’utilisateurs pro-Kremlin. En Israël, les comptes de Palestiniens seraient bloqués si souvent que l’expression #FbCensorsPalestine est devenue populaire.

Facebook pratiquerait-il un filtrage idéologique ? La position de l’entreprise vis-à-vis des discours négationnistes, révélée par le Guardian, est à ce titre intéressant. Elle encouragerait à supprimer les contenus niant l’Holocauste uniquement dans quatre pays (France, Allemagne, Israël et Autriche) sur les 14 où cela est interdit. Un document indique que la société « n’accepte pas la législation locale qui fait obstacle à un monde ouvert et connecté » et ne considère la suppression des contenus négationnistes que dans les pays où elle risque d’être poursuivie ou bloquée. En fait, selon Hervé Le Crosnier, enseignant-chercheur à l’Université de Caen en culture numérique, l’entreprise mondiale est surtout guidée par un critère économique : retenir l’attention des utilisateurs, qu’ils restent le plus longtemps sur le réseau, peu importe la véracité du contenu. « Ils n’ont aucun intérêt économique à nettoyer, sauf si ça devient tellement pourri que ça va faire décliner l’attention des gens. Leur unique crainte est que trop de violence ou d’affrontements provoque de la désaffection pour le réseau», nous explique-t-il.

Pouvoir incontestable

Seulement, à chaque censure, Facebook s’arroge le droit de définir ce qui est montrable, ou pas, et cela lui donne un pouvoir forcément contestable. L’automne dernier, le réseau social s’est attiré les foudres de la Norvège pour avoir censuré la photo de la « fille au napalm », la fameuse image de la guerre du Vietnam où l’on voit une fillette, nue, qui vient d’être brûlée après un bombardement au napalm. La Première ministre Erna Solberg avait alors bien exprimé la problématique : « Ce que fait Facebook, en supprimant ces images, et quelles que soient ses intentions, c’est une révision de notre histoire commune. » « Le manque de transparence de Facebook est une question importante, car son pouvoir est immense : plus d’un milliard de personnes utilisent le site, souvent comme source d’information ou comme moyen de communiquer », rappelle Sarah Roberts.  « On a laissé se développer des plateformes sans régulation sociale (notamment en ne payant pas d’impôts), pour qui les corps intermédiaires (familles, communauté religieuses, syndicats) sont les choses à éviter, et qui sont devenus des outils indispensables. La question est : maintenant que c’est développé, comment fait-on ? », résume Hervé Le Crosnier.

Certains États tentent d’infléchir le réseau social, mais pas forcément de la façon la plus souhaitable. L’Allemagne a ainsi adopté en juin une loi qui expose les réseaux importants comme Facebook à une amende pouvant s’élever à 50 millions d’euros s’ils ne suppriment pas sous 24 heures les contenus « manifestement délictueux ». Avant même que la loi ne passe, Reporters Sans Frontières s’est inquiété que ce genre de projet mène « à la multiplication de cas de censure dans la mesure où les réseaux sociaux pourraient être tentés de supprimer plus de contenus pour payer moins d’amendes ». « RSF rejette ce projet, qui ne ferait que contribuer au mouvement général de privatisation de la censure, en déléguant à des plateformes privées le rôle de juges, les laissant décider de ce qui doit être supprimé ou non, comme si les géants du web allaient remplacer les cours indépendantes et impartiales », a dénoncé Elodie Vialle, responsable du bureau Journalisme et Technologie à Reporters sans frontières. L’ONG a de plus regretté l’utilisation de termes vagues dans la législation allemande et dit craindre que cela encourage d’autres pays européens à suivre la même voie.

Signalement par les internautes

« Un conseil aux gouvernements autoritaires : si vous voulez censurer Internet sans faire d’histoire, il vous suffit de qualifier les articles qui vous déplaisent de “désinformation“, et personne en Occident ne viendra protester », écrivait dans un post de blog Evgeny Morozov, chercheur et écrivain américain d’origine biélorusse, qualifiant de « fausses solutions » les idées des États européens pour empêcher la propagation de fausses nouvelles. Mais vaut-il mieux tout laisser dire, même les pires fake news, pour éviter de tomber dans une censure arbitraire ? « Le sujet est très complexe et d’ailleurs la vérité n’est pas le bon critère, car ça ne veut rien dire la vérité, ça dépend de qui parle, de ce qu’on fait. En revanche, il faut protéger le citoyen de ce qui a un caractère antisocial et qui est défini par la loi », affirme Hervé Le Crosnier.  Mais ce qui est antisocial dans un pays ne l’est pas forcément dans un autre et Facebook veut éviter au maximum d’avoir des règles différentes en fonction de la géolocalisation de ses utilisateurs.

En attendant, le projet développé par Facebook en partenariat avec des médias français, (dont l’AFP, France Info, Le Monde, 20 minutes et Libération), apparaît comme une alternative intéressante à la censure. Il s’agit de permettre aux internautes de signaler les contenus douteux, pour les faire vérifier par les rédactions partenaires. En fonction, le contenu ne sera, non pas supprimé, mais signalé comme une information non-validée par le groupe de rédaction. Il n’y a pas encore eu de bilan de ce projet annoncé en mars. Ceux qui ne croient plus dans les gros médias n’y verront probablement qu’une manière de plus de s’imposer. D’autres signaleront que cette solution n’empêchera pas toutes les bêtises d’être écrites sur le réseau, et que les algorithmes encouragent de toute façon ceux qui pensent d’une certaine manière à se conforter dans leur opinion.  Mais là au moins, c’est à chacun, et non pas à Facebook, d’arbitrer.


CECI EST UN EXTRAIT DU UP17

L’entretien ci-dessous a été publié dans le dossier «Fake news, la vérité est-elle ailleurs ?». Vous pouvez dès à présent l’acheter sur la boutique en ligne. Promis, tout est vrai !


Commentaires