L’amplitude croissante du «hate speech» en ligne suscite des inquiétudes croissantes. Tentative de délimitation du problème sur les forums des médias.
Les éditeurs de médias ont compris le parti – notamment commercial – qu’ils pouvaient tirer de l’idée d’ouvrir aux internautes des espaces dédiés au commentaire d’articles d’information. On peut se demander s’ils n’ont pas ouvert en même temps une immense boîte de Pandore. D’emblée, en effet, on a constaté, parmi des propos souvent oiseux, une proportion préoccupante de discours injurieux, discriminatoires ou haineux. En 2014, le Centre interfédéral pour l’égalité des chances a ouvert 339 dossiers de «cyberhaine» – soit 100 dossiers de plus qu’en 2012 – dont 86 % portent sur des propos racistes, xénophobes, antisémites ou islamophobes.
Loin de nous rassembler, le web confine chacun d’entre nous dans sa « bulle filtrante ».
Une première dimension explicative à la prolifération du hate speech en ligne, c’est la dévaluation du discours sur le web. Environ 80 % des Belges adhèrent à un réseau de socialisation en ligne. Sur ces réseaux, l’information circule horizontalement entre pairs, entre «amis». Cette diffusion «égalitaire» peut donner une impression de démocratisation; en réalité, elle dévalue tous les contenus: récits de faits avérés, commérages, analyses fondées et affabulations y forment un patchwork où, en définitive, tout se vaut, donc rien ne vaut.
L’épidémie de hate speech procède aussi de l’isolement de l’individu dans l’univers virtuel. Loin de nous rassembler, le web confine chacun d’entre nous dans sa « bulle filtrante » (1) où le narcissisme se déploie en toute impudence. Grâce aux algorithmes de traitement des données personnelles, les internautes sont submergés de contenus correspondant à leur «profil» et renforçant leurs convictions comme leurs préjugés.
Troisième piste explicative concomitante: l’anonymat, donc l’impunité, qu’offre la Toile. « Quand les personnes pensent qu’elles ne seront pas tenues responsables de leurs propos, elles ont tendance à [rédiger] des écrits simplistes et irréfléchis sur des questions complexes. » (2) Même si, à l’expérience, l’interdic¬tion du pseudonyme ne suffit pas à dissuader certains internautes de verser dans l’excès (3), en autorisant l’emploi d’identités fictives, les éditeurs de forums ont lâché la bride à des pulsions refoulées. Leur responsabilité morale, déontologique et politique paraît évidente.
L’éditeur responsable est… responsable
Leur responsabilité juridique ne l’est pas moins. La loi du 11 mars 2003 «sur certains aspects juridiques des services de la société de l’information» rend les éditeurs des sites en ligne responsables du contenu des messages qu’ils relaient dans la mesure où ils en ont connaissance. C’est donc à eux qu’il revient de ne pas publier d’images ou de propos illégaux. Or, selon les lois du 10 mai 2007, est pénalement répréhensible «tout comportement consistant à enjoindre […] de pratiquer une discrimination […] à l’encontre d’une personne, d’un groupe, d’une communauté ou de l’un de leurs membres». Toutefois, l’infraction à ces lois ne peut consister qu’en «l’encouragement, l’excitation, l’appel à des actes concrets». Il ne suffit pas que le propos incriminé soit «inspiré par le racisme ou la xénophobie» pour qu’il puisse faire l’objet de poursuites (4).
Aujourd’hui, l’argument courant des éditeurs pour se disculper des dérapages est la difficulté matérielle à maîtriser les espaces d’expression.
Lorsqu’un éditeur décide d’effacer un commentaire, il ne s’agit nullement d’une entrave à la liberté d’expression. Publier un commentaire, c’est comme publier un article: cela relève de la responsabilité éditoriale. Aujourd’hui, l’argument courant des éditeurs pour se disculper des dérapages est la difficulté matérielle à maîtriser les espaces d’expression. Argument étrange, qui revient à imaginer que le directeur d’un journal pourrait ne pas être en mesure de décider des articles qu’il publie…
Cédant à cette logique paradoxale, des pistes pragmatiques ont donc été développées pour faciliter la maîtrise des forums. La première piste est celle de la charte à signer par tout internaute souhaitant poster un commentaire. Dans sa recommandation sur les forums en ligne, le Conseil de déontologie journalistique (CDJ) suggère que chaque nouvel intervenant, lors de son inscription, soit obligé de s’identifier complètement, son pseudonyme éventuel étant transparent pour la rédaction, et que la charte énumère les sanctions encourues en cas d’abus. Actuellement, les conditions d’adhésion sont souvent légères: l’internaute ne doit fournir que son adresse IP et peut intervenir sous le couvert d’un pseudonyme.
Une politique volontariste d’édition des espaces de réaction s’avère donc indispensable. Les opérateurs en ligne préfèrent parler de «modération»: le forum serait donc un espace externalisé où l’éditeur ne serait qu’un arbitre. Quelques éditeurs justifient même leur réticence à la «modération» en arguant que les internautes sont plus friands des espaces d’expression que des articles eux-mêmes et que les clics sur ces pages peuvent accroître les recettes publicitaires. C’est une erreur d’appréciation: d’après une étude américaine (5), la suppression des commentaires sous les articles augmente de 14 % le nombre de visiteurs du site; en outre, plus les commentaires dérapent, plus l’image du site se détériore aux yeux des internautes.
Notre savoir-faire se consomme avec modération
La plupart du temps, les éditeurs recherchent une «modération» qui leur permette de se conformer à la loi sans zèle excessif ni frais exorbitants. La recommandation du CDJ donne les pistes suivantes: la «modération» est une activité journalistique; chaque forum doit offrir aux internautes la possibilité de signaler un message abusif; doivent être modérés a priori, au minimum, les dialogues en direct (chats); lorsque le forum n’est contrôlé qu’a posteriori, les messages «racistes, discriminatoires, négationnistes, injurieux, incitant à la haine ou à la violence, attentatoires à la dignité des personnes» doivent pouvoir être retirés instantanément. Enfin, le CDJ avance une proposition innovante, qui contrarie la politique commerciale des médias: le forum ne devrait afficher aucune fonction qui valorise un message (bouton «j’aime», «partager», etc.) afin d’éviter la dispersion de propos illégaux.
La recommandation du CDJ est appliquée de manière très diverse. Ainsi, sur lesoir.be et sur le site du Vif-L’Express, les textes postés sont filtrés automatiquement grâce au repérage de mots-clés qui permettent d’attirer l’attention d’un «modérateur». Mais il est aisé de tromper le logiciel, par exemple en remplaçant le mot «arabe» par «ar.abe» ou «norvégien». Dès lors, certains médias ont opté pour le filtrage a priori par un journaliste. C’est la meilleure solution, mais elle exige un engagement humain et financier que de nombreux éditeurs estiment prohibitif. Aussi ont-ils pour la plupart opté pour un filtrage light et a posteriori: ils ne vérifient que les commentaires signalés comme «abusifs» par un internaute. Ce système présente l’avantage, selon les éditeurs, de les exonérer de leur responsabilité légale, puisqu’ils n’approuvent pas préalablement le contenu de ce qui est publié sur leur forum. On a vu combien cette thèse peut être spécieuse.
Facebook, une échappatoire?
Certains médias ont trouvé un moyen encore plus efficace d’échapper à leurs engagements déontologiques et juridiques: transférer leurs espaces de réaction sur leur page Facebook. Ce sont dès lors les conditions d’utilisation de la société irlandaise Facebook qui s’imposent aux auteurs des commentaires. La charte de Facebook contient des interdits tels que «Vous n’intimiderez pas et ne harcèlerez pas d’autres utilisateurs» ou «Vous ne publierez pas de contenus incitant à la haine ou à la violence, menaçants […] ou contenant […] de la violence gratuite». Reste à juger comment ces interdits sont respectés. Dans ce but, Facebook utilise un filtre basé sur des mots-clés, lui aussi aisé à contourner. Les éditeurs, eux, sont tenus de réagir si des messages de dénonciation de commentaires leur sont adressés. Toutefois, les signalements d’abus doivent être envoyés à la société Facebook, qui ne réagit que si plusieurs signalements convergents lui sont adressés et après un délai assez long.
Certains médias ont trouvé un moyen encore plus efficace d’échapper à leurs engagements déontologiques et juridiques: Facebook.
On le voit, le discours de haine sur les forums a encore de beaux jours devant lui. Tant que les éditeurs se retrancheront derrière l’idée contestable qu’ils ne sont que des fournisseurs d’accès et non des responsables de publication, ils ne pourront pas juguler efficacement le flux de propos délictueux sur leurs forums. Quant à la FCCU ou aux parquets, ce n’est pas l’actuel plan de réforme de la Justice qui va leur permettre de mieux scanner le Web. Restent les citoyens et les associations, dont la veille attentive peut contribuer, en utilisant l’arsenal existant (dénonciation d’abus, signalements, plaintes), à décourager les semeurs de zizanie et les imprécateurs de malheur.
(1) Eli Pariser, Filter Bubble: What the Internet is hiding from You, New York, Penguin Press, 2011.
(2) E. Praet, Les représentations sociales des commentateurs sur les sites de presse, mémoire en criminologie, Faculté de Droit et de Criminologie – ULB, Bruxelles, 2014, p. 57.
(3) E. Praet, op. cit., p. 72.
(4) Jacques Englebert, La procédure garante de la liberté de l’information, Limal, Anthemis, 2014, pp. 71-72.
(5) Adame Felder, «How Comments Shape Perceptions and Site’s Quality – and Affect Traffic», mis en ligne le 5 juin 2014 sur www.theatlantic.com.