La page d'accueil de Facebook
AFP/JUSTIN SULLIVAN
Lemonde.fr | Damien Leloup
Où se situe la limite entre art et pornographie, entre discours politique et apologie de la violence, entre une plaisanterie et une menace d'attentat ? Pour Facebook, ces questions ont une importance primordiale : le premier réseau social au monde procède en effet à une modération des contenus qui lui sont signalés par ses 800 millions d'utilisateurs dans le monde. Mais des contenus considérés comme choquants ne sont pas forcément illégaux, et la suppression d'un contenu peut être vécue comme une censure.
Pour tenter de résoudre cette équation complexe, Facebook s'est doté de conditions d'utilisation, censées établir des règles génériques et claires sur ce que le réseau social tolère ou non. Mais les limites en sont vagues – une unique phrase précise que l'utilisateur s'engage à ne pas publier "de contenus incitant à la haine ou à la violence, menaçants, à caractère pornographique ou contenant de la nudité ou de la violence gratuite". En revanche, le réseau social a élaboré une charte de modération, dont une version utilisée par un prestataire a été publiée pour la première fois par le site Gawker, qui détaille, elle, les règles appliquées par les modérateurs de Facebook.
Dans ce document de treize pages, illustré d'exemples concrets, le réseau social précise quelle conduite adopter lorsque les modérateurs reçoivent des signalements pour des photographies, des statuts ou tout autre contenus suspectés d'être racistes, pornographiques ou violents. Ce manuel jette également un éclairage passionnant sur la philosophie appliquée par Facebook – et, parfois, les contradictions qui en découlent.
Car contrairement à d'autres services, Facebook ne se contente pas d'une modération dite "légale" : les contenus jugés contraires à la loi sont supprimés, mais dans un certain nombre de cas, l'entreprise va plus loin, en fonction des règles dont le réseau social s'est lui-même doté. Aux Etats-Unis et dans d'autres pays, une vive controverse dure depuis des mois entre des mères de famille et des associations et le réseau social, qui supprime régulièrement les photos de mères donnant le sein à leur bébé. A plusieurs reprises, des internautes avaient également protesté lorsque le réseau social avait modéré des photographies du tableau L'Origine du monde, de Gustave Courbet, qui représente un sexe féminin.
DES RÈGLES DÉTAILLÉES ET COMPLEXES
Les règles de modération rendues publiques par Gawker laissent entendre que dans un certain nombre de cas, ces modérations ont été faites par erreur : dans le cas du tableau de Gustave Courbet, la charte mentionne par exemple qu'une exception est prévue aux règles sur la nudité pour les œuvres d'art. Résumées sur une page, les règles appliquées par Facebook recèlent cependant d'autres surprises.
Sexualité. Le réseau social interdit toute description, photographique ou écrite, d'actes sexuels. La nudité n'est autorisée que si les attributs sexuels, primaires ou secondaires, sont cachés – sexe, poitrine, tétons. Les images d'enfants (définis comme "capable de tenir debout") nus ou en sous-vêtements sont interdites et font l'objet d'un signalement. Les photos de mères donnant le sein sont autorisées tant que les tétons ne sont pas visibles ou que la personne ne dévoile pas davantage son anatomie.
Le document détaille également les textes qui doivent être modérés : un langage cru à lui seul n'est pas un motif de modération, mais toute sollicitation d'acte sexuel est bannie, ainsi que toute description d'acte sexuel quel qu'il soit. De manière surprenante, le document demande également aux modérateurs d'ignorer l'ensemble des images et messages de spam qui ne violent pas les autres règles, y compris lorsqu'ils contiennent des liens vers des sites pornographiques, "sauf si l'adresse du lien est sexuellement explicite".
Drogue. Plus surprenant, le guide de modération précise que si les contenus liés à des drogues sont en soi interdits, la marijuana fait exception à la règle, "sauf s'il est clair que l'utilisateur en vend, en achète ou en fait pousser".
Violence. Les règles régissant les contenus violents sont complexes, et font état de choix assez étonnants. Tout ce qui a trait à une forme de torture, contre des humains ou des animaux, est interdit, tout comme les images de mutilation ou l'apologie de la violence. En revanche, les images de sang et d'autres fluides corporels – à l'exception du sperme – ne sont pas modérées, ainsi que celles de membres écrasés, "à condition que les organes ne soient pas visibles". Le réseau social précise qu'"aucune exception ne doit être faite pour des photos d'actualité ni des campagnes de prévention".
Harcèlement et vie privée. Les signalements de harcèlement suivent une procédure dédiée chez Facebook, qui ne suit pas le circuit de modération habituel. Les règles de modération détaillent cependant la procédure à suivre pour les signalements de "tags", c'est-à-dire l'association du nom d'une personne à une photo ou à un texte. Dans ce cas, les modérateurs doivent vérifier si la personne qui a signalé le contenu est bien celle qui est nommée dans le texte ou la photo ; lorsque c'est le cas, la consigne est de modérer.
Menaces d'attentats et de violences. Dans les cas où un utilisateur profère des menaces à l'encontre d'une personne, les modérateurs doivent évaluer la crédibilité de ces menaces. Sont considérées comme crédibles les menaces détaillées, mentionnant plusieurs éléments de contexte (le lieu, la personne visée...) ou mentionnant une récompense, qu'elle soit "matérielle ou au Paradis". Cas particulier : lorsque la menace vise un chef d'Etat ou les forces de l'ordre ("par exemple, le visage d'Obama dans un viseur"), elle doit obligatoirement être transmise à un responsable, même si la menace est jugée peu crédible.
Le document précise que l'estimation de la crédibilité d'une menace peut être complexe et longue, mais que le processus est important – et que les modérateurs ne seront pas sanctionnés si leurs responsables leur demandent des "vérifications déraisonnables". La négation de l'Holocauste doit également être signalée à un responsable "si elle véhicule un message de haine".
Le cas particulier de la Turquie. Les règles publiées par Gawker comportent une seule série de règles spécifiques à à un pays : la Turquie. Le texte précise que "toutes les attaques contre [Mustapha Kemal] Atatürk", "les cartes du Kurdistan" ou les photographies de "drapeaux turcs en feu" doivent être signalées à un responsable ; "les images de drapeaux d'autres pays en feu peuvent être validées", précise le document. Ces contenus peuvent toutefois être validés "s'ils sont clairement opposés au PKK", le Parti des travailleurs du Kurdistan, organisation armée qui revendique une autonomie kurde et est considérée comme organisation terroriste par les Etats-Unis et l'Union européenne, ou "à [Abdullah ] Öcalan", le fondateur du PKK.
UNE MODÉRATION EN PARTIE EXTERNALISÉE
Gawker s'est procuré le document par le biais d'un ancien employé d'oDesk, une entreprise spécialisée dans l'externalisation de services. Ce Marocain de 21 ans explique avoir travaillé plusieurs semaines à la modération de Facebook, pour un salaire horaire d'un dollar, et juge que cette externalisation à bas prix est une "exploitation du tiers monde".
Pour Facebook, l'utilisation de prestataires extérieurs est une nécessité, répond le réseau social, qui explique que seule une partie de la modération est confiée à des entreprises extérieures. "Pour pouvoir traiter rapidement et efficacement les millions de signalements que nous recevons tous les jours, nous avons choisi d'employer des entreprises extérieures pour effectuer un premier tri d'une petite partie des signalements", détaille un porte-parole de l'entreprise au Guardian. "Ces sous-traitants font l'objet de contrôles de qualité rigoureux, et nous avons mis en place plusieurs garde-fous pour protéger les informations de nos utilisateurs. Nous avons toujours et nous continuerons à traiter les signalements les plus graves en interne, et les décisions prises par nos sous-traitants sont contrôlées en profondeur."