Il y a de plus en plus de comptes militants sur FB. Le raisonnement est que "il faut y être" pour toucher un maximum de personnes. Mais, perdu dans la masse, est-on visible et les pages n'attirent-elles pas que les convaincu-es, comme partout ailleurs ?
L’Union communiste libertaire, ex AL et CGA, est présente sur FB ( présenté comme "réseau antisocial"), Mastodon
https://soc.ialis.me/@ucl et Diaspora
https://framasphere.org/u/ucl.Alors, le raisonnement juste et la cohérence avec les principes, ne serait-il pas plutôt "qu'il ne faut pas y être" et d'avertir de la suppression du compte FB dans un délai donné en invitant tout le monde à ouvrir un compte sur Mastodon et/ou Framasphere ?
Je ne me place pas sur le terrain de la "morale" mais sur le terrain politique, de la cohérence entre discours et actes. De la nécessité d'avoir des réseaux réellement "sociaux", militants et d'appeler à les rejoindre et à les renforcer. Et de ne pas collaborer avec ces abominations.
Facebook, l’enfer du décor
Sur Facebook, vous ne tombez pas sur de la pédopornographie ou sur des images ultraviolentes (en principe). Le plus grand réseau social du monde fait la chasse à ces contenus infâmes. Pour que les utilisateurs n’y soient pas exposés, l’entreprise déploie une armée de modérateurs, des «liquidateurs» payés pour regarder ce que personne ne veut voir. Ils sont 15 000, répartis un peu partout aux Etats-Unis et sur le globe.
Plusieurs enquêtes parues dans la presse ont permis de découvrir les effroyables conditions de travail de ces petites mains du monstre de Menlo Park. Il y a d’abord les contenus eux-mêmes. «C’est les sept péchés capitaux que tu es forcé à regarder toute la journée», a raconté un modérateur au Monde. Scènes de torture, pornographie infantile, propos racistes, délires conspirationnistes… Le site d’information spécialisé américain The Verge a rencontré un modérateur resté traumatisé par une vidéo d’attaque au couteau. La victime avait son âge. Beaucoup démissionnent rapidement. Certains décrivent des symptômes de stress post-traumatique, une ancienne modératrice a même poursuivi en justice Facebook, accusé de n’avoir pas fait suffisamment pour la protéger. L’affaire est toujours en cours.
Nettoyeurs
Plus inquiétant encore : à force d’être exposés à toutes les théories complotistes imaginables, des nettoyeurs commencent à y croire. La terre est plate, le 11 Septembre n’était pas une attaque terroriste, la Shoah est rebaptisée Holohoax (jeu de mots entre Holocauste et hoax, canular). Ad nauseam… L’entreprise de Mark Zuckerberg prend certes des précautions. Des psychologues sont à la disposition des modérateurs, qui ont droit, en outre, à quarante-cinq minutes hebdomadaires de «bien-être», des pauses qu’ils peuvent prendre à tout moment pour penser à autre chose. Quarante-cinq minutes, pas une de plus.
C’est l’autre volet de cet enfer. Tout, dans la journée d’un de ces salariés, pour la plupart embauchés par des sociétés sous-traitantes, est minuté. Deux pauses de quinze minutes dans la journée, le double pour déjeuner. A chaque fois, un programme enregistre la durée du repos. Chez Cognizant, basée dans l’Arizona et disséquée par The Verge, ces interludes permettent aux salariés de jeter un œil à leur téléphone portable, enfermé dans des vestiaires car interdit devant les écrans pour préserver la vie privée des utilisateurs de Facebook… L’exigence, louable mais pour le moins paradoxale venant d’un géant du numérique dont le modèle économique repose sur la prédation des données personnelles, vaut aussi pour les stylos et les papiers, y compris d’emballage, totalement proscrits des bureaux.
Absurde
Reste les objectifs chiffrés. Chaque sous-traitant, donc chaque petite main, se voit attribuer une cible d’«exactitude». 95 % et même 98 % des décisions prises par les sous-traitants doivent correspondre au choix qu’auraient fait les équipes de Facebook, qui piochent au hasard dans les décisions pour les auditer. La demande est parfaitement irréaliste, selon les modérateurs interrogés par The Verge, qui invoquent le caractère erratique sinon absurde des consignes. «Les autistes devraient être stérilisés» est conforme aux règles de modération, car l’autisme n’est pas «une caractéristique protégée» à l’image du genre ou de la race. «Les hommes doivent être stérilisés» sera en revanche censuré, illustre The Verge.
Evidemment, les nettoyeurs peuvent demander l’avis d’un supérieur, mais ils perdent alors du temps, précieuse denrée. Un bon modérateur passe environ 30 secondes sur chaque cas, et en traite jusqu’à 400 par jour. Non seulement il doit faire le bon choix, mais la justification doit être la bonne. Conséquence : les modérateurs doivent regarder les vidéos en entier, afin de choisir le bon motif de retrait du contenu. Les scènes de violence, par exemple, peuvent aussi contenir du sexe ou de la nudité, auquel cas ce motif l’emporte sur les autres et doit donc être sélectionné en priorité.
Face aux critiques, Facebook a réagi, annonçant des mesures en mai : augmentation des salaires pour les équipes situées aux Etats-Unis (20 dollars de l’heure contre 15 auparavant), plus grande disponibilité des psychologues, options pour flouter les vidéos avant de les analyser. Le réseau social veut montrer qu’il respecte ces équipes indispensables pour que le site aux quelque 2,38 milliards d’utilisateurs dans le monde n’en reflète pas que la face la plus sombre.
https://www.liberation.fr/futurs/2019/07/30/facebook-l-enfer-du-decor_1742884