Résumé :
|
Enquête sur les failles des systèmes de modération du réseau social Facebook à l'international révélées par une ancienne employée, Frances Haugen : l'insuffisance des systèmes de protection et de modération, humains et automatiques, face aux discours de haine et de manipulations, dans des dizaines de langues et de pays ; le rôle des algorithmes de recommandation de contenus ; les exemples de l'Afghanistan et de l'Inde ; les investissements de Facebook pour améliorer la sécurité de sa plateforme et la mise en place d'une "cellule de suivi des pays à risques" ; la disponibilité de la traduction du règlement de la plateforme en seulement 49 langues ; l'absence de modérateurs maîtrisant l'ensemble des langues et dialectes des pays où le réseau social est déployé ; des taux de signalement par les internautes moindres dans les pays où les traductions font défaut ; un système de repérage, par les logiciels d'intelligence artificielle, des contenus haineux et complotistes défaillant dans ces mêmes pays ; la notion de prévalence ; le réseau de médias internationaux partenaires pour vérifier les fausses informations sur la plateforme ; la dénonciation du manque de personnels dans l'équipe "integrity" de Facebook ; la stratégie de Facebook dans le suivi des élections aux Etats-Unis et à l'international ; débat, dans l'Union Européenne, sur deux projets de régulation des grandes plateformes. Le fiasco de la modération en langue arabe : l'absence de modérateurs maîtrisant les différents dialectes ; de nombreuses erreurs de traduction ; des obstacles technologiques ; la censure induite par le caractère arbitraire de la modération de Facebook. Dans la tour de contrôle de Facebook pendant l'assaut du Capitole : le récit de l'attaque du Capitole le 6 janvier 2021 par des militants pro-Trump ; des erreurs d'anticipation de Facebook ; les plans d'action prévus en amont par le réseau social ; les problèmes techniques survenus ; les protocoles d'urgence mis en place.
|