Photo: Alexander Koerner (Getty)
Il y a quelques jours à gauche en 2018, mais Facebook éternelle de l’année de calcul continue.
Un nouveau rapport par le New York Times a levé le voile sur une partie de Facebook interne du mal à obtenir ses mains sur les problèmes complexes installé sur sa plate-forme, pas le moindre de ce qui comprennent la désinformation et de haine. Le rapport intervient dans le cadre d’un monthslong enquête par Temps Max Fisher, qui a obtenu un énorme stock de documents destinés à guider les milliers de modérateurs sur la plate-forme dont la fonction est de gérer les problématiques de contenu. Selon le times, Facebook est décrit livres de règlements, dont le Times dit contenir “de nombreuses lacunes, les biais et les erreurs.”
Le Temps aurait été fournis les documents—dont certains ont déjà été signalés par la carte Mère par “un employé qui a dit qu’il craignait que la société exerce trop de pouvoir, trop peu de supervision et de faire trop d’erreurs.” Le rapport brosse un portrait de hasard assemblés recueils de règles comprenant lâche feuilles de calcul et des présentations power point des règles et des dispositions par lesquelles les modérateurs sont chargés de la police de contenu. Les documents, à la Fois dit, peut être source de confusion lorsqu’il est pris comme un tout:
Un document énonce un certain nombre de règles juste pour déterminer quand un mot comme “martyr” ou “jihad” indique pro-terrorisme de la parole. Un autre décrit lors de la discussion d’un groupe de prescription devrait être interdite. Des mots comme “frère” ou “camarade” probablement franchir la ligne. Donc, faire une douzaine d’émoticônes.
Les lignes directrices pour l’identification des discours de haine, un problème qui a tourmenté Facebook, exécutez à 200 jargon rempli, la tête qui tourne les pages. Les modérateurs doivent trier un poste dans l’un des trois “niveaux” de la gravité. Ils doivent garder à l’esprit les listes comme les six “désigné déshumanisation des comparaisons,” parmi eux à comparer les Juifs à des rats.
Le Times a rapporté que, bien que les règles’ architectes de consulter les groupes de l’extérieur, ils sont en grande partie libre de définir la politique cependant ils le souhaitent.” Les équipes chargées de les assembler, de les règles sont “principalement des jeunes, des ingénieurs et des juristes” qui tentent “d’inculquer des questions hautement complexes en un simple oui ou non les règles,” Le Temps dit. Cette entreprise aurait s’avère difficile pour les modérateurs, dont certains le Times dit compter sur Google Translate et ont “quelques secondes pour rappeler les innombrables règles” tout le peignage à travers jusqu’à un millier de postes tous les jours.
Mais plus troublant que Facebook de la collection arbitraire de règles visant à la police de son milliard d’utilisateurs—postes par qui peut exécuter toute la gamme de insipide mèmes pour le calcul et potentiellement dangereux de la propagande politique—est la grande puissance politique qu’il brandit. En décidant qui est permis à une plate-forme sur le Facebook du site, le rapport montre que, peut être incroyablement difficile.
Un exemple, cité par le Times, a été profondément raciste annonce de l’Atout de la campagne essentiellement conçu pour inciter à la crainte d’une caravane des migrants d’Amérique Centrale, les demandeurs d’asile. Cette annonce a été plus tard interdit sur Facebook le mois dernier. Facebook aussi est venu sous le feu après sa plate-forme a été utilisée comme un outil politique par Présidente des Philippines Rodrigo Duterte. Au Myanmar, Facebook a été utilisé pour alimenter la violence à l’égard des Musulmans pendant des années, qui à la Fois dit en partie en raison d’une “paperasse erreur” dans ses recueils de règles que les instructions permettant de postes qui aurait en fait été supprimé.
Beaucoup de la Fois rapport remplit les blancs sur les procédures à Facebook, qui pendant longtemps ont pas à gérer les problèmes sur sa plate-forme. Mais il illustre également la mesure dans laquelle Facebook a du mal à gérer les questions qui se posent lorsqu’il tente de se conformer aux demandes des gouvernements respectifs.
Essayez comme il peut gérer son propre produit, Facebook a un Facebook-problème de taille qui probablement ne va pas disparaître de sitôt.
Mise à jour 12/27/18 9 h 15 ET: mis à Jour pour refléter le fait que certains documents rapportés par le New York Times de vendredi ont été précédemment rapportés par la carte Mère.
[New York Times]
Partager Cette Histoire