Facebook er Rapportert ‘Rulebooks’ Vis Det Fikk en Alvorlig Innhold Moderering Problem

Foto: Alexander Koerner (Getty)

Det er bare dager igjen i 2018, men Facebook er evig år of reckoning fortsetter.

En ny rapport fra the New York Times har sceneteppet på en del av Facebook ‘ s indre kamp for å få sine hender rundt komplekse problemer som ligger på sin plattform, ikke minst som inkluderer desinformasjon og hat. Rapporten kommer som en del av en monthslong etterforskning av Times’ Max Fisher, som fikk et enormt lager av dokumenter beregnet til guide tusenvis av moderatorer på plattformen hvis jobb det er å håndtere potensielt problematisk innhold. I henhold til tider, Facebook er så beskrevet rulebooks, der Ganger sier inneholde “mange hull, skjevheter og direkte feil.”

The Times ble angivelig gitt av dokumenter, noe som tidligere ble rapportert av Hovedkort—av “en ansatt som sa han fryktet at selskapet ble trener for mye makt, med for lite tilsyn—og gjør altfor mange feil.” Rapporten tegner et portrett av måfå samlet rulebooks som består av løs regneark og PowerPoints av regler og bestemmelser som moderatorer har til oppgave med politiarbeid innhold. Dokumenter, Ganger sier, kan være forvirrende når det tas som en helhet:

Ett dokument setter ut flere regler bare for å finne ut når et ord som “martyr” eller “jihad” indikerer pro-terrorisme tale. En annen beskriver når diskusjonen om en sperret gruppen bør være forbudt. Ord som “bror” eller “kamerat” sannsynligvis krysse linjen. Slik gjør du noe av et dusin emojis.

Retningslinjer for å identifisere hatefulle ytringer, et problem som har bedeviled Facebook, kjøre til 200 sjargong-fylt, hodet spinner-sider. Moderatorer må sortere et innlegg i en av tre “nivåer” av alvorlighetsgrad. De må huske på lister som de seks “utpekt dehumanizing sammenligninger,” blant dem sammenligning av Jøder til rotter.

The Times rapporterte at mens rulebooks’ arkitekter kontakt med eksterne grupper, de “i stor grad fritt til å angi policy imidlertid de ønsker.” Lagene er ansvarlig for montering av rulebooks er “for det meste unge ingeniører og advokater” som forsøker “å destillere svært komplekse problemer i enkle ja-eller-nei-reglene,” The Times sa. At foretaket skal ha vanskelig for moderatorer, hvorav noen Ganger sier stole på Google Translate og har “bare sekunder å hente utallige regler” mens du grer gjennom tusen innlegg daglig.

Men mer problematisk enn Facebook er vilkårlig samling av regler som er ment til politiet sin milliarder kroner-pluss-brukere—innlegg av hvem kan kjøre gamut av smakløst memer for å beregne og potensielt farlig politisk propaganda—er det betydelig politisk makt som det har. I bestemmer hvem som er tillatt på en plattform på Facebook-nettstedet, rapporten illustrerer at det kan være utrolig vanskelig.

Ett eksempel sitert av Ganger var en dypt rasistiske annonse fra Trumf-kampanje i hovedsak utformet for å egge frykt om en migrant caravan i Sentral-American asylsøkere. Denne annonsen ble senere forbudt på Facebook bare siste måned. Facebook også kom under ild etter sin plattform ble brukt som et politisk redskap av President i Filippinene Rodrigo Duterte. I Myanmar, Facebook ble brukt til drivstoff vold mot Muslimer i mange år, der Ganger sa oppstått på grunn av en “papirarbeid feil” i sin rulebooks som instruert slik at innlegg som burde ha faktisk blitt fjernet.

Mye av tiden rapport fyller ut feltene om prosedyrer på Facebook som i lang tid har mislyktes med å håndtere problemene på sin plattform. Men det illustrerer også hvor stor grad Facebook sliter med å håndtere problemene som fortsetter å oppstå som den forsøker å være i samsvar med kravene til respektive regjeringer.

Prøv så kan det å håndtere sitt eget produkt, Facebook har en Facebook-størrelse problem som sannsynligvis ikke kommer bort helst snart.

Oppdatert 12/27/18 9:15 pm OG: Oppdatert for å gjenspeile at noen dokumenter referert av the New York Times på torsdag var det tidligere er rapportert av Hovedkort.

[New York Times]

Deler Denne Historien


Date:

by