Et år efter the Guardian afslørede Facebook ‘ s hemmelige regler for censur beslutninger, virksomheden har udgivet en offentlig version
Tue 24 Apr 2018 23.14 BST
Sidst opdateret den Ons 25 Apr 2018 00.12 BST
Den 27-siders dokument, der giver indsigt i de rationale Facebook bruger til at udviklede sit “fællesskabets normer”.
Foto: Siden Ruvic/Reuters
Et år efter the Guardian afslørede Facebook ‘ s hemmelige regler for indhold moderation, selskabet har udgivet en offentlig version af sine retningslinjer for, hvad der er og ikke er tilladt på stedet, og for første gang skabt en proces for den enkelte at appellere censur beslutninger.
Den oplysning kommer midt i en reklame blitz af virksomheden til at genvinde brugernes tillid følgende Observatør åbenbaring i Marts, at den personlige Facebook-data af snesevis af millioner af brugere var forkert fremstillet af et politisk rådgivning.
I et Facebook-indlæg på tirsdag, selskabets administrerende direktør, Mark Zuckerberg, sagde, at offentliggørelsen af retningslinjerne var et skridt i retning af at hans personlige mål “at udvikle en mere demokratisk og uafhængigt system til bestemmelse af Facebook ‘s Standarder”.
Er Facebook udskiftelig? Tech investor lancerer forsøg på at ‘starte processen’
Læs mere
Den 27-siders dokument, der giver indsigt i de rationale Facebook bruger til at udvikle sin standarder, som skal balancere brugernes sikkerhed og retten til ytringsfrihed, og samtidig bevare en tilstrækkelig renset platform for annoncører.
Virksomheden har i lang tid forbudt indhold fra terrororganisationer og had-grupper, for eksempel, men det dokument, der afslører, hvordan Facebook faktisk definerer disse grupper.
“Du har fortalt os, at du ikke forstår vores politik, det er vores ansvar at skabe klarhed,” siger Monika Bickert, Facebook ‘ s vice-president for global politik, forvaltning, i et blogindlæg.
Andre oplysninger omfatter forbud på indlæg, som en person indrømmer, at brug af ikke-medicinske lægemidler “, medmindre der er udgivet i en recovery-forbindelse”, indlæg, at sammenligne en privatperson til en “dyr, der er kulturelt opfattes som intellektuelt eller fysisk underlegne, eller at en livløs genstand”, og billeder, der omfatter “tilstedeværelsen af biprodukter af seksuel aktivitet”, medmindre det indhold, der er beregnet til at være satirisk eller humoristisk.
En retningslinje forbud mod billeder, der omfatter en “synlig anus og/eller helt nøgen og close-ups af balder, medmindre photoshopped på en offentlig figur”. Spam-meddelelser er ikke tilladt at “løfte ikke-eksisterende Facebook-funktioner”. Virksomheden omfatter også et forbud mod såkaldte “false flag” – udsagn (f.eks hævder, at de er ofre for en voldsom tragedie, lyver eller er betalt aktører), at definere sådanne udtalelser som chikane.
Facebook ‘ s rolle som en global udgiver – og censurere – har længe skabt kontroverser til platformen, og der er gratis tale-fortalere har i årevis været fortaler for mere åbenhed fra Facebook omkring beslutningsprocessen for indhold takedowns.
Afspil Video
2:37
Gjorde senatorer afhøring Facebook Mark Zuckerberg forstå internettet? – video
Sarah T Roberts, en UCLA assisterende professor i informationsvidenskab, sagde: “[offentliggørelse], som viser, i utvetydige vendinger, den store magt, disse platforme i form af forme folks oplysninger forbrug, og hvordan mennesker til at formulere deres synspunkter – og hvor vigtigt det er at forstå de indre mekanismer, der er på spil.”
Men dokumentet blade ud af den slags konkrete eksempler på håndhævelsen, at the Guardian har offentliggjort på Facebook-Filer. De dokumenter, der blev brugt til træning indhold moderatorer afslørede, hvor kompliceret det er at anvende tilsyneladende ligetil standarder. I henhold til uddannelse dias på hadefuld tale, for eksempel, de erklæringer, “Du er sådan en Jøde” eller “Indvandrere er så beskidte” er tilladt, men at skrive “Irish er den bedste, men virkelig fransk sucks” er ikke.
Frigivelse af Facebook ‘ s regler gør opmærksom på, at det vanskelige arbejde 7.500 indhold moderatorer – mange af dem underleverandører – der har til opgave at anvende de regler, til de milliarder af stykker af indhold, som uploades til platform. De lavtlønnede job indebærer at være udsat for de mest grafik og ekstrem indhold på internettet, hvilket gør hurtige til at dømme om, hvorvidt et bestemt symbol, der er knyttet til en terrorgruppe eller om en nøgen tegning er satirisk, uddannelsesmæssige, eller blot slibrige.
Hvordan akademiske på centrum af Facebook-skandalen har forsøgt – og fejlet – at dreje personlige data til guld
Læs mere
“Nu, som vi vide, om de politikker, hvad kan vi vide om mennesker, der kan håndhæve dem?” sagde Roberts. “Hvordan kan vi være sikre på, at de har den støtte og information, de har brug for til at træffe beslutninger på vegne af platform, og alle af os?”
Mens tale fortalere har længe kaldt på Facebook til at give nogle form af appel-processen for fjernelse af indhold, mange sagde tirsdag, at selskabets nuværende plan, var utilstrækkelig.
Den nye plan, som virksomheden sagde ville blive bygget på i løbet af de næste år, vil tillade, at brugere, hvis indlæg blev fjernet for nøgenhed, seksuelle aktivitet, hadefulde eller vold for at anmode om at få deres indlæg igen gennemgået af en menneskelig moderator.
“Brugere, der har brug for en meningsfuld, robust retten til at klage fjernelse af eventuelle post – og før den er blevet fjernet,” Nicole Özer, direktør for teknologi og borgernes rettigheder for ACLU, sagde i en erklæring. Hun kaldte på Facebook til at give en proces, hvor brugere kan forklare, hvorfor deres indhold bør ikke blive censureret; hun opfordrede også Facebook statistikker om dens indhold optag.
Özer også givet anledning til bekymring om Facebook ‘ s afhængighed af kunstige intelligens til at håndhæve indhold regler.
“AI vil ikke løse disse problemer,” sagde hun. “Det vil sandsynligvis forværre dem.”