Ett år efter the Guardian avslöjade Facebook ‘ s secret regler för censur beslut, företaget har släppt en offentlig version
Tis 24 Apr 2018 23.14 BST
Senast ändrad Ons 25 Apr 2018 00.12 BST

Den 27-sidiga dokumentet ger en inblick i motiven Facebook använder för att utveckla sin “samhället normer”.
Foto: Dado Ruvic/Tt-Reuters
Ett år efter the Guardian avslöjade Facebook ‘ s secret regler för innehåll måtta, har företaget släppt en offentlig version av sin riktlinjer för vad som är och inte är tillåtet på platsen, och för första gången skapat en process för den enskilde att överklaga censur beslut.
Offentliggörande kommer mitt i en offentlighet blitz av företaget för att återfå användarnas förtroende efter Observatör uppenbarelse i Mars att den personliga Facebook-uppgifter för tiotals miljoner användare var felaktigt erhållen genom en politisk rådgivning.
I ett Facebook-inlägg på tisdag, företagets vd, Mark Zuckerberg, sade att publiceringen av riktlinjerna var ett steg mot att hans personliga mål är “att utveckla en mer demokratisk och oberoende system för att bestämma Facebook Samhället Normer”.
Är Facebook utbytbara? Tech investor lanserar försök att “starta processen”
Läs mer
Den 27-sidiga dokumentet ger en inblick i motiven Facebook använder för att utveckla sina normer, som måste hitta en balans mellan användarnas säkerhet och rätten till yttrandefrihet och samtidigt upprätthålla en tillräckligt desinficerat plattform för annonsörer.
Företaget har länge blockerat innehåll från terroristorganisationer och hatar grupper, till exempel, men i det dokument som avslöjar hur Facebook faktiskt definierar sådana grupper.
“Du har berättat att du inte förstår vår politik, det är vårt ansvar att ge klarhet, säger Monika Bickert, Facebook är vice vd för global policy management, i ett inlägg.
Andra detaljer inkluderar förbud mot inlägg där en enskild som medger att med hjälp av icke-medicinska droger “om inte inlagd i en återhämtning sammanhang”, inlägg som jämför en enskild person för att “djur som är kulturellt uppfattas som intellektuellt eller fysiskt sämre eller till ett livlöst objekt”, och bilder som är “förekomsten av av-produkter av sexuell aktivitet” om innehållet är avsett att vara satirisk och humoristisk.
En riktlinje förbud bilder som inkluderar en “synlig anus och/eller helt naken närbilder på skinkorna, såvida inte photoshoppad på en offentlig person”. Spam-meddelanden är inte tillåtet att “löftet icke-existerande Facebook-funktioner”. Bolaget också förbud mot så kallade “false flag” – påståenden (t.ex. hävdar att de är offer för en våldsam tragedi ljuger eller är betalda skådespelare), att definiera sådana uttalanden som trakasserier.
Facebook: s roll som en global utgivare – och censurera – har länge skapat kontroverser för plattformen och det fria ordet förespråkare har i flera år verkat för ökad öppenhet från Facebook runt beslutsprocessen för innehållet nedtagningar.
Spela Upp Video
2:37
Gjorde senators förhör Facebook Mark Zuckerberg förstår internet? – video
Sarah T Roberts, en UCLA assistant professor of information studies, sade: “[offentliggörande] visar i tydliga ordalag stor makt dessa plattformar har när det gäller att forma människors information om konsumtion och hur människor formulerar sina åsikter – och hur viktigt det är att förstå den inre mekanismer som spelar in.”
Men dokumentet lämnar ut den typ av konkreta exempel på politikens genomförande som Guardian publicerade i Facebook-Filer. De dokument som användes för utbildning innehåll moderatorer visar hur komplicerat det är att ansöka till synes enkla standarder. Enligt utbildning diabilder om hate speech, till exempel, de uttalanden som “Du är en Jude” eller “Invandrare är så smutsig” är tillåtna, men att skriva “Irish är den bästa, men egentligen franska suger” är det inte.
Lanseringen av Facebook ‘ s regler uppmärksammar den svåra arbete 7.500 innehåll moderatorer – många av dem är underleverantörer – som har till uppgift att, med tillämpning av de regler miljarder bitar av innehåll som laddas upp till plattformen. Lågavlönade jobb innebär att vara utsatt för den mest grafiska och extrema innehåll på internet, att göra snabba bedömningar om huruvida en viss symbol är kopplad till en terroristgrupp eller om en naken ritningen är satiriska, pedagogiska, eller bara slipprig.
Hur akademiska i centrum av Facebook skandalen försökte – och misslyckades – att snurra personuppgifter till guld
Läs mer
“Nu när vi vet om politik, vad kan vi veta om de människor som kan tvinga dem?” sade Roberts. “Hur kan vi vara säkra på att de har det stöd och den information de behöver för att fatta beslut på uppdrag av plattformen och alla av oss?”
Medan tal förespråkar har länge krävt på Facebook för att ge någon form av överklaganden process för att ta bort innehåll, många sade på tisdagen att bolagets nuvarande planen var otillräcklig.
Den nya planen, som sade företaget skulle byggas på under nästa år, kommer att tillåta användare vars inlägg togs bort för nakenhet, sexuell aktivitet, hets mot folkgrupp eller våld för att begära att deras inlägg på nytt ses över av en mänsklig moderator.
“Användare behöver en meningsfull, robust rätt att överklaga borttagning av post – och innan den tas bort,” Nicole Ozer, direktören för teknik och medborgerliga fri-och rättigheter för ACLU, sade i ett uttalande. Hon kallade på Facebook för att ge en process där användare kan förklara varför deras innehåll ska inte censureras, hon uppmanade också Facebook för att släppa statistik om dess innehåll upptag.
Ozer också farhågor om att Facebook är beroende av artificiell intelligens för att verkställa innehåll regler.
“AI kommer inte att lösa dessa problem,” sade hon. “Det kommer sannolikt att förvärra dem.”