Facebook utgivelser innhold moderering retningslinjer – reglene lenge holdt hemmelig

Et år etter the Guardian avslørte Facebook ‘ s secret regler for sensur beslutninger, har selskapet utgitt en offentlig versjon

Tir 24 Apr 2018 23.14 BST

Sist endret på Ons 25 Apr 2018 00.12 BST

The 27-page document provides insight into the rationale Facebook uses to developed its ‘community standards’.

27-siders dokument, gir innsikt i begrunnelsen Facebook bruker for å utviklet sin “samfunnet standarder’.
Foto: Gitt Ruvic/Reuters

Et år etter the Guardian avslørte Facebook ‘ s secret regler for innhold moderering, har selskapet utgitt en offentlig versjon av retningslinjer for hva som er og ikke er tillatt i området, og for første gang opprettet en prosess for enkeltpersoner til å klage på sensur beslutninger.

Avsløringen kommer midt i en publisitet blitz av selskapet for å få brukernes tillit følgende Observatør ‘ åpenbaring i Mars at den personlige Facebook-data titalls av millioner av brukere ble feil fremstilt ved en politisk rådgivning.

I en Facebook-innlegget på tirsdag, selskapets administrerende direktør, Mark Zuckerberg, sa at offentliggjøring av retningslinjene var et skritt i retning av hans personlige mål “å utvikle en mer demokratisk og uavhengig system for fastsettelse av Facebook fellesskapsregler”.

Er Facebook kan skiftes ut? Tech investor lanserer forsøk på å ‘starte prosessen’

Les mer

27-siders dokument, gir innsikt i begrunnelsen Facebook bruker til å utvikle sine standarder, som må balansere brukernes sikkerhet og retten til ytringsfrihet og samtidig opprettholde en tilstrekkelig renset plattform for annonsørene.

Selskapet har lang utestengt innhold fra terrororganisasjoner og hat grupper, for eksempel, men dokumentet avslører hvordan Facebook faktisk definerer slike grupper.

“Har du fortalt oss at du forstår ikke vår politikk; det er vårt ansvar å gi klarhet,” sa Monika Bickert, Facebook vice-president of global policy management, i innlegget.

Andre detaljer inkluderer forbud på innlegg der en person innrømmer å bruke ikke-medisinske stoffer “mindre postet i et recovery-sammenheng”, innlegg som sammenligner en privatperson som “dyr som er kulturelt oppfattet som intellektuelt eller fysisk underlegen eller til et livløst objekt”, og bilder som inkluderer “tilstedeværelse av biprodukter av seksuell aktivitet” med mindre innholdet er ment å være satirisk eller humoristisk.

En retningslinje forbud bilder som inkluderer en “synlig anus og/eller helt naken close-ups av baken med mindre photoshopped på en offentlig person”. Spam-meldinger er ikke tillatt å “løfte ikke-eksisterende Facebook-funksjoner”. Selskapet er også forbud såkalt “false flag” påstander (f.eks hevde at ofre for en voldsom tragedie lyver eller er betalt aktører), som definerer slike uttalelser som trakassering.

Facebook ‘ s rolle som en global utgiver – og sensurere – har lenge skapt kontrovers for plattformen, og ytringsfrihet talsmenn har i mange år tatt til orde for mer åpenhet fra Facebook rundt sin beslutningsprosessen for innhold takedowns.

Spill Av Video

2:37

Gjorde senatorer avhør Facebook ‘ s Mark Zuckerberg korrekt internett? – video

Sarah T Roberts, en UCLA assisterende professor i informasjonsvitenskap, sa: “[utlevering] viser på ingen usikre vilkår for stor makt på disse plattformene har i form av å forme folks informasjon om forbruk og hvordan folk formulere sine standpunkter – og hvor viktig det er å forstå den interne mekanismer i spill.”

Men dokumentet etterlater ut den type konkrete eksempler på regler som the Guardian publiserte i Facebook-Filer. De dokumenter som ble brukt til trening innhold moderatorer – åpenbart hvor komplisert det er å bruke tilsynelatende enkle standarder. I henhold til opplæring lysbilder på hatefulle ytringer, for eksempel utsagn som “Du er slik en Jøde” eller “Innvandrere er så skittent” er tillatt, men å skrive “det Irske er den beste, men egentlig fransk suger” er det ikke.

Utgivelsen av Facebook regler som trekker oppmerksomhet til det vanskelige arbeidet med de 7 500 innhold moderatorer – mange av dem underleverandører – som har til oppgave med å anvende reglene til milliarder av biter av innhold som er lastet opp til plattformen. Den lave betalt jobb innebærer å være utsatt for de mest grafiske og ekstreme innhold på internett, noe som gjør rask dommer om hvorvidt et bestemt symbol er knyttet til en terrorgruppe eller om en naken tegning er satirisk, pedagogiske, eller bare sexy.

Hvordan akademisk i sentrum av Facebook-skandalen forsøkt – og mislyktes – å spinne personlige data inn i gull

Les mer

“Nå som vi vet om politikk, hva kan vi vite om mennesker som kan håndheve dem?” sa Roberts. “Hvordan kan vi være sikker på at de har den støtten og informasjonen de trenger for å ta avgjørelser på vegne av plattformen, og alle av oss?”

Mens tale talsmenn har lenge kalt på Facebook til å gi noen form for appellerer prosessen for fjerning av innhold, og mange sa tirsdag at selskapets gjeldende plan var utilstrekkelig.

Den nye planen, som selskapet sa ville bli bygget på i løpet av neste år, vil tillate brukere som innlegg ble fjernet for nakenhet, seksuell aktivitet, hat eller vold for å be om at deres innlegg re-anmeldt av en menneskelig moderator.

“Brukerne trenger en meningsfull, robust rett til å klage på fjerning av post – og før den fjernes,” Nicole Ozer, direktør for teknologi og borgerrettigheter for ACLU, sa i en uttalelse. Hun ringte på Facebook til å gi en prosess der brukere kan forklare hvorfor deres innhold bør ikke bli sensurert; hun også oppfordret Facebook for å frigjøre statistikk om innholdet av personvernhensyn.

Ozer også reist spørsmål om Facebook er avhengig av kunstig intelligens for å håndheve innholdet regler.

“AI vil ikke løse disse problemene,” sa hun. “Det vil trolig forverre dem.”


Date:

by