Lekket Dokumenter sette Søkelys på Kompleksiteten i Moderere Facebook Innhold

Publikum fikk en sjelden innsikt i hvordan Facebook prøver å holde krenkende og farlig innhold i frakoblet modus på en
rapport publisert søndag.

Konfidensielle dokumenter lekket til The Guardian utsatt hemmelige regler som Facebook politikk innlegg på problemer som vold, hat, terror, pornografi, rasisme og selvskading, samt emner som sport å fikse og kannibalisme.

Etter gjennomgang av mer enn 100 intern opplæring manualer, regneark og flytdiagram, The Guardian funnet Facebook er moderasjon politikk ofte uklare.

For eksempel, trusler mot en leder for en stat automatisk fjernet, men trusler mot andre personer som er urørt, med mindre de er ansett som “troverdig.”

Bilder av nonsexual fysiske overgrep og mobbing av barn må ikke bli slettet med mindre de har en sadistiske eller feirende element. Bilder av dyremishandling er tillatt, men hvis misbruket er ekstremt irriterende, må de være merket med “urovekkende.”

Facebook vil tillate folk å live-stream forsøk på å skade seg selv fordi det “ønsker ikke å sensurere eller straffe mennesker i nød.”

Noen Facebook-medlem med mer enn 100.000 tilhengere regnes som en offentlig figur og er gitt færre rettigheter enn andre medlemmer.

Å Holde Folk Trygge

I svar på spørsmål fra The Guardian, Facebook forsvarte sin moderasjon innsats.

“Å holde folk på Facebook trygt er det viktigste vi gjør,” sa Monika Bickert, Facebook ‘ s head of global policy management.

“Vi jobber hardt for å gjøre Facebook så trygg som mulig, mens aktivering av det frie ord”, sa hun TechNewsWorld. “Dette krever en mye tanke til detaljerte og ofte vanskelige spørsmål, og få det til er noe vi tar svært alvorlig”.

Som en del av sin innsats for å “få det riktig” selskapet nylig kunngjorde det ville være å legge til 3000 mennesker til sin globale samfunnet team i løpet av neste år, for å se på de millioner av rapporter innhold misbruk Facebook mottar på en daglig basis.

“I tillegg til å investere i mer folk, er vi også utvikle bedre verktøy for å holde samfunnet vårt som er trygg,” Bickert sa. “Vi kommer til å gjøre det enklere å rapportere problemer til oss, raskere for våre lesere å finne ut hvilke innlegg som bryter med våre normer, og lettere for dem å kontakte politiet hvis noen trenger hjelp.”

Sjel-Ødelegger Arbeidet

Hvis Verge er rapporten åpenbart noe, det er hvordan komplekse moderere innhold på det sosiale nettverket har blitt.

“Det understreker bare hvor krevende politiarbeid innhold på et nettsted som Facebook, med sin enorme skala, er det,” bemerket Jan Dawson, sjefanalytiker i Jackdaw Forskning, og i en online-post.

Moderatorer må gå en fin linje mellom sensur og for å beskytte brukere, påpekte han.

“Det understreker også spenninger mellom de som ønsker Facebook å gjøre mer for å politiet upassende og ubehagelig innhold, og de som føler det allerede sensur for mye,” Dawson fortsatte.

Verken mennesker som skriver retningslinjer eller de å håndheve dem har en misunnelsesverdig jobb, sa han, og i tilfelle av innholdet moderatorer, at jobben kan bli vant til å ødelegge.

Likevel, “som vi også har sett med hensyn til live video nylig,” Dawson sa, “det er utrolig viktig og kommer til å bli en stadig dyrere satsingsområde for selskaper som Facebook og Google.”

‘Ingen Gjennomsiktighet Overhodet’

Facebook har shied bort fra å avgi mange detaljer om regler sin moderatorer bruke til å handle på innhold rapporterte til dem.

“De sier de ikke ønsker å publisere denne typen ting, fordi den gjør det mulig for kriminelle til å spill systemet,” sa Rebecca MacKinnon, direktør for Rangering av Digitale Rettigheter program på
Åpne Technology Institute.

“Likevel, det er for lite åpenhet nå, noe som er grunnen til at denne saken ble lekket,” fortalte hun TechNewsWorld.

Rangeringen av Digitale Rettigheter Prosjektet vurderer informasjon åpenhet for selskaper på et bredt spekter av politikk knyttet til ytringsfrihet og privatliv, MacKinnon forklart. Det spørsmål selskaper og søker informasjon om deres regler for innhold moderering, hvordan de gjennomfører disse reglene, og hva volum av innhold slettes eller begrenset.

“Med Facebook, det er ingen åpenhet overhodet,” MacKinnon sa. “Slik et lavt nivå av åpenhet er ikke tjene sine brukere eller deres selskap meget godt.”

Død av Utgiver

Som mengden av innhold på sosiale medier har vokst, det har vært etterlyst fra noen hjørner av Internett for behandling av nettsteder som utgivere. Nå er de behandlet kun som distributører som er ikke ansvarlig for hva brukerne sine innlegg på dem.

“Si selskaper er ansvarlig for alt brukerne gjør ikke kommer til å løse problemet,” MacKinnon sa. “Det vil trolig drepe mye av det er bra om sosiale medier.”

Gjør Facebook til en utgiver ikke bare ville ødelegge dens beskyttet status som et tredje-parts plattform, men også kan ødelegge selskapet, bemerket Karen Nord, direktør for Annenberg Program på Internett-Fellesskap på
Universitetet i Sør-California.

“Når du gjør subjektive redaksjonelle beslutninger, du er som en avis der innholdet har ansvar for forvaltning,” fortalte hun TechNewsWorld. “De aldri kunne montere et team som er stor nok til å ta beslutninger om alt som er lagt ut på Facebook. Det ville være slutten på Facebook.”


John P. Mello Jr. har vært en ECT Nyheter Network reporter
siden 2003. Hans fokusområder inkluderer cybersecurity, IT-problemer, personvern, e-handel, sosiale medier, kunstig intelligens, big data og forbrukerelektronikk. Han har skrevet og redigert for en rekke publikasjoner, inkludert Boston Business Journal,
Boston Phoenix, Megapixel.Net og Regjeringen
Sikkerhet Nyheter. E-John.


Date:

by