Virksomhedens første kvartalsvise moderation rapport også viser, at omfanget af spam, hadefuld tale og vold
Tue 15 Maj 2018 15.00 BST
Sidst opdateret Tir 15 Maj 2018 18.37 BST
Facebook sagde, at det overvældende flertal af moderate mængder indsats var mod spam indlæg og falske konti.
Foto: Siden Ruvic/Reuters
Facebook tog moderation indsats mod knap 1,5 mia konti og indlæg, som har overtrådt sin eu-standarder i de første tre måneder af 2018, virksomheden har afsløret.
I sin første kvartalsvise Fællesskabets Normer Håndhævelse Rapport, Facebook sagde, at det overvældende flertal af moderate mængder indsats var mod spam indlæg og falske konti: det tog handling på 837m stykker af spam, og lukke en yderligere 583m falske konti på hjemmesiden i tre måneder. Men Facebook er også modereret 2,5 m stykker af hadske ytringer, 1.9 m stykker af terrorpropaganda, 3.4 m stykker af grafisk vold og 21m dele indhold med voksne nøgenhed og seksuel aktivitet.
“Dette er begyndelsen af rejsen og ikke slutningen af rejsen, og vi prøver at være så åben som vi kan,” sagde Richard Allan, Facebook ‘ s vice-præsident for den offentlige politik for Europa, Mellemøsten og Afrika.
Mængden af indhold, modereret af Facebook er påvirket af både virksomhedens evne til at finde og handle på krænkende materiale, og den store mængde af genstande indsendt af brugere. For eksempel, Alex Schultz, selskabets næstformand i data analytics, sagde den mængde af indhold, der er modereret til grafisk vold næsten tredoblet kvartal-til-kvartal.
En hypotese for den stigning, Schultz sagde, at “i [den seneste kvartal], nogle dårlige ting, der skete i Syrien. Ofte, når der er virkelige dårlige ting i verden, masser af ting, der gør det på Facebook.” Han understregede, at meget af den moderation i de tilfælde, var “blot at markere noget så foruroligende”.
Der er flere kategorier af krænkende indhold, der er skitseret i Facebook ‘ s retningslinjer for moderation – herunder seksuel udnyttelse af børn billedsprog, hævn porno, troværdig, vold, selvmord indlæg, mobning, chikane, krænkelser af privatlivets fred og ophavsretten – er ikke medtaget i rapporten.
På udnyttelse af børn billedsprog, Schultz sagde, at selskabet stadig er behov for at træffe beslutninger om, hvordan til at kategorisere forskellige kvaliteter af indhold, for eksempel tegnefilm barn udnyttelse billeder.
“Vi er meget mere fokuseret på denne plads på at beskytte børn end at finde ud af præcis, hvad kategorisering, vi kommer til at frigive i den eksterne rapport,” sagde han.
Facebook har også formået at øge mængden af indhold, der er taget ned med nye AI-baserede værktøjer, som det bruges til at finde og ændre indhold uden behov for individuelle brugere til at anmelde den som mistænkelige. De værktøjer, der virkede særlig godt for indhold såsom falske konti og spam: selskabet sagde, at det lykkedes at bruge værktøjer til at finde 98,5% af falske konti lukket ned, og “næsten 100%” af spam.
Automatisk markering af arbejdet godt for at finde forekomster af nøgenhed, da Schultz sagde, det var let for billede anerkendelse teknologi til at vide, hvad man skal kigge efter. Sværere, fordi det er nødvendigt at tage kontekstuelle ledetråde i betragtning, var moderation for opfordring til hate crimes. I denne kategori, Facebook sagde, “vi fandt, og markeres på omkring 38% af det indhold, som vi efterfølgende har taget initiativer til, før brugerne rapporterede det til os”.
Facebook har gjort skridt til at forbedre gennemsigtigheden i de seneste måneder. I April, har selskabet udgivet en offentlig version af sine retningslinjer for, hvad der er og ikke er tilladt på stedet – et år efter the Guardian afslørede Facebook ‘ s hemmelige regler for indhold moderation.
Virksomheden har også meddelt, foranstaltninger, der kræver politiske annoncører til at gennemgå en godkendelse proces og afsløre deres tilhørsforhold ved siden af deres reklamer.
Facebook ‘ s moderation tal kommer en uge efter udgivelsen af Santa Clara Principper, et forsøg på at skrive en vejledning for, hvordan store platforme bør moderat indhold. De principper, at sociale netværk, bør offentliggøre antallet af stillinger, de fjerne, give detaljerede oplysninger for brugere, hvis indhold er slettet, forklarer hvorfor, og giver mulighed for at anke afgørelsen.
“Dette er et godt første skridt,” sagde Jillian York fra Electronic Frontier Foundation. “Men vi har ikke en fornemmelse af, hvor mange forkerte takedowns ske – hvor mange klager, der resulterer i indhold bliver gendannet. Vi vil også gerne se bedre beskeder til brugere, når en handling er blevet taget på deres konto, så de kender den konkrete overtrædelse.”
Facebook er ikke den eneste platform at tage skridt i retning af åbenhed. I sidste måned YouTube viste det fjernet 8,3 m videoer til at tilsidesætte sine retningslinjer for fællesskabet mellem oktober og December.
“Jeg tror, at dette er en direkte reaktion på det pres de har været under i flere år fra de forskellige interessenter [herunder civilsamfundets grupper og akademikere],” sagde York.