Facebook lukket 583m falske kontoer i første tre månedene av 2018

50

Firmaets første kvartalsvise moderering rapporten viser også omfanget av spam, hatefulle ytringer og vold

Tir 15 Mai 2018 15.00 BST

Sist endret på Tirsdag 15. Mai 2018 18.37 BST

Mobile phone users stand near a Facebook logo.

Facebook sa overveldende flertall av moderasjon handlingen var mot spam-innlegg og falske kontoer.
Foto: Gitt Ruvic/Reuters

Facebook tok moderering aksjon mot nærmere 1,5 mrd kontoer og innlegg som krenket sin samfunnet standarder i de tre første månedene av 2018, og selskapet har åpenbart.

I sin første kvartalsvise Samfunnet Standarder Håndheving Rapporten, Facebook sa overveldende flertall av moderasjon handlingen var mot spam-innlegg og falske kontoer: det tok affære på 837m biter av spam, og stenge ned en ytterligere 583m falske kontoer på nettstedet i tre måneder. Men Facebook også moderert 2,5 m biter av hatefulle ytringer, 1.9 m biter av terrorist-propaganda, 3.4 m biter av grafisk vold og 21 millioner sdr deler av innholdet med voksne nakenhet og seksuell aktivitet.

“Dette er starten av reisen og ikke slutten av turen, og vi prøver å være så åpne som vi kan,” sa Richard Allan, Facebook vice-president av offentlig politikk for Europa, Midt-Østen og Afrika.

Mengden av innhold moderert av Facebook er påvirket av både selskapets evne til å finne og handle på krenkende materiale, og den store mengden av elementer som er lagt inn av brukere. For eksempel, Alex Schultz, selskapets vice-president av data analytics, sa mengden av innhold moderert for grafisk vold nesten tredoblet kvartal-til-kvartal.

Grafisk 1

En hypotese for å øke, sa Schultz, er at “[den siste kvartal], noen dårlige ting som skjedde i Syria. Ofte når det er ekte dårlige ting i verden, massevis av at ting gjør det på Facebook.” Han understreket at mye av moderasjon i de tilfeller ble “bare merking noe som forstyrrende”.

Flere kategorier av innhold som bryter retningslinjene som er skissert i Facebook er moderasjon retningslinjer – herunder barn for seksuell utnyttelse bilder, hevn porno, troverdig vold, suicidal innlegg, mobbing, trakassering, personvern brudd og brudd på opphavsretten er ikke inkludert i rapporten.

På barn utnyttelse bilder, Schultz sier at selskapet fortsatt behov for å ta beslutninger om hvordan for å kategorisere ulike grader av innhold, for eksempel tegneserie barn utnyttelse bilder.

“Vi er mye mer fokusert på dette område på å beskytte barna enn å finne ut nøyaktig hva kategoriseringen vi kommer til å slippe i den eksterne rapporten,” sa han.

Facebook har også klart å øke mengden av innhold som er tatt ned med nye AI-basert verktøy som det brukes til å finne og moderat innhold uten å måtte individuelle brukere å flagge det som mistenkelig. Disse verktøyene fungerte spesielt godt for innhold, for eksempel falske kontoer og spam: selskapet sa den klarte å bruke verktøy for å finne 98.5% av falske brukerkontoer det stengt ned, og “nesten 100%” av spam.

Grafisk 2

Automatisk rapportering jobbet godt for å finne forekomster av nakenhet, siden, sa Schultz, det var lett for bilde anerkjennelse teknologi for å vite hva du skal se etter. Hardere, på grunn av behovet for å ta kontekstuelle holdepunkter i betraktning, var moderasjon for hatefulle ytringer. I den kategorien, Facebook sa: “vi fant og flagget rundt 38% av innholdet som vi senere tok saken på, før brukerne rapporterte det til oss”.

Facebook har laget beveger seg å øke åpenheten i de siste månedene. I April lanserte selskapet en offentlig versjon av retningslinjer for hva som er og ikke er tillatt på stedet – et år etter the Guardian avslørte Facebook ‘ s secret regler for innhold moderering.

Selskapet har også annonsert tiltak som krever politisk annonsører til å gjennomgå en slik prosess, og avslører sin tilknytning sammen med sine annonser.

Facebook er moderasjon tallene kommer en uke etter utgivelsen av Santa Clara Prinsipper, et forsøk på å skrive en guidebok for hvordan store plattformer bør moderere innhold. Den fastslår at sosiale nettverk bør publisere antall innlegg de fjerne, gi detaljert informasjon for brukere med innhold slettes å forklare hvorfor, og tilbyr muligheten til å anke avgjørelsen.

“Dette er en flott første skritt,” sier Jillian York fra Electronic Frontier Foundation. “Vi imidlertid ikke har en følelse av hvor mange feil takedowns skje – hvor mange klager som resulterer i innhold i å bli gjenopprettet. Vi ønsker også å se bedre meldinger til brukere når et tiltak har blitt tatt på deres konto, slik at de vet de spesifikke brudd.”

Facebook er ikke den eneste plattformen å ta skritt mot åpenhet. Siste måned YouTube åpenbart det fjernet 8.3 m videoer for å bryte sin fellesskapet mellom oktober og desember.

“Jeg tror dette er en direkte respons på det presset som de har vært under for flere år fra ulike interessenter [inkludert det sivile samfunn grupper og akademikere],” sa York.