Facebook stängt 583 mkr falska konton i de första tre månaderna av 2018

Företagets första kvartalsvisa måtta rapporten visar också att omfattningen av spam, hatbrott och våld

Tis 15 Maj 2018 15.00 BST

Senast ändrad Tis 15 Maj 2018 15.25 BST

Mobile phone users stand near a Facebook logo.

Facebook sade att den överväldigande majoriteten av måtta åtgärder mot spam inlägg och falska konton.
Foto: Dado Ruvic/Tt-Reuters

Facebook tog måtta åtgärder mot nästan 1,5 miljarder euro-konton och tjänster som brutit mot sin gemensamma standarder i de första tre månaderna av 2018, har företaget visat.

I sin första kvartalsrapport Gemenskapen Standarder för Tillsyn Rapport, Facebook sa att den överväldigande majoriteten av måtta åtgärder mot spam inlägg och falska konton: det tog åtgärder på 837 bitar av spam, och stänga ner ett ytterligare 583 mkr falska konton på plats i tre månader. Men Facebook också modereras 2,5 m bitar av hatpropaganda, 1.9 m bitar av terroristpropaganda, 3.4 m bitar av grafiskt våld och 21 bitar av innehåll med vuxen nakenhet och sexuella aktiviteter.

“Det här är resans början och inte slutet på resan och vi försöker vara så öppna som vi kan”, sade Richard Allan, Facebook ‘ s vice president of public policy för Europa, Mellanöstern och Afrika.

Mängden innehåll modereras av Facebook är influerad av både företagets förmåga att hitta och handla på olagligt material, och den stora mängden artiklar som publiceras av användare. Till exempel, Alex Schultz, företagets vice vd för data analytics, sade mängden innehåll modereras för grafiskt våld nästan tredubblats jämfört med föregående kvartal.

Bild 1

En hypotes för ökningen, Schultz säger, att “i [det senaste kvartalet], några dåliga saker som hände i Syrien. Ofta när det är riktigt dåliga saker i världen, massor av saker som gör det till Facebook.” Han framhöll att mycket av dämpningen i dessa fall var “helt enkelt märkning något som stör”.

Flera kategorier av innehåll som bryter mot policyn beskrivs i Facebook är måtta riktlinjer, inklusive sexuell exploatering av barn, bilder, revenge porn, trovärdigt våld, självmord inlägg, mobbning, trakasserier, integritet kränkningar och intrång i upphovsrätten – är inte med i rapporten.

Om sexuell exploatering av bilder, Schultz säger att företaget fortfarande behövs för att fatta beslut om hur man ska kategorisera olika grader av innehåll, till exempel tecknat utnyttjande av barn bilder.

“Vi är mycket mer fokuserat på i detta utrymme på att skydda barnen än att räkna ut exakt vad kategoriseringen vi kommer att släppa i den externa rapporten,” sade han.

Facebook har också lyckats med att öka mängden innehåll tas ner med nya AI-baserade verktyg som används för att hitta och måttliga innehåll utan att behöva enskilda användare att flagga för det som misstänkta. Dessa verktyg fungerat särskilt väl för innehåll, till exempel falska konton och skräppost: de sade företaget att det lyckats använda verktyg för att hitta 98,5% av den falska konton att stängas ner, och “nästan 100%” av spam.

Bild 2

Automatisk flaggning fungerat bra för att hitta fall av nakenhet, eftersom Schultz sade, att det var lätt för bildigenkänning teknik för att veta vad man ska leta efter. Svårare, på grund av behovet att ta kontextuella ledtrådar hänsyn, var måtta för hets mot folkgrupp. I den kategorin, Facebook sa, “vi finns och flaggade för cirka 38 procent av det innehåll som vi därefter vidtog åtgärder på, innan användare rapporterat det till oss”.

Facebook har gjort ansträngningar för att förbättra insynen i de senaste månaderna. I April släppte företaget en offentlig version av riktlinjerna för vad som är och inte är tillåtet på platsen – ett år efter the Guardian avslöjade Facebook ‘ s secret regler för innehåll måtta.

Bolaget meddelade även åtgärder som kräver politiska annonsörer att genomgå en process för autentisering och avslöja deras tillhörighet tillsammans med sina annonser.

Facebook är måtta siffror kommer en vecka efter utgivningen av Santa Clara Principer, ett försök att skriva en guidebok för hur stora plattformar bör måttlig innehåll. Principerna staten att sociala nätverk ska offentliggöra antal inlägg de bort, ger detaljerad information för användare vars innehåll raderas förklara varför, och erbjuder en chans att överklaga beslutet.

“Detta är ett bra första steg, säger Jillian York från Electronic Frontier Foundation. “Men vi har inte en känsla av hur många felaktiga nedtagningar hända – hur många överklaganden som följd innehåll återställs. Vi vill också se bättre meddelanden till användare när en åtgärd har vidtagits på deras konto, så att de vet att de särskilda kränkning.”

Facebook är inte den enda plattformen tar steg mot öppenhet. Förra månaden YouTube visade det bort 8.3 m videor för att bryta mot eu: s riktlinjer mellan oktober och December.

“Jag anser att detta är ett direkt svar på det tryck som de har varit under flera år från olika intressenter (inklusive det civila samhället och akademiker],” sa York.


Date:

by