Facebook CEO Mark Zuckerberg.Foto: AP
Na een zware week van kritiek over Facebook CEO Mark Zuckerberg slordige verklaring voor waarom hij niet verbieden conspiracy site van Infowars—waaronder een zeer lastige raaklijn in blijkbaar geloven Holocaust ontkenners zijn niet “opzettelijk een verkeerde”—de social media gigant heeft aangekondigd dat het zal beginnen met het verwijderen van desinformatie die je in de echte wereld van geweld.
Volgens de New York Times, het nieuwe beleid is “grotendeels een reactie op de episodes in Sri Lanka, Myanmar en India” waar de geruchten zich snel verspreiden op Facebook, wat leidt tot aanvallen gericht op etnische minderheden. Het papier schrijft dat Facebook het personeel toegeven dat ze het dragen van verantwoordelijkheid” om af te remmen dat de vorm van content die op de site:
“We hebben vastgesteld dat er sprake is van een vorm van desinformatie die wordt gedeeld in bepaalde landen kan aanzetten onderliggende spanningen en leiden tot fysieke schade offline,” zei Tessa Lyon, een Facebook product manager. “We hebben een bredere verantwoordelijkheid om niet alleen te verminderen, zodat het type van de inhoud, maar verwijder deze.”
In een andere verklaring te CNBC, een Facebook-woordvoerder kenmerkt het beleid van onderdrukking van een bepaald type inhoud hebben ze waardig geacht worden verwijderd, terwijl de verdediging van hun laissez-faire benadering naar andere dubieuze berichten:
“Het verminderen van de verspreiding van desinformatie—in plaats van het verwijderen van het outright—het juiste evenwicht tussen vrijheid van meningsuiting en een authentieke en veilige gemeenschap,” een Facebook-woordvoerder zei in een verklaring aan CNBC. “Er zijn bepaalde vormen van desinformatie die hebben bijgedragen aan het toebrengen van lichamelijk letsel, en we zijn het maken van een verandering in het beleid, die ons in staat zal stellen om dat type van inhoud naar beneden. We zullen beginnen met de uitvoering van het beleid tijdens de komende maanden.”
Volgens CNBC, Facebook zegt dat het nieuwe beleid zal samenwerken met lokale maatschappelijke groepen te identificeren tekst-en beeldmateriaal met het doel bij te dragen tot “of de verergering van geweld of fysieke schade” voor verwijdering. De CNBC-rapport merkt ook op dat het proces te betrekken Facebook interne image recognition technologieën, vermoedelijk een vergelijkbaar systeem om de één gebruikt voor het automatisch opschonen wraak porno van de site.
Dat is een verbetering ten opzichte van de huidige situatie. Bijvoorbeeld, in Sri Lanka en Myanmar, het bedrijf geconfronteerd met de harde kritiek van lokale Ngo ‘ s voor de vermeende passiviteit als het aanzetten en propaganda wijd verbreid op de site. In beide landen, ondanks het feit dat grote userbases, rapporten geven aan Facebook grotendeels mislukt te huren genoeg moderatie personeel. Samenwerken met lokale organisaties kunnen helpen de site minder van een afwezige verhuurder.
Echter, dit is waarschijnlijk te ver van een slam dunk. Voor een, Facebook normen voor wat kwalificeert als ongepaste inhoud zijn gewone lax, en er zal veel van de inhoud te doorzoeken. Het berust vaak op een geautomatiseerde methoden die gemakkelijk kunnen worden opgelost, of anderen die gewoon uiteindelijk terugslaan (zoals het geval was met de “betwiste” vlaggen het op dubieuze artikelen). In dit geval is het gemakkelijk voor te stellen einde tot een oneindige spel van Whack-A-Mole waarin ze alleen het plegen van de middelen te staren op een gat.
Als de NYT schreef, zijn er twee andere oplossingen de site is vooruit met: downranking berichten gemarkeerd als vals door de derde-partij fact checkers en het toevoegen van “informatie vakjes onder aantoonbaar onjuist nieuws verhalen, wat suggereert dat andere bronnen van informatie voor mensen om te lezen.” Terwijl de methode zal waarschijnlijk nog enige invloed, Facebook het fact checkers hebben herhaaldelijk zijn bezorgdheid geuit dat de site het systeem is te beperkt om effectief te zijn.
Bovendien, de NYT gemeld Facebook heeft geen plannen voor de uitrol van de nieuwe regels van haar dochteronderneming, de gecodeerde chatdienst WhatsApp, die is gekoppeld aan meerdere dodelijke hoaxes—hoewel Instagram is inbegrepen:
De nieuwe regels gelden voor één van Facebook ‘ s andere grote social media eigenschappen, Instagram, maar niet om WhatsApp, waar een vals nieuws is ook verspreid. In India, bijvoorbeeld, valse geruchten verspreid via WhatsApp over kind ontvoerders hebben geleid tot mob geweld.
Politiewerk WhatsApp kan een beetje moeilijker of ronduit onmogelijk, zoals Facebook ogenschijnlijk niet kan zien wat de inhoud van de berichten zonder afzwakking van de encryptie, dus het is iets tussen een rots en een harde plaats. (De Indische dagelijkse Economische Tijden schreef vorig jaar, autoriteiten er nog steeds van mening dat WhatsApp groep beheerders aansprakelijk voor de inhoud van de chats.)
Dan is er de kwestie van Facebook ‘ s vermeld inzet voor de vrije meningsuiting, die is leuk in theorie, maar vaag genoeg in de praktijk dat het lijkt te functioneren in eerste instantie als een schild tegen kritiek. Gekoppeld aan dit is de site van de gewone wariness, gekoppeld in een 2016 Gizmodo post vermeende afwijking in de nu ter ziele gegane trending nieuws sectie van het beledigen van conservatieve en extreem-rechtse groepen te popelen om te huilen censuur. Neem bijvoorbeeld Infowars, die het verspreiden van complottheorieën over een DC-gebied pizza restaurant tot een schutter liet zien. Als de Washington Post merkte op, het is moeilijk te verzoenen hoe Facebook de “versterkte-up benadering van de verkeerde informatie kan worden gecombineerd met een aantal van de belangrijkste leveranciers is toegestaan om op de site blijven.
Deze problemen zijn niet te overzien. Als voormalig Gawker editor in chief Max Lees schreef onlangs zijn ze ook misschien onoplosbaar korte van een radicale herstructurering van de onderneming, aangezien Facebook de schaal is nu zo groot en het nadert een vorm van “soevereine macht zonder verantwoordelijkheid” (of inderdaad, een coherente visie op wat het hoort te zijn).
“Er is niet altijd een echt duidelijke lijn,” Facebook product manager Tessa Lyons zei tegen de NYT. “Dit is moeilijk—dat is de reden waarom we itereren. Dat is de reden waarom we het nemen van serieuze feedback.”
Correctie: in Een eerdere versie van dit artikel geciteerd in de New York Times als de rapportage die Instagram werd niet opgenomen in de nieuwe regels. Volgens een Facebook-woordvoerder, dit nieuwe beleid zal uitbreiden naar Instagram, en de uitvoering voor WhatApp is onderzocht. De tijd heeft ook sinds gaf een correctie, en we hebben verwisseld hun oorspronkelijke passage voor de bijgewerkte. Wij betreuren de fout.
[New York Times]