Facebook Sier At Nå Vil Det Ta Feilinformasjon Som Inspirerer Virkelige Verden Vold

Facebook CEO Mark Zuckerberg.Foto: AP

Etter en tøff uke med kritikk over Facebook CEO Mark Zuckerberg er shoddy forklaring på hvorfor han ikke vil forby konspirasjon nettstedet Infowars—inkludert et veldig vanskelig tangent til tilsynelatende å tro at Holocaust-fornektere er ikke “med hensikt å få det galt”—sosiale medier gigantiske har annonsert at de vil begynne å fjerne feilinformasjon som provoserer virkelige verden vold.

Per i the New York Times, den nye politikken er “i stor grad et svar til episoder i Sri Lanka, Burma og India”, hvor ryktene spredte seg raskt på Facebook, noe som fører til målrettede angrep på etniske minoriteter. Papiret skriver at Facebook ansatte innrømme at de bærer med “ansvar” for å dempe den slags innhold fra sirkulerer på nettstedet:

“Vi har identifisert at det er en type feilinformasjon som er delt i enkelte land som kan oppfordre til underliggende spenninger og føre til fysisk skade frakoblet,” sa Tessa Lyons, en Facebook product manager. “Vi har et bredere ansvar for å ikke bare redusere denne typen innhold, men ta det.”

I en annen uttalelse til CNBC, en Facebook-talsmannen preget politikken som en aksjon mot en bestemt type innhold de har ansett som verdige til fjerning, mens forsvare sine laissez-faire tilnærming til andre tvilsomme innlegg:

“Å redusere distribusjonen av feilinformasjon—i stedet for å fjerne den direkte—treffer den rette balansen mellom ytringsfrihet og en trygg og autentisk fellesskap,” en Facebook talsmann sa i en uttalelse til CNBC. “Det er visse former for feilinformasjon som har bidratt til fysisk skade, og vi gjør en politisk endring som vil gjøre oss i stand til å ta denne typen innhold ned. Vi vil begynne å implementere retningslinjene i løpet av de kommende måneder.”

I henhold til CNBC, Facebook sier den nye politikken vil samarbeide med lokale sivile samfunn grupper til å identifisere teksten og innholdet i bildet, med det formål “å bidra til eller forverre vold eller fysisk skade” for fjerning. Den CNBC rapporten bemerker også at prosessen vil innebære Facebook interne image anerkjennelse teknologi, antagelig et lignende system til en bruker til å automatisk slette hevn porno fra nettstedet.

Det er en forbedring på den nåværende situasjonen. For eksempel, i Sri Lanka og Myanmar, har selskapet møtt hard kritikk fra lokale Ngoer for påståtte passivitet som en tilskyndelse til vold og propaganda sirkulert mye på området. I begge land, til tross for å ha store userbases, rapporter tyder på Facebook i stor grad unnlatt å ansette nok moderering ansatte. I partnerskap med lokale organisasjoner kunne hjelpe nettstedet bli mindre av en absentee utleier.

Dette er imidlertid trolig langt fra en slam dunk. For en, Facebook standarder for hva som kvalifiserer som upassende innhold er fast lax, og det vil være mye sa innhold for å sile gjennom. Det er ofte basert på automatiserte metoder som er lett jobbet rundt, eller andre som rett og slett ende opp med å backfiring (som tilfellet var med “omstridt” flags det satt på tvilsomme artikler). I dette tilfellet, er det lett å forestille seg at dette ender opp som en uendelig rekke spill av Whac-A-Mole i som de bare forplikte ressurser til å stirre på ett hull.

Så NYT skrev, det er to andre løsninger nettstedet beveger seg fremover med: downranking innlegg flagget som forfalskning av tredjepart faktum brikker og å legge til informasjon i boksene under beviselig falske nyheter, noe som tyder på andre kilder til informasjon for folk å lese.” Mens enten metoden vil trolig ha noe innvirkning, Facebook er faktisk checkers har gjentatte ganger uttrykt bekymring for at nettstedet ditt system er for begrenset til å være effektiv.

I tillegg, NYT rapportert Facebook har ingen planer om å rulle ut nye regler til sitt datterselskap, kryptert chat-tjenesten WhatsApp, som har blitt koblet til flere dødelige hoax-meldinger—selv om Instagram er inkludert:

De nye reglene gjelder for en av Facebook er andre store sosiale media egenskaper, Instagram, men ikke til WhatsApp, hvor falske nyheter har også sirkulert. I India, for eksempel, falske rykter spredt gjennom WhatsApp om barn kidnapperne har ført til mob vold.

Politiarbeid WhatsApp, kan være noe vanskeligere eller regelrett umulig, som Facebook tilsynelatende ikke kan se innholdet i meldinger uten vanning ned sin kryptering, så det er mellom en stein og et hardt sted der. (Som Indisk daglig Economic Times skrev i fjor, myndigheter, er det fortsatt vurdere WhatsApp gruppe administratorer ansvarlig for innholdet i samtaler.)

Så er det spørsmål om Facebook har som uttalt forpliktelse til å tale fritt, noe som er fint i teorien, men vage nok i praksis at det fungerer først og fremst som et skjold mot kritikk. Knyttet til dette nettstedet er vanlig wariness, knyttes delvis til 2016 Gizmodo innlegg som påstås å være skjevhet i sin nå-nedlagte trending news del, for å fornærme konservative og høyre grupper ivrige etter å gråte sensur. Ta For eksempel Infowars, som sprer konspirasjonsteorier om en DC-området pizza-restaurant til en bevæpnet mann møtte opp. Som Washington Post bemerket, det er vanskelig å forene hvordan Facebook er “styrket-up-tilnærming” til feilinformasjon kan eksistere sammen med noen av sine viktigste formidlere være lov til å forbli på stedet.

Disse problemene er utallige. Som tidligere Gawker redaktør Maks Leste nylig skrev, de er også kanskje uløselige kort av en radikal restrukturering av selskapet, gitt Facebook skala er nå så stor at det nærmer seg en form for “suverene makt uten ansvar” (eller faktisk en helhetlig visjon av hva det er ment å være).

“Det er ikke alltid en veldig klar linje,” Facebook product manager Tessa Lyons fortalte NYT. “Alt dette er utfordrende—det er derfor vi er iterating. Det er derfor vi er å ta alvorlige tilbakemeldinger.”

Rettelse: i En tidligere versjon av denne artikkelen sitert av New York Times som melder at Instagram var ikke inkludert i de nye reglene. I henhold til en Facebook-talsmannen, disse nye retningslinjene vil utvide til Instagram, og implementering for WhatApp er undersøkt. The Times har også siden utstedt en korreksjon, og vi har byttet ut sine opprinnelige passasje for oppdatert. Vi beklager feilen.

[New York Times]


Date:

by