Facebook Ora Dice Di Rimuovere La Disinformazione Che Si Ispira Al Mondo Reale Di Violenza

Facebook CEO Mark Zuckerberg.Foto: AP

Dopo un ruvido settimana di critiche su Facebook il CEO Mark Zuckerberg scadente spiegazione del perché non vietare cospirazione sito Infowars—tra cui un goffo tangente in a quanto pare credere negazionisti non sono volutamente “sbagliare”—il gigante dei social media ha annunciato che inizierà la rimozione di disinformazione che provoca nel mondo reale violenza.

Per il New York Times, la nuova politica è “in gran parte una risposta a episodi in Sri Lanka, Myanmar e India”, dove voci diffuse rapidamente su Facebook, che porta ad attacchi mirati sulle minoranze etniche. Il foglio scrive che Facebook personale di ammettere di aver orso “responsabilità” per arginare questo tipo di contenuto da circolanti sul sito:

“Abbiamo identificato che c’è un tipo di disinformazione che è condivisa in alcuni paesi che possono incitare le tensioni di fondo e portare a danni fisici non in linea”, ha detto Tessa Lione, Facebook product manager. “Abbiamo una responsabilità più ampia non solo di ridurre il tipo di contenuto, ma rimuoverlo.”

In un’altra dichiarazione a CNBC, Facebook portavoce caratterizzato la politica come un giro di vite su uno specifico tipo di contenuto che sono ritenuti degni di rimozione, pur di difendere la loro laissez-faire per altro di dubbia post:

“La riduzione della distribuzione di disinformazione piuttosto che la rimozione a titolo definitivo—colpisce il giusto equilibrio tra libertà di espressione e di una cassaforte e di autentica comunità,” un Facebook il portavoce ha detto in una dichiarazione a CNBC. “Ci sono alcune forme di disinformazione che hanno contribuito al danno fisico, e noi stiamo facendo una politica di cambiamento che ci permettono di prendere quel tipo di contenuto. Saremo avviare l’attuazione della politica nei prossimi mesi.”

Secondo CNBC, Facebook dice che la nuova politica di collaborazione con i locali della società civile, gruppi di identificare il testo e il contenuto dell’immagine con lo scopo di “contribuire a sfruttamento e violenza o minaccia fisica” per la rimozione. La CNBC report osserva inoltre che il processo coinvolgerà Facebook dell’immagine interna tecnologie di riconoscimento, presumibilmente, un sistema simile a quello che si utilizza per eliminare automaticamente la vendetta porno dal sito.

Questo è un miglioramento della situazione attuale. Per esempio, in Sri Lanka e Myanmar, l’azienda ha dovuto affrontare una dura critica da Ong locali per la presunta inazione come istigazione e propaganda molto diffusi sul sito. In entrambi i paesi, pur avendo grandi userbases, i rapporti indicano Facebook in gran parte non è riuscito a noleggio abbastanza moderazione del personale. La collaborazione con le organizzazioni locali potrebbe aiutare il sito a diventare meno di un assente padrone di casa.

Tuttavia, questo è probabilmente lontano da un slam dunk. Per uno, Facebook gli standard di ciò che si qualifica come contenuti inappropriati sono abitualmente lax, e ci saranno un sacco di contenuti da passare al setaccio. Spesso si basa su metodi automatici che sono facilmente lavorato, o altri che finiscono controproducente (come era il caso con la “contestata” flag messo in dubbia articoli). In questo caso, è facile immaginare questo finale un incessante gioco di Whac-A-Mole in cui sono solo impegnare le risorse per stare in un buco.

Come il new york times ha scritto, ci sono due soluzioni il sito si sta muovendo in avanti con: downranking messaggi contrassegnati come falsi da parte di terzi, infatti, la dama e l’aggiunta di “informazioni caselle sotto dimostrabilmente false notizie, suggerendo altre fonti di informazione per le persone a leggere.” Mentre il metodo probabilmente avrà un certo impatto, Facebook fact checkers hanno più volte espresso la preoccupazione che il sistema è troppo vincolata per essere efficace.

Inoltre, il new york times ha riferito Facebook non ha in programma di lanciare le nuove regole per le sue controllate, foto e video sharing app Instagram e crittografato servizio di chat WhatsApp, l’ultimo dei quali è stato collegato a diversi mortale bufale:

Le nuove regole non si applicano a Facebook altre big social media proprietà, Instagram e WhatsApp, dove falsa notizia si è diffusa anche. In India, per esempio, false voci diffuse attraverso WhatsApp su bambino rapitori hanno portato alla violenza dei facinorosi.

Polizia di WhatsApp potrebbe essere un po ‘ più difficile o addirittura impossibile, come Facebook apparentemente non può vedere il contenuto dei messaggi senza annacquare la sua crittografia, quindi tra una roccia e un posto duro. (Quotidiano Indiano Economic Times ha scritto l’anno scorso, le autorità ci considerano ancora WhatsApp gli amministratori del gruppo responsabile per il contenuto di chat.)

Poi c’è la questione di Facebook dichiarato impegno per la libertà di parola, che è bello in teoria, ma vago abbastanza, in pratica, che sembra funzionare principalmente come uno scudo contro le critiche. Collegato a questo è il sito di abituale diffidenza, in parte legata al 2016 Gizmodo post attinente bias nella sua ormai defunta trend sezione di notizie, di offendere conservatori e gruppi di estrema destra desideroso di grido censura. Per esempio, prendere Infowars, che si diffuse teorie del complotto su un DC-area di pizza in ristorante fino a quando un uomo armato ha mostrato up. Il Washington Post ha, è difficile conciliare come Facebook “beefed-up approach”, la disinformazione può coesistere con alcuni dei suoi principali fornitori di essere autorizzato a rimanere sul sito.

Questi problemi sono innumerevoli. Come ex Gawker editor in chief Max di Lettura ha scritto di recente, sono anche e forse non risolvibile a breve di una radicale ristrutturazione dell’azienda, data Facebook scala è ormai così grande che si avvicina a una forma di “potere sovrano senza responsabilità” (o, in realtà, una visione coerente di quello che dovrebbe essere).

“Non è sempre molto chiaro,” Facebook product manager Tessa Lyons ha detto al new york times. “Tutto questo è una sfida—che è il motivo per cui siamo iterazione. Che è il motivo per cui stiamo facendo i seri feedback.”

Gizmodo ha raggiunto fuori a Facebook per commenti e aggiorneremo se sentiamo di ritorno.

[New York Times]


Date:

by