Perché Facebook gli Algoritmi di Mantenere il Favoreggiamento di Razzismo?

Mark Zuckerberg (Getty)

Chiamare algoritmico ignoranza. O forse, algoritmi di idiozia. Giovedì, Pro Publica scoperto che Facebook l’annuncio di sistema di targeting, che i gruppi di utenti sulla base di dati del profilo, per vendere annunci di targeting demografico di Facebook gli utenti che auto-riferito come “Ebreo Nemici.”

“Ebreo Haters” ha iniziato la tendenza su Twitter, quando il lavoro è andato virale, e da venerdì Facebook ha annunciato di aver rimosso “Ebreo Haters” e altri allo stesso modo si è classificato gruppi dal suo servizio di pubblicità, offrendo un prevedibile anodino, scuse e spiegazioni.

Come Facebook, spiega, le categorie sono state determinate in modo algoritmico in base a ciò che gli utenti stessi a mettere in Dipendente e la Formazione di fessure. Abbastanza gente aveva indicato la loro occupazione come razzista bile come “Ebreo che Odia,” loro datore di lavoro come “Ebreo Uccisione Rivista Settimanale” o il campo di studio come “Trio Stupro” che Facebook algoritmo, sdentato progettazione, compilato in targeting categorie.

Facebook è la risposta di ripetitivo sottolineando che gli utenti stessi auto-riferito i dati e Facebook rimosso le categorie non appena si è consapevoli di loro. Ma sostenendo l’ignoranza dei propri algoritmi consente di Facebook equivocate più ovvia delle domande: che Cosa ci dice su Facebook che i Nazisti con orgoglio di auto-identificare sulla loro piattaforma? Perché non Facebook gli algoritmi di determinare che parole come “stupro”, la “puttana” o “uccidere” non sono valide in termini occupazionali? Facebook dice che l’IA in grado di rilevare i discorsi di odio da parte degli utenti, perché, apparentemente, non Facebook sceglie di non punto l’IA di annunci di utilità?

Nonostante una base di utenti di due miliardi di persone, Facebook come azienda ha pochi volti umani. C’è Sandberg, COO, CEO Zuckerberg, e pochi altri. Così, quando una società di queste dimensioni—quella di questo affidamento su di automazione—rende come un enorme errore, come l’incorporamento di antisemitismo all’interno del suo fatturato schemi, non c’è nessuno a cui dare la colpa. Anche l’apologia è accreditato, con nessun contatto umano elencati, salvo che per il nome press@fb.com boilerplate.

Zuckerberg e i suoi coorti fatto algoritmica del processo decisionale il cuore del suo annuncio-targeting entrate schema, e poi avvolto quei sistemi in una scatola nera. E come Facebook la base di utenti è cresciuto, così ha il suo blindspots.

L’anno scorso, gli avvocati depositato una class action contro Facebook oltre le preoccupazioni che il suo annuncio-targeting schema violato la Legge sui Diritti Civili. Oltre ad auto-riferito il targeting degli annunci, Facebook, inoltre, compilato i dati per gli utenti in categorie possono anche non essere a conoscenza di. Nel mese di ottobre, Pro Publica ha rivelato che, sulla base di dati come gruppi di amici, posizione, gusti, ecc…. Facebook mettere gli utenti in categorie analoghe di gara, denominata “affinità etnica.”

Inserzionisti potrebbero, quindi, di destinazione o di escludere utenti in base alla loro affinità, una grave preoccupazione in un paese che vieta di negare le persone di alloggio e occupazione in base a razza. Facebook ha chiuso la sua “affinità etnica” targeting dopo il gioco. A differenza con il “Ebreo che Odia” debacle, dove Facebook ha detto di non sapere di cosa algoritmi stavano facendo, qui Facebook ha sostenuto è riusciti a prevedere l’impatto sproporzionato dei suoi algoritmi. Chiamata che algoritmica idiozia.

Perché Facebook gli algoritmi di mantenere il favoreggiamento di razzismo? La risposta più specifiche è nascosto all’interno di Facebook della scatola nera, ma la più ampia risposta potrebbe essere: che È redditizio. Ogni Facebook utente è una potenziale fonte di entrate per l’azienda. E più che utilizzano il sito, gli annunci più essi sono impegnati, la più condivisibile il contenuto che essi producono, e l’utente più comprensione possono generare per Facebook. Quando gli utenti si rivelano come razzista, antisemita, e così via, che l’obbligo non Facebook rimuoverlo o di vanificare la propria struttura di ricavi? Comporta la rimozione o censura utenti che violano i loro diritti del primo emendamento?

Sia nella versione originale che Pro Publica relazione e il follow-up di Ardesia, i ricercatori hanno chiamato per un database pubblico di Facebook l’annuncio di targeting categorie e una più ampia, de-automazione spinta di tutta la società. A questo punto, Facebook non è più possibile negare il mal di necessità di un’etica e di una morale bussola da qualche parte all’interno di pubblicità commerciale; la società, gli algoritmi e i suoi razzista e antisemita polemiche sono collegati. È tempo per un enorme cambiamento paradigmatico verso la responsabilità, in campo aperto, e non un altro tiepida mezzo passo da Facebook all’interno il comfort della sua scatola nera.


Date:

by