Warum Facebook die Algorithmen Halten die Anstiftung zu Rassismus?

Mark Zuckerberg (Getty)

Nennen Sie es Algorithmische Unwissenheit. Oder vielleicht, Algorithmische Idiotie. Am Donnerstag, Pro Publica hat aufgedeckt, dass Facebook ad targeting system”, die Gruppen Benutzer gemeinsam auf Basis von Profil-Daten, angeboten, Werbung zu verkaufen Ausrichtung auf eine demographische der Facebook-Nutzer, die in der Selbsteinschätzung als “Juden-Hasser.”

“Juden-Hasser” gestartet trending auf Twitter, wenn das Stück ging viral, und von Freitag Facebook angekündigt, es entfernt hatte, “Juden-Hasser” und anderen, ähnlich eingestuft Gruppen aus seiner Werbe-service, bietet eine vorhersehbare schmerzstillende Entschuldigung und Erklärung.

Wie Facebook erklärt, die Kategorien wurden algorithmisch bestimmt auf der Grundlage, was die Nutzer selbst in der Mitarbeiter-und Bildungs-slots. Genug hatten die Leute aufgelistet, die Ihren Beruf als rassistisch Galle wie “Juden-Hasser”, Ihren Arbeitgeber als “Juden Töten Weekly Magazine” oder Ihrem Bereich der Studie als “flotter Dreier Vergewaltigung”, die Facebook-Algorithmus, zahnlos durch design, kompiliert Sie in anvisierbare Kategorien.

Facebook die Antwort ist immer wiederholend betont, dass die Nutzer sich selbst-berichtet, die Daten und Facebook entfernt die Kategorien, sobald Sie Kenntnis von Ihnen. Aber die Behauptung der Unwissenheit seiner eigenen algorithmen können Facebook equivocate mehr offensichtliche Fragen: Was sagen Sie uns über Facebook, dass die Nazis voller stolz können selbst erkennen, auf Ihre Plattform? Warum nicht Facebook die algorithmen, die bestimmen, dass Wörter wie “Vergewaltigung”, “die Hündin” oder “töten”, sind nicht gültig beruflicher Hinsicht? Facebook sagt, dass seine AI kann erkennen, Hassreden von den Benutzern—also, warum, scheinbar hat Facebook wählen, nicht zeigen Sie Ihre KI in der ad-Dienstprogramm?

Trotz einer Nutzer-Basis von zwei Milliarden Menschen, die Facebook als Unternehmen hat sehr wenige menschliche Gesichter. Es gibt COO Sandberg, CEO Zuckerberg, und sehr wenige andere. Also, wenn ein Unternehmen dieser Größe—man dieses angewiesen, auf die automation macht da riesige Fehler wie die Einbettung der Antisemitismus in seiner Einnahmen-Schemas, es ist niemand Schuld. Auch die Entschuldigung ist im Abspann, ohne menschlichen Kontakt aufgeführt ist, speichern Sie für die namenlosen press@fb.com boilerplate.

Zuckerberg und seine Kumpanen aus der algorithmischen Entscheidungs-Herzen seiner ad-targeting-Umsatz-Schema, und dann versinkt diese Systeme in einer black box. Und als Facebook-Benutzer Basis gewachsen ist, so haben seine blindspots.

Im letzten Jahr Anwälte eine Sammelklage gegen Facebook mehr Bedenken, dass seine ad-targeting-Regelung verletzt den Civil Rights Act. In Ergänzung zu selbst berichteten ad-targeting, Facebook zusammengestellt-Daten, um Benutzer in Kategorien, die Sie möglicherweise gar nicht bewusst. Im Oktober, Pro Publica zeigte, dass, basierend auf Daten, wie die Freund-Gruppen, location, likes, etc., Facebook Nutzer in Kategorien Analog zu der Rasse, die als “ethnische Affinität.”

Werbetreibende könnten dann entweder Ziel-oder ausschließen von Benutzern, basierend auf Ihre Affinität, eine schwere Sorge in einem Land, das outlaws zu leugnen, Menschen, Wohnraum und Beschäftigung, basierend auf Ihrer Rasse. Facebook beendet seine “ethnische Affinität” targeting nach dem Spiel. Anders als bei der “Juden-Hasser” – Debakel, wo Facebook sagte, es wisse nicht, was seine algorithmen waren dabei, hier Facebook behauptete, es konnte nicht vorhersehen, die unverhältnismäßige Auswirkungen Ihrer algorithmen. Anruf, dass Algorithmische Idiotie.

Warum Facebook die algorithmen halten die Anstiftung zu Rassismus? Die spezifische Antwort der im inneren verborgen ist Facebook ‘ s black box, aber die größeren Antwort könnte sein: Es lohnt sich. Jeder Facebook Nutzer ist eine potentielle Quelle von Einnahmen für das Unternehmen. Und je mehr Sie verwenden, die Webseite, die mehr anzeigen Sie sich engagieren, desto mehr shareable content, den Sie produzieren, und je mehr user die Einsicht, die Sie erzeugen kann, die für Facebook. Wenn Benutzer offenbaren sich als rassistisch, anti-Semitisch ist, und so weiter, was Verpflichtung bedeutet Facebook haben, um Sie zu entfernen oder zu vereiteln, Ihre eigenen Einnahmen Struktur? Nicht entfernen oder zensieren Benutzer verletzt seine first amendment Rechte?

Sowohl In der ursprünglichen Pro Publica Berichts und das follow-up aus Schiefer, haben Forscher genannt, die für eine öffentliche Datenbank von Facebook ist ad-targeting-Kategorien und eine breitere, de-Automatisierung push über das Unternehmen. An diesem Punkt, Facebook kann nicht mehr leugnen, der Wunden Notwendigkeit einer ethischen und moralischen Kompass irgendwo in seiner Werbung Unternehmen; die Gesellschaft algorithmen und Ihrer rassistischen und anti-semitischen kontroversen verbunden sind. Es ist Zeit für einen enormen Paradigmenwechsel in Richtung Verantwortlichkeit, im freien, und nicht eine andere lauwarmen halben Schritt von Facebook innerhalb der Komfort der black box.


Date:

by