Hvorfor Facebook Algoritmer Holde Medvirkning Rasisme? [Oppdatert]

Mark Zuckerberg (Getty)

Kaller det algoritmisk uvitenhet. Eller kanskje, algoritmisk idioti. På torsdag, Pro Publica avdekket at Facebook annonse targeting system, hvilke grupper brukere sammen basert på profilen data, tilbød seg å selge annonser som er målrettet mot en demografisk av Facebook-brukere som selv-rapportert som “Jøde-Hatere.”

“Jøde-Hatere” startet trending på Twitter når stykket gikk viral, og med fredag Facebook annonserte det hadde fjernet”Jøde-Hatere” og andre tilsvarende rangert grupper fra sin reklame service av midlertidig unntatt det hele selv-rapportert utdanning og arbeidsgiver felt. Med kunngjøringen, selskapet tilbudt et forutsigbart anodyne unnskyldning og forklaring.

Som Facebook forklarer kategoriene ble algoritmer fastsatt basert på hva brukerne selv sette inn den Ansatte og Utdanning slots. Nok folk hadde oppført deres yrke som rasistiske galle som “Jøde Hater,” arbeidsgiver som “Jøde Dreper Ukentlig Magasin,” eller deres fagområde som “Trekant Voldtekt” at Facebook sin algoritme, tannløs av design, og samlet dem i targetable kategorier.

Facebook er svaret repeterende i vekt på at brukerne selv selvrapporterte data. Men å hevde uvitenhet av sine egne algoritmer lar Facebook equivocate mer opplagt spørsmål: Hva vil det fortelle oss om Facebook som Nazistene kan stolt selv-identifisere på deres plattform? Hvorfor kan ikke Facebook algoritmer finne ut at ord som “voldtekt” og “bitch” eller “drepe” er ikke gyldig kollektive vilkår? Facebook sier sin AI kan oppdage hatefulle ytringer fra brukerne—så hvorfor tilsynelatende gjorde Facebook velger å ikke peker den AI i annonse verktøyet?

Til tross for en brukerbase på to milliarder mennesker, Facebook et selskap som har svært få menneskelige ansikter. Det er COO Sandberg, DIREKTØR Zuckerberg, og svært få andre. Så når et selskap av denne størrelsen—ett-dette avhengig av automatisering—gjør så store feil som innebygging anti-semittiske holdninger i sine inntekter ordninger, det er ingen å skylde på. Selv unnskyldning er uncredited, uten menneskelig kontakt er nevnt, spare for navnløs press@fb.com standardteksten.

Zuckerberg og hans medsammensvorne laget algoritmisk beslutningsprosesser hjertet av sin ad-målretting inntekter ordningen, og så innhyllet disse systemene i en svart boks. Og så Facebook er brukeren base har vokst, så har sine blindspots.

Siste år, advokater arkivert et gruppesøksmål dress mot Facebook over bekymringer som sin ad-målretting av ordningen brutt Civil Rights Act. I tillegg til selv-rapportert annonsemålretting, Facebook også samlet data for å plassere brukere i kategorier som de kanskje ikke engang være klar over. I oktober, Pro Publica avslørt som, basert på data som venn grupper, beliggenhet, liker, etc., Facebook setter brukere i kategorier analogt til rase, som kalles en “etnisk tilhørighet.”

Annonsører kan da enten mål eller ekskludere brukere basert på deres tilhørighet, en alvorlig bekymring i et land som fredløse å nekte folk bolig og sysselsetting basert på rase. Facebook endte sin “etnisk tilhørighet” målretting etter tilbakeslaget. I motsetning til med “Jøde Hater” fiaskoen, der Facebook sa det visste ikke hva sine algoritmer gjorde, her Facebook hevdet at det ikke kunne forutse innvirkning av sine algoritmer. Samtalen som algoritmisk idioti.

Hvorfor Facebook algoritmer holde medvirkning rasisme? De mer spesifikke svar er skjult inne i Facebook ‘ s black box, men bredere svar kan være: Det er lønnsomt. Hver Facebook-bruker er en potensiell kilde til inntekt for selskapet. Og jo mer de bruker nettstedet, jo mer annonser de engasjerer seg, jo mer delbare innholdet de produserer, og de bruker mer innsikt de kan generere for Facebook. Når brukere avsløre seg selv som rasist, anti-semittisk, og så videre, hva forpliktelse gjør Facebook har for å fjerne dem eller frustrere sin egen inntekt struktur? Ikke ta ut eller sensurere brukere krenke deres first amendment rettigheter?

I både den opprinnelige Pro Publica rapporten og oppfølgingen fra Skifer, forskere har kalt for en offentlig database av Facebook ‘ s ad-målretting kategorier og en bredere, de-automatisering trykk på tvers av selskapet. På dette punktet, Facebook ikke lenger kan nekte sår behovet for en etisk og moraliserende compass et eller annet sted i sin markedsføring virksomhet; selskapets algoritmer og sin rasistiske og anti-semittiske kontroverser er knyttet sammen. Det er tid for en enorm paradigmatic dreining mot ansvarlighet, ut i det åpne, og ikke en annen lunkent halvt trinn fra Facebook i komfort av sine svarte boksen.

Oppdatering 5:48 pm: En Facebook talsmann fortalte Gizmodo at selskapet er “midlertidig fjerne alle selv-rapportert utdanning og arbeidsgiver felt”—ikke bare støtende selv-rapportert kategorier som ble flagget av Pro Publica. Vi har oppdatert historien tilsvarende. “Facebook er å fjerne alle av disse selv-rapportert målretting felt før vi har rett prosesser på plass for å hjelpe til med å hindre dette problemet,” en annen talsmann fortalte Gizmodo i en separat e-post.


Date:

by