Hvorfor har Facebook ‘ s Algoritmer Holde Tilskyndelse til Racisme? [Opdateret]

Mark Zuckerberg (Getty)

Kalder det algoritmiske uvidenhed. Eller måske, algoritmisk idioti. På torsdag, Pro Publica afsløret, at Facebook ‘ s ad targeting system, hvor en gruppe brugere sammen baseret på profildata, tilbød at sælge annoncer, der målrettes mod en demografisk af Facebook-brugere, der selv-rapporteret som “Jøde Hadere.”

“Jøde Hadere” startede trend på Twitter, når det stykke, der gik viral, og med fredag Facebook annoncerede, at det havde fjernet”Jøde Hadere” og andre tilsvarende rangeret grupper fra sin reklame service, som midlertidigt at udelukke hele sin selvrapporterede uddannelse og arbejdsgiver felter. Med den meddelelse, selskabet har tilbudt et forudsigeligt konjunktionen undskyldning og forklaring.

Som Facebook forklarer, at de kategorier, der var bestemt af en algoritme baseret på, hvad brugerne selv lægger ind Medarbejderen og Uddannelse slots. Nok folk havde opført deres erhverv som racistisk galde som “Jøde Hader,” deres arbejdsgiver som “Jøde Dræber ugeblad,” eller studieområde “Trekantsex Voldtægt”, at Facebook ‘ s algoritme, tandløs by design, samlet dem i targetable kategorier.

Facebook ‘ s svar er gentagelser i at fremhæve, at brugerne selv selvrapporterede data. Men at hævde uvidenhed om sine egne algoritmer lader Facebook tvetydigt mere indlysende spørgsmål: Hvad fortæller det os om Facebook, at Nazisterne stolt kan selv finde på deres platform? Hvorfor kan man ikke bruge Facebook ‘ s algoritmer bestemme, at ord som “voldtægt”, “en bitch” eller “dræbe” er ikke gyldigt erhvervsmæssige vilkår? Facebook siger sin AI kan registrere hate speech fra brugerne—så hvorfor, tilsyneladende, har Facebook vælger ikke sin AI på annoncen nytte?

På trods af en brugerbase på to milliarder mennesker, Facebook som en virksomhed har meget få menneskelige ansigter. Der er COO Sandberg, administrerende DIREKTØR Zuckerberg, og meget få andre. Så når en virksomhed af denne størrelse—dette afhængig af automatisering—gør så stor en fejl som indlejring anti-semitisme i sine indtægter-ordninger, der er ingen at skyde skylden på. Selv den undskyldning er ukrediteret, med ingen menneskelig kontakt, der er angivet, bortset fra den navnløse press@fb.com standardteksten.

Zuckerberg og hans kohorter lavet algoritmisk beslutningsprocessen hjertet af sin ad-rettet mod indtægter ordning, og så er indhyllet disse systemer i en sort boks. Og da Facebook ‘ s brugerbase er vokset, så det har sin blindspots.

Sidste år, advokater gemt et kollektivt søgsmål mod Facebook over bekymringer, som sin annonce-målretning af ordningen overtrådt Civil Rights Act. Ud over selv-rapporteret målretning af annoncer, Facebook også indsamlet data til at placere brugere i kategorier, de kan ikke engang være klar over. I oktober, Pro Publica afsløret, at der er baseret på data som ven grupper, beliggenhed, sympatier osv., Facebook sætte brugere i kategorier, der svarer til race, kaldet en “etniske tilhørsforhold.”

Annoncører kan så enten mål eller udelukke brugere, baseret på deres affinitet, en alvorlig bekymring i et land, som forbyder at nægte mennesker, boliger og beskæftigelse der er baseret på deres race. Facebook sluttede sin “etniske affinitet” målretning efter tilbageslaget. I modsætning til de “Jøde Hader” balladen, hvis Facebook sagde, at det ikke vidste, hvad dens algoritmer, der var at gøre, her Facebook hævdede, at det ikke kunne forudse den uforholdsmæssigt store virkning af sine algoritmer. Opkald, der algoritmisk idioti.

Hvorfor har Facebook ‘ s algoritmer holde tilskyndelse til racisme? De mere specifikke svar er skjult inde i Facebook ‘ s black box, men den bredere svar kan være: Det er rentabelt. Hver Facebook-bruger er en potentiel kilde til indtægter for virksomheden. Og jo mere de bruger hjemmesiden, jo flere annoncer vil de engagere sig, jo mere kan deles indhold de producerer, og jo mere brugeren indsigt, som de kan generere Facebook. Når brugerne viser sig som racistiske, anti-semitiske og så på, hvad forpligtelsen ikke Facebook er nødt til at fjerne dem eller hindre dens egne indtægter struktur? Ikke at fjerne eller censurere brugere overtræder deres first amendment rettigheder?

I både den oprindelige Pro Publica rapport og opfølgning af Skifer, forskerne har kaldt for en offentlig database af Facebook ‘ s ad-målretning mod kategorier, og en bredere, de-automatisering push tværs af virksomheden. På dette punkt, Facebook kan ikke længere nægte de ømme behov for en etisk og moralsk kompas, et eller andet sted i sin reklame virksomhed; virksomheden er algoritmer og dens racistiske og anti-semitiske kontroverser er knyttet til. Det er tid til en enorm paradigmatisk skift i retning af ansvarlighed, ud i det åbne, og ikke en anden lunkne halv skridt fra Facebook inden for den komfort, sort boks.

Update 5:48 pm: En Facebook-talsmand fortalte Gizmodo, at virksomheden er “midlertidigt at fjerne alle selvrapporterede uddannelse og arbejdsgiver felter”—ikke kun den offensive selv-rapporteret kategorier, der var markeret af Pro Publica. Vi har opdateret historien i overensstemmelse hermed. “Facebook er at fjerne alle disse selvrapporterede rettet mod områder, indtil vi har de rigtige processer på plads til at hjælpe med at forhindre dette problem,” en anden talsmand fortalte Gizmodo i en separat e-mail.


Date:

by