Den første internasjonale skjønnhetskonkurranse blir bestemt av en algoritme har skapt kontrovers etter at resultatene avslørte en grell faktor knytter vinnere
Denne artikkelen er 1 år gammel
@SamTLevin
e-post
Torsdag 8 September 2016 23.42 BST
Sist endret tirsdag 21. februar 2017 17.15 GMT
Den første internasjonale skjønnhetskonkurranse dømt av “maskiner” som var ment til å bruke objektive faktorer som ansikts symmetri og rynker for å identifisere de mest attraktive deltakere. Etter Skjønnhet.AI lansert dette året, omtrent 6000 er folk fra mer enn 100 land innsendte bilder i håp om at kunstig intelligens, støttet av komplekse algoritmer, ville bestemme seg for at deres ansikter nærmest lignet “menneskelig skjønnhet”.
Men når resultatene kom, skaperne var forferdet over å se at det var en fremtredende faktor knytter vinnere: robotene ikke liker mennesker med mørk hud.
Ut av 44 vinnere, nesten alle var hvite, en håndfull var Asian, og bare én av dem hadde mørk hud. Det til tross for det faktum at, selv om de fleste av deltakerne var hvite, mange folk av farge innsendte bilder, inkludert store grupper fra India og Afrika.
Den påfølgende striden har skapt fornyet debatt om hvordan algoritmer kan videreføre fordommer, noe uventet, og ofte støtende resultater.
Når Microsoft lanserte “tusenårsrike” chatbot som heter Tay i Mars, blir det raskt begynte å bruke rasistiske språk og fremme neo-Nazi synspunkter på Twitter. Og etter Facebook eliminert menneskelige redaktører som hadde kuratert “trending” nyheter siste måned, algoritmen umiddelbart fremmet falske og vulgært historier om nyheter, blant annet en artikkel om en mann onanerte med en kylling sandwich.
Facebook branner trending team, og algoritmen uten mennesker går gale
Les mer
Mens tilsynelatende rasistiske skjønnhetskonkurranse har bedt om vitser og spott, informatikk eksperter og sosial rettferdighet talsmenn sier at i andre næringer og arenaer, den økende bruken av prejudiced AI-systemer er ingen ler saken. I noen tilfeller, det kan ha ødeleggende konsekvenser for folk av farge.
Skjønnhet.AI – som ble opprettet av en “dyp læring” – gruppe som heter Ungdom Laboratorier og støttes av Microsoft – lettelse opp på store datasett av bilder for å bygge en algoritme som vurderes skjønnhet. Mens det er en rekke grunner til at algoritmen favoriserte hvite mennesker, det største problemet var at data prosjektet brukes til å etablere standarder for attraktivitet gjorde ikke nok minoriteter, sa Alex Zhavoronkov, Skjønnhet.AI ‘ s chief science offiser.
Selv om gruppen ikke bygge algoritmen til å behandle lys hud som et tegn på skjønnhet, input data effektivt ledet robot dommere for å nå denne konklusjonen.
Vinnere av Skjønnhet.AI-konkurransen i klassen for kvinner i alderen 18-29. Foto: http://winners2.beauty.ai/#win
“Hvis du har ikke så mange folk av farge i datasettet, så kan du faktisk ha partisk resultatene,” sa Zhavoronkov, som sa han var overrasket over vinnere. “Når du trener en algoritme for å gjenkjenne visse mønstre … du kanskje ikke har nok data, eller data kan være partisk.”
Den enkleste forklaringen for partisk algoritmer er at mennesker som lager dem har sine egne dypt forankret skjevheter. Det betyr at til tross for oppfatninger som algoritmer er noe nøytralt og unikt mål, kan de ofte reprodusere og forsterke eksisterende fordommer.
Skjønnheten.AI resultater tilbyr “perfekt illustrasjon av problemet”, sa Bernard Harcourt, Columbia University professor i rettsvitenskap og statsvitenskap som har studert “logisk politiarbeid”, som har i økende grad avhengig av maskiner. “Ideen om at du kan komme opp med et kulturelt nøytrale, rasistisk nøytral oppfatning av skjønnhet er rett og slett ufattelige.”
Saken er en påminnelse om at “mennesket er egentlig gjør tenkning, selv når den er formulert som algoritmer, og vi tror det er nøytral og vitenskapelig,” sa han.
Sivil frihet grupper har vekket bekymring at pc-basert politi prognoser verktøy – som bruker data for å forutsi fremtidige forbrytelser vil oppstå – for å stole på feil statistikk og kan forverre rasistisk partisk og skadelig politiarbeid i praksis.
“Det er forurenset data produsere forurenset resultatene,” sa Malkia Cyril, direktør for Center for Media Rettferdighet.
En ProPublica undersøkelse tidligere i år fant at programvaren brukes til å forutsi fremtidige kriminelle er forutinntatt mot svarte mennesker, noe som kan føre til strengere straffeutmåling.
“Det er virkelig et spørsmål om noens liv er i fare,” sa Sorelle Friedler, en professor i informatikk ved Haverford College.
Det er et stort problem, Friedler sa, er at minoritetsgrupper som av natur er ofte underrepresentert i datasett, noe som betyr algoritmer kan nå feilaktige konklusjoner for de bestander, og skaperne ikke vil oppdage det. For eksempel, sa hun, en algoritme som var partisk mot indianere kunne sies å være en suksess, gitt at de er bare 2% av befolkningen.
“Du kunne ha en 98% nøyaktighet pris. Ville du tror du har gjort en god jobb på algoritmen.”
Friedler sa det er proaktiv måter algoritmer kan justeres for å korrigere for skjevheter om å forbedre input data eller implementering av filtre for å sikre at folk av forskjellige raser får lik behandling.
Prejudiced AI programmer er ikke begrenset til strafferettssystemet. En studie bestemt at betydelig færre kvinner enn menn som ble vist online annonser for høyt betalte jobber. Siste år, Google ‘ s photo app ble funnet å ha merket svarte mennesker som gorillaer.
Cyril bemerket at algoritmer til syvende og sist er svært begrenset i hvordan de kan bidra til å korrigere sosiale ulikheter. “Vi er altfor avhengig av teknologi og algoritmer og maskinlæring når vi skal se på institusjonelle endringer.”
Zhavoronkov sa at når Skjønnhet.AI lanserer en annen konkurranse runde denne høsten, regner han med at algoritmen vil ha en rekke endringer som er utviklet for å luke ut diskriminerende resultater. “Vi vil prøve å rette det opp.”
Men virkeligheten, la han til, er at roboter kan ikke være den beste dommerne i fysisk utseende: “jeg ble mer overrasket om hvordan algoritmen for å velge den mest vakre mennesker. Ut av et meget stort antall, valgte de folk som jeg kanskje ikke har valgt selv.”