Den første internationale skønhedskonkurrence besluttet af en algoritme, der har skabt en del polemik, efter resultaterne viste en iøjnefaldende faktor, der forbinder de vindere
Denne artikel er 1 år gammel
@SamTLevin
Torsdag den 8 September 2016 23.42 BST
Senest ændret tirsdag, 21 februar 2017 17.15 GMT
Den første internationale skønhedskonkurrence bedømt af “maskiner” var meningen at bruge objektive faktorer, som ansigts symmetri og rynker til at identificere de mest attraktive kandidater. Efter Skønhed.AI lanceret dette år, at omkring 6.000 mennesker fra mere end 100 lande har indsendt fotos i håb om, at kunstig intelligens, understøttet af komplekse algoritmer, ville fastslå, at deres ansigter, der mest ligner “den menneskelige skønhed”.
Men når resultaterne kom i, skaberne var forfærdet over at se, at der var en iøjnefaldende faktor, der forbinder de vindere: robotter ikke kan lide mennesker med mørk hud.
Ud af 44 vindere, næsten alle var hvide, en håndfuld var Asiatiske, og kun havde mørk hud. Det er på trods af det faktum, at, selv om de fleste af deltagerne var hvide, mange mennesker af farve indsendte fotos, herunder store grupper fra Indien og Afrika.
Den efterfølgende polemik har givet anledning til fornyet debat om de måder, hvorpå algoritmer kan forevige bias, hvilket giver utilsigtede og ofte stødende resultater.
Når Microsoft udgivet den millennial” chatbot opkaldt Tay i Marts, er det hurtigt begyndte at bruge racistisk sprog og fremme af neo-Nazistiske synspunkter på Twitter. Og efter Facebook elimineres menneskelige redaktører, der havde kurateret “trending” nyheder i sidste måned, den algoritme, der straks fremmes falske og vulgære historier på nyheds-feeds, herunder en artikel om en mand, der onanerer med en kylling sandwich.
Facebook brande toneangivende hold, og algoritme, uden at mennesker går amok
Læs mere
Mens det tilsyneladende racistiske skønhedskonkurrence har bedt vittigheder og hån, datalogi eksperter og social retfærdighed fortalere siger, at der i andre brancher og arenaer, den stigende brug af ringere AI systemer er ikke noget at grine af. I nogle tilfælde kan have ødelæggende konsekvenser for mennesker af farve.
Skønhed.AI – der blev skabt af en “dyb læring” gruppe kaldet Unges Laboratorier og understøttes af Microsoft – stolede på store datasæt af fotos, der skal bygge en algoritme, der vurderes skønhed. Mens der er en række grunde til, at den algoritme, der stillede hvide mennesker, det største problem var, at de data, projektet anvendes til at etablere standarder for tiltrækningskraft ikke indeholder nok mindretal, sagde Alex Zhavoronkov, Skønhed.AI ‘ s chief science officer.
Selv om gruppen ikke bygge algoritmen til at behandle lys hud, som et tegn på skønhed, input data effektivt led robotten dommere til at nå frem til denne konklusion.
Vinderne af Skønhed.AI-konkurrencen i kategorien for kvinder i alderen 18-29. Foto: http://winners2.beauty.ai/#win
“Har du ikke, at mange mennesker af farve inden for de datasæt, så du kan faktisk have upræcise resultater,” sagde Zhavoronkov, der sagde, at han var overrasket over vinderne. “Når du træner en algoritme til at genkende visse mønstre … du måske ikke har nok data, eller dataene kan være forudindtaget.”
Den simpleste forklaring er for forudindtaget algoritmer er, at de mennesker, der skaber dem har deres egne dybt indgroede fordomme. Det betyder, at på trods af opfattelser, som algoritmer er på en eller anden måde neutralt og entydigt mål, kan de ofte reproducere og forstærke eksisterende fordomme.
Skønhed.AI resultater tilbyde “den perfekte illustration af problemet,” sagde Bernard Harcourt, Columbia University, professor i jura og statskundskab, som har studeret “predictive policing”, som er i stigende grad gældende på maskiner. “Tanken om, at du kunne komme op med et kulturelt neutral, racistisk neutral opfattelse af skønhed er simpelthen ufatteligt.”
Sagen er en påmindelse om, at “mennesker er virkelig at gøre den tankegang, selv når det er formuleret som algoritmer, og vi synes, det er neutral og videnskabelig,” sagde han.
Borgerrettighedsgrupper har for nylig rejst bekymring for, at edb-baseret retshåndhævende redskaber – som anvender data til at forudsige, hvor den fremtidige forbrydelser, vil der opstå – stole på mangelfuld statistik og kan forværre racistisk forudindtaget og skadelige politiarbejde praksis.
“Det er forurenet data, der producerer forurenet resultater,” sagde Malkia Cyril, som er administrerende direktør for Center for Media Retfærdighed.
En ProPublica undersøgelse tidligere i år fandt ud af, at software, der bruges til at forudsige fremtidige kriminelle er forudindtaget imod sorte mennesker, som kan føre til hårdere straffe.
“Det er virkelig et spørgsmål om nogens liv er på spil,” sagde Sorelle Friedler, som er professor i datalogi på Haverford College.
Et stort problem, Friedler sagde, er, at minoritetsgrupper af natur er ofte underrepræsenteret i datasæt, hvilket betyder, algoritmer kan nå ukorrekte konklusioner for de befolkninger, og skaberne vil ikke opdage det. For eksempel, sagde hun, en algoritme, der var forudindtaget mod Indfødte Amerikanere kan betragtes som en succes i betragtning af, at de kun 2% af befolkningen.
“Du kunne have en 98% præcision. Du ville mener, at du har gjort et fantastisk stykke arbejde på den algoritme.”
Friedler sagde, at der er proaktiv måder algoritmer, der kan justeres for at korrigere for bias, om forbedring af input-data eller gennemførelse af filtre for at sikre, at mennesker af forskellige racer, der modtager ligebehandling.
Skadet AI-programmer er ikke begrænset til det strafferetlige system. En undersøgelse konstateret, at markant færre kvinder end mænd, der vises online annoncer for højt betalte jobs. Sidste år, har Google ‘ s foto-app blev anset for at have mærket sorte mennesker som gorillaer.
Cyril bemærkes, at algoritmer er i sidste ende meget begrænset i, hvordan de kan hjælpe med at løse samfundsmæssige uligheder. “Vi er alt for afhængige af teknologi og algoritmer og machine learning, når vi skal se på de institutionelle ændringer.”
Zhavoronkov sagde, at når Skønhed.AI lancerer en ny konkurrence runde dette efterår, at han forventer, at den algoritme, der vil have en række ændringer, der skal luge ud diskriminerende resultater. “Vi vil forsøge at rette op på det.”
Men virkeligheden, tilføjede han, er, at robotter ikke kan være de bedste dommere, der af fysiske fremtoning: “jeg var mere overrasket over, hvordan algoritmen vælger de mest smukke mennesker. Ud af et meget stort antal, valgte de mennesker, som jeg måske ikke have valgt mig.”