En algoritm hittad sexualitet människor på en dejtingsajt med upp till 91% noggrannhet, för att höja knepiga etiska frågor
@SamTLevin
e-post
Fredag 8 September 2017 00.46 BST
Först publicerad på torsdagen den 7 September 2017 23.52 BST
Artificiell intelligens kan korrekt gissa om folk är gay eller straight som bygger på bilder på deras ansikten, enligt ny forskning tyder på att maskiner kan betydligt bättre “gaydar” än människor.
Studien från Stanford University, som visade att en algoritm för datorn kunde skilja mellan homosexuella och heterosexuella män 81% av tiden, och 74% för kvinnor – har väckt frågor om den biologiska ursprung, sexuell läggning, etik av ansikts-detection-teknik och potential för denna typ av programvara för att kränka människors integritet eller missbrukas för anti-HBT-ändamål.
Maskinen intelligens testades i den forskning, som publicerades i Journal of Personality and Social Psychology och först publicerades i the Economist, var baserad på ett urval av mer än 35 000 ansiktsbilder att män och kvinnor är offentligt på OSS dating hemsida. Forskarna, Michal Kosinski och Yilun Wang, extraherade funktioner från bilder med hjälp av “djup neurala nätverk”, vilket innebär en sofistikerad matematiskt system som lär sig att analysera bilder som bygger på ett stort dataset.
Forskning har funnit att homosexuella män och kvinnor tenderade att ha “kön-atypiska” funktioner, uttryck och “grooming stilar”, vilket i huvudsak innebär homosexuella män som dök upp mer feminin och vice versa. Data har också identifierat vissa tendenser, bland annat att homosexuella män hade smalare käftar, längre näsor och större pannor än heterosexuella män, och att homosexuella kvinnor hade större käkar och mindre pannor än rakt kvinnor.
Mänskliga domare var rejält mycket sämre än den algoritm, identifiera läggning endast 61% av tiden för män och 54 procent kvinnor. När software över fem bilder per person, det var ännu mer framgångsrika – 91% av tiden med män och 83% bland kvinnor. I stort sett, som betyder “ansikten innehåller mycket mer information om sexuell läggning än kan uppfattas och tolkas av den mänskliga hjärnan”, författarna skrev.
Elon Musk säger AI kan leda till tredje världskriget
Läs mer
Det papper som föreslog att resultaten är “starkt stöd” för teorin om att sexuell läggning härrör från exponering för vissa hormoner innan födseln, vilket innebär att människor föds homosexuella och att vara queer är inte ett val. Maskinen är lägre success rate för kvinnor också kan stödja uppfattningen att kvinnliga sexuella läggning är mer flytande.
Medan resultaten har tydliga gränser när det kommer till kön och sexualitet – människor i färg ingick inte i studien, och det var ingen diskussion av transpersoner och bisexuella personer – konsekvenser för artificiell intelligens (AI) är stor och alarmerande. Med miljarder av ansikts bilder av människor som lagras på sociala medier och i statliga databaser, forskare föreslagit att offentliga data kan användas för att upptäcka människors sexuella läggning utan deras samtycke.
Det är lätt att föreställa sig makarna att använda tekniken på partner som de misstänker är garderobsbögen, eller tonåringar med algoritmen på sig själva eller sina kamrater. Mer skrämmande, regeringar att fortsätta att åtala HBT-personer kan hypotetiskt använda tekniken för att ut och målgrupper. Det innebär att denna typ av programvara och offentliggöra den är i sig kontroversiellt med tanke oro för att det skulle kunna uppmuntra till skadliga program.
Men författarna hävdar att den teknik som redan finns och dess resurser är viktigt för att exponera så att myndigheter och företag kan aktivt överväga integritet risker och behov av skydd och förordningar.
“Det är verkligen oroande. Som alla nya verktyg, om det hamnar i fel händer, kan det användas för sjuka syften”, sa Nick Regel, docent i psykologi vid University of Toronto, som har publicerat forskning om vetenskapen om gaydar. “Om du kan börja profilering människor baserat på deras utseende, då identifiera dem och gör hemska saker till dem, som är riktigt dåligt.”
Artikel hävdade att det fortfarande var viktigt att utveckla och testa denna teknik: “Vad författarna har gjort här är att göra ett mycket djärvt uttalande om hur kraftfullt det kan vara. … Nu vet vi att vi behöver skydd.”
Kosinski var inte tillgänglig för en intervju, enligt en Stanford talesperson. Professorn är känd för sitt arbete med Cambridge University på psykometriska profilering, bland annat med hjälp av Facebook data för att dra slutsatser om personlighet. Donald Trump ‘ s kampanj och Brexit anhängare utplacerade liknande verktygen för att kommunicera med väljarna, farhågor om ökad användning av personuppgifter i valet.
I Stanford studien, författarna noterade även att artificiell intelligens kan användas för att utforska kopplingen mellan ansiktsuttryck och en rad andra fenomen, såsom politiska åsikter, psykisk sjukdom eller personlighetsstörning.
Denna typ av forskning ger upphov till ytterligare frågor om den potential för scenarier som science-fiction-film Minority Report, där människor kan arresteras enbart baserad på förutsägelsen att de kommer att begå ett brott.
“AI kan berätta något om någon med tillräckligt med data”, sade Brian Brackeen, VD för Kairos, en ansiktsigenkänning företag. “Frågan är som ett samhälle, vill vi veta?”
Brackeen, som sagt Stanford uppgifter om sexuell läggning var “häpnadsväckande rätt”, sade, att det måste finnas ett ökat fokus på integritet och verktyg för att förhindra missbruk av maskininlärning, eftersom det blir mer omfattande och avancerade.
Regeln spekulerat om AI används för att aktivt diskriminerar människor utifrån en maskin tolkning av deras ansikten: “Vi ska alla vara tillsammans.”
Kontakta författaren: sam.levin@theguardian.com