Nye AI kan finne ut om du er homofil eller rett fra et bilde

En algoritme utledes seksualitet mennesker på en datingside med opp til 91% nøyaktighet, heve vanskelige etiske spørsmål

@SamTLevin

e-post

Fredag 8. September 2017 00.46 BST

Første gang publisert på torsdag 7. September 2017 23.52 BST

Kunstig intelligens kan nøyaktig gjett om folk er homofile eller rett basert på bilder av ansiktene deres, ifølge ny forskning tyder på at maskiner kan ha betydelig bedre “gaydar” enn mennesker.

Den studie fra Stanford University – som fant at en datamaskin algoritme korrekt kunne skille mellom homofile og heterofile menn 81% av tiden, og 74% for kvinner – har reist spørsmål om den biologiske opprinnelse, seksuell legning, etikk ansikts-gjenkjenning teknologi og potensialet for denne typen programvare for å krenke privatlivets fred eller bli misbrukt for anti-LHBT formål.

Maskinen intelligens testet i undersøkelsen, som ble publisert i Journal of Personality and Social Psychology, og først rapportert i the Economist, var basert på et utvalg av mer enn 35.000 ansikts bilder at menn og kvinner er lagt ut offentlig på en AMERIKANSK dating nettsiden. Forskerne, Mikal Kosinski og Yilun Wang, utpakkede funksjoner fra bilder ved hjelp av “deep nevrale nettverk”, som betyr en avansert matematisk system som lærer å analysere visuelle basert på en stor dataset.

Forskning fant at homofile menn og kvinner har en tendens til å “kjønn-atypisk” – funksjoner, uttrykk og “grooming stiler”, som egentlig betyr homofile menn dukket opp mer feminine og vice versa. Dataene også identifisert enkelte trender, blant annet at homofile menn hadde smalere kjefter, lenger neser og større panna enn heterofile menn, og at homofile kvinner hadde større kjefter og mindre panna sammenliknet med heterofile kvinner.

Menneskelige dommere utført mye verre enn algoritmen, nøyaktig identifisere orientering bare 61% av tiden for menn og 54% for kvinner. Når programvaren anmeldt fem bilder per person, det var enda mer vellykket – 91% av tiden med menn og 83% med kvinner. I vid forstand, som betyr “ansikter inneholde mye mer informasjon om seksuell legning enn det som kan oppfattes og tolkes av den menneskelige hjerne”, forfatterne skrev.

Elon Musk sier AI kan føre til tredje verdenskrig

Les mer

Papiret foreslått at funnene gir sterk støtte for teorien om at seksuell legning stammer fra eksponering for visse hormoner før fødselen, noe som betyr folk er født homofil, og det å være skeiv er ikke et valg. Maskinen er lavere suksessrate for kvinner også kunne støtte tanken om at kvinnelig seksuell orientering er mer flytende.

Mens funnene har klare begrensninger når det kommer til kjønn og seksualitet – folk av farge var ikke inkludert i studien, og det var ingen vurdering av transkjønnede eller biseksuelle mennesker – implikasjoner for kunstig intelligens (AI) er stort og skremmende. Med milliarder av ansikts bilder av folk som er lagret på sosiale medier og i offentlige databaser, forskerne foreslo at offentlige data kan brukes til å oppdage folks seksuelle legning uten deres samtykke.

Det er lett å forestille seg ektefeller ved hjelp av teknologi på partnere som de mistenker er hemmelighetsfulle, eller tenåringer å bruke algoritmen på seg selv eller sine jevnaldrende. Mer skremmende, regjeringer som fortsetter å straffeforfølge LHBT folk kunne hypotetisk bruke teknologien til å ut og målgrupper. Det betyr at byggingen av denne type programvare og offentliggjøre det er i seg selv kontroversielt gitt bekymret for at det kunne oppmuntre skadelige programmer.

Men forfatterne hevdet at teknologien finnes allerede, og dets evner er viktig å eksponere slik at myndigheter og selskaper kan proaktivt vurdere personvern risiko og behov for sikringstiltak og forskrifter.

“Det er sikkert foruroligende. Som alle nye verktøy, hvis det kommer i feil hender, kan den brukes for syke formål,” sier Nick Regelen, førsteamanuensis i psykologi ved Universitetet i Toronto, som har publisert forskning på vitenskapelig gaydar. “Hvis du kan starte profilering av mennesker basert på deres utseende, deretter identifisere dem og gjør forferdelige ting til dem, det er virkelig ille.”

Regelen hevdet det var likevel viktig å utvikle og teste denne teknologien: “Hva forfatterne har gjort her er å gjøre en svært dristig uttalelse om hvor kraftig dette kan være. … Nå vet vi at vi trenger beskyttelse.”

Kosinski var ikke tilgjengelig for intervju, ifølge en Stanford talsperson. Professoren er kjent for sitt arbeid med Cambridge University på psykometriske profilering, blant annet ved hjelp av Facebook data for å sikre konklusjoner om personlighet. Donald Trump er kampanje og Brexit støttespillere utplassert lignende verktøy for å målrette velgere, ta opp bekymringer om å utvide bruken av personlige data i valget.

I Stanford studie, forfatterne bemerket også at kunstig intelligens kan brukes til å utforske sammenhengen mellom ansiktstrekk og en rekke andre fenomener, slik som politiske synspunkter, psykologiske tilstander eller personlighet.

Denne type forskning videre reiser spørsmål om potensialet for scenarier som science-fiction filmen Minority Report, der folk kan bli arrestert basert utelukkende på spådommen om at de vil begå en forbrytelse.

“AI kan fortelle deg noe om noen med nok data,” sier Brian Brackeen, administrerende DIREKTØR i Kairos, et ansikt anerkjennelse selskapet. “Spørsmålet er som et samfunn, ønsker vi å vite?”

Brackeen, som sa Stanford data på seksuell legning var “oppsiktsvekkende riktig”, sa det er behov for et økt fokus på personvern, og verktøy for å hindre misbruk av maskinlæring som det blir mer omfattende og avansert.

Regelen spekulert i om AI blir brukt til å aktivt diskriminerer mennesker basert på en maskin tolkning av ansiktene deres: “Vi bør alle være samlet bekymret.”

Kontakt forfatter: sam.levin@theguardian.com


Date:

by