Professor hvis studien foreslått teknologi kan oppdage om en person er homofil eller rett sier programmer snart vil avsløre egenskaper som kriminelle predisposisjon
@SamTLevin
e-post
Tirsdag 12 September 2017 08.00 BST
Sist endret tirsdag 12 September 2017 08.01 BST
Velgerne har rett til å holde sine politiske overbevisninger privat. Men ifølge noen forskere, det vil ikke være lenge før et program på datamaskinen kan nøyaktig gjett om folk er liberale eller konservative i et øyeblikk. Alle som vil være nødvendige bilder av ansiktene deres.
Mikal Kosinski – Stanford University professor som gikk viral siste uke for forskning tyder på at kunstig intelligens (AI) kan finne ut om folk er homofile eller rett basert på bilder – sa seksuell legning var bare en av mange egenskaper som algoritmer ville være i stand til å forutse gjennom ansiktsgjenkjenning. Ved hjelp av bilder, AI vil være i stand til å identifisere personers politiske synspunkter, om de har høy IQs, om de er disponert for kriminell atferd, enten de har bestemte personlighetstrekk og mange andre private, personlige opplysninger som kunne bære store sosiale konsekvenser, sa han.
Nye AI kan finne ut om du er homofil eller rett fra et bilde
Les mer
I et omfattende intervju, Kosinski skissert ekstraordinære og noen ganger forstyrrende programmer for ansikts teknologi for gjenkjenning at han forventer å se i nær fremtid, raising komplekse etiske spørsmål om erosjon av personvern og misbruk av AI til mål sårbare mennesker.
“Ansiktet er en observerbar proxy for et bredt spekter av faktorer, som livet historie, utvikling faktorer, enten du er frisk,” sa han.
Ansikter inneholde en betydelig mengde informasjon, og ved hjelp av store datasett av bilder, sofistikerte programmer kan avdekke trender og lære å skille viktige trekk med en høy grad av nøyaktighet. Med Kosinski er “gaydar” AI, en algoritme som brukes online dating bilder for å lage et program som kunne identifisere seksuell orientering 91% av tiden med menn og 83% med kvinner, bare ved å gjennomgå en håndfull bilder.
Kosinski forskning er svært kontroversielt og har vært gjennom et stort tilbakeslag fra LHBT-rettigheter grupper, som hevdet at AI ble feil og at anti-LHBT myndighetene kan bruke denne typen programvare for å ut homofile og forfølger dem. Kosinski og andre forskere har imidlertid hevdet at kraftig myndigheter og selskaper allerede er i besittelse av disse teknologiske muligheter og at det er viktig for å avdekke mulige farer i et forsøk på å presse på for personvern og lovmessige beskyttelse, som ikke har holdt tritt med AI.
Kosinski, en assisterende professor i organisatorisk atferd, sa han var for tiden studerer sammenhengen mellom ansiktstrekk og politiske preferanser, med foreløpige resultater viser at AI er effektiv på å gjette folks ideologier basert på deres ansikter.
Dette er trolig på grunn av det faktum at politiske synspunkter synes å være heritable, som forskning har vist, sa han. Det betyr at politisk orientering er muligens knyttet til genetikk eller utviklingsmessige faktorer, som kan resultere i synlig ansikts forskjeller.
Kosinski nevnt tidligere studier som har funnet at konservative politikere har en tendens til å være mer attraktive enn de liberale, muligens fordi pen mennesker har flere fordeler, og en enklere tid å komme videre i livet.
Mikal Kosinski. Foto: Lauren Bamford
Professoren sa AI ville fungere best for folk som er langt til høyre eller venstre, og vil være mindre effektive for stor bestand av velgerne i midten. “En høy konservative score … ville være en svært pålitelig prediksjon at denne fyren er konservativ.”
Kosinski er også kjent for sin kontroversielle arbeid på psykometriske profilering, blant annet ved hjelp av Facebook-data for å trekke slutninger om personlighet. Dataene fast Cambridge Analytica har brukt lignende verktøy for å målrette velgerne i støtte av Donald Trump ‘ s kampanje, sparking debatten om bruk av personlig velgernes informasjon i kampanjer.
Ansiktsgjenkjenning kan også brukes til å gjøre slutninger om IQ, sa Kosinski, noe som tyder på en fremtid der skolene kunne bruke resultatene av ansikts-skanner når du vurderer potensielle studenter. Dette programmet reiser en rekke etiske spørsmål, spesielt hvis det er AI forespeiler å avsløre om enkelte barn er genetisk mer intelligente, han sa: “Vi bør tenke på hva du skal gjøre for å sørge for at vi ikke ender opp i en verden hvor bedre gener betyr et bedre liv.”
Noen av Kosinski er forslag trylle frem 2002 science fiction-filmen Minority Report, som politiet arrestere folk før de har begått forbrytelser basert på prognoser for fremtidige drap. Professor hevdet at visse områder av samfunnet allerede fungerer på en lignende måte.
Han siterte skolens rådgivere mellomliggende når de observerer barn som vises til å vise aggressiv atferd. Hvis algoritmer kan brukes til å forutsi nøyaktig som elevene trenger hjelp og tidlig støtte, som kan være fordelaktig, sier han. “Teknologier høres veldig farlig og skummelt på overflaten, men hvis brukt riktig eller etisk, de kan virkelig forbedre vår eksistens.”
Det er imidlertid økende bekymring for at AI og ansiktsgjenkjenning teknologier er faktisk å stole på partisk data og algoritmer og kan føre til stor skade. Det er spesielt alarmerende i sammenheng med strafferett, hvor maskinene kunne ta beslutninger om folks liv – for eksempel lengden av en fengselsstraff eller om å slippe noen på kausjon – basert på partisk data fra en domstol og politi system som er rasistisk prejudiced på hvert trinn.
Kosinski spådd at med et stort volum av ansikts bilder av en person, en algoritme som enkelt kunne oppdage om at personen er en psykopat eller har høy kriminelle tendenser. Han sa at dette var spesielt gjelder gitt at en tilbøyelighet til kriminalitet ikke oversett til kriminelle handlinger: “Selv folk svært tilbøyelige til å begå en forbrytelse er svært lite sannsynlig å begå en forbrytelse.”
Han har også sitert et eksempel som det refereres til i Economist – som først rapporterte om seksuell orientering studie – at nattklubber og sport stadioner kunne møte press for å skanne folks ansikter før de går inn for å oppdage mulige trusler om vold.
Kosinski bemerket at på noen måter, dette var ikke mye forskjellig fra menneske sikkerhetsvakter å gjøre subjektive avgjørelser om folk de mener er altfor farlig-som ønsker å angi.
Loven generelt vurderer folks ansikter å være “offentlig informasjon”, sa Thomas Keenan, professor of environmental design and computer science ved University of Calgary, og understreker at regelverket har ikke fanget opp med teknologi: er det ingen lov som etablerer når bruk av noens ansikt til å produsere ny informasjon stiger til nivået av personvern invasjon.
Keenan sa det kan ta en tragedie for å vekke reformer, som for eksempel en homofil ungdom bli slått ihjel fordi mobberne brukes en algoritme til ham: “Nå, du setter folks liv i fare.”
Selv med kunstig INTELLIGENS som gjør svært nøyaktige spådommer, det er også fortsatt en prosentandel av spådommer som vil være feil.
“Du kommer ned en svært glatte skråningen,” sa Keenan, “hvis en i 20-eller en i hundre ganger … du kommer til å være død galt.”
Kontakt forfatter: sam.levin@theguardian.com