Professor, hvis undersøgelse foreslået teknologi, der kan afsløre, om en person er homoseksuel eller lige siger programmer vil snart afsløre træk såsom kriminelle disposition
@SamTLevin
Tirsdag den 12 September 2017 08.00 BST
Sidst opdateret tirsdag den 12 September 2017 08.01 BST
Vælgerne har ret til at holde deres politiske overbevisning private. Men ifølge nogle forskere, at det ikke vil vare længe, før et edb-program, der præcist kan gætte, om folk er liberale og konservative i et øjeblik. Alle der vil være behov for er billeder af deres ansigter.
Michal Kosinski – Stanford University professor, der gik viral sidste uge for forskning tyder på, at kunstig intelligens (AI) kan afsløre, om folk er bøsser eller lige er baseret på fotos – sagde seksuel orientering var blot en af mange egenskaber, der algoritmer, der ville være i stand til at forudsige gennem facial anerkendelse. Ved hjælp af fotos, AI vil være i stand til at identificere folks politiske holdninger, uanset om de har en høj IQs, om de er disponeret for at kriminel adfærd, uanset om de har særlige personlighedstræk og mange andre private, personlige oplysninger, der kan bære store sociale konsekvenser, sagde han.
Nye AI kan finde ud af, om du er bøsse eller direkte fra et fotografi
Læs mere
I et omfattende interview, Kosinski, der er skitseret den ekstraordinære og til tider foruroligende applikationer af ansigts detektion teknologi, at han forventer at se i den nærmeste fremtid, hæve komplekse etiske spørgsmål om den udhuling af privatlivets fred og den mulige misbrug af AI til at målrette sårbare mennesker.
“Ansigtet er en observerbar proxy for en bred vifte af faktorer, som dit liv, historie, din udvikling faktorer, uanset om du er sund,” sagde han.
Ansigter, der indeholder en betydelig mængde af information, og ved hjælp af store datasæt af fotos, avancerede edb-programmer, der kan afdække tendenser og lære at skelne mellem centrale træk med en høj grad af nøjagtighed. Med Kosinski “gaydar” AI, en algoritme, der bruges online dating fotos til at skabe et program, der kan korrekt at identificere seksuel orientering 91% af tiden med mænd og 83% med kvinder, blot ved at gennemgå en håndfuld billeder.
Kosinski ‘s forskning er meget kontroversielt, og står over for en enorm modreaktion fra LGBT-rettigheder grupper, der argumenterede for, at AI’ en var behæftet med fejl, og at anti-homoseksuelle, biseksuelle og transseksuelle regeringer kunne anvende denne form for software til at ud af homoseksuelle mennesker, og forfølge dem. Kosinski og andre forskere, men har gjort gældende, at magtfulde regeringer og selskaber, der allerede er i besiddelse af disse teknologiske muligheder og at det er afgørende til at afsløre mulige farer i et forsøg på at presse på for beskyttelse af privatlivet og reguleringsmæssige rammer, som ikke har holdt trit med AI.
Kosinski, en assisterende professor i organisatorisk adfærd, sagde, at han var i færd med at studere sammenhængen mellem ansigtstræk og politiske præferencer, med de foreløbige resultater viser, at AI er effektiv til at gætte folks ideologier, der er baseret på deres ansigter.
Dette skyldes sandsynligvis det faktum, at de politiske synspunkter, der synes at være arvelige, som forskning har vist, sagde han. Det betyder, at politiske ståsted er muligvis i tilknytning til genetik eller udviklingsmæssige faktorer, som kan resultere i påviselige facial forskelle.
Kosinski bemærkede tidligere undersøgelser, som har fundet, at konservative politikere har en tendens til at være mere attraktive end de liberale, muligvis fordi der så godt ud, folk har flere fordele, og en lettere tid på at komme videre i livet.
Michal Kosinski. Foto: Lauren Bamford
Professoren sagde AI ville udføre bedst for folk, der er langt til højre eller venstre, og ville være mindre effektiv for den store bestand af vælgere i midten. “En høj konservative score … ville være en meget pålidelig forudsigelse om, at denne fyr er konservativ.”
Kosinski er også kendt for sine kontroversielle arbejde på psykometriske profilering, herunder brug af Facebook data til at kunne drage slutninger om personlighed. Data firma Cambridge Analytica har brugt lignende værktøjer til at målrette vælgere i støtte af Donald Trump ‘ s kampagne, gnister debatten om brug af personlige oplysning af vælgere i kampagner.
Facial anerkendelse kan også bruges til at drage slutninger om IQ, sagde Kosinski, hvilket tyder på en fremtid, hvor skolerne kunne bruge resultaterne af ansigts-scanninger, når de i betragtning kommende studerende. Denne ansøgning rejser en række etiske spørgsmål, især hvis AI ‘ er, der lover at afsløre, om visse børn er genetisk mere intelligent, han sagde: “Vi bør tænke om, hvad man kan gøre for at sikre, at vi ikke ender i en verden, hvor bedre gener, betyder et bedre liv.”
Nogle af Kosinski forslag fremmane 2002 science-fiction filmen Minority Report, hvor politiet anholde folk, før de har begået forbrydelser, der er baseret på forudsigelser af fremtidige mord. Professor gældende, at visse områder af samfundet, der allerede fungerer på en lignende måde.
Han nævnte skole rådgivere gribe ind, når de ser børn, der synes at udvise aggressiv adfærd. Hvis algoritmer, der kan anvendes til præcist at forudsige, hvilke elever der har brug for hjælp og støtte, der kan være til gavn, sagde han. “De teknologier, der lyder meget farligt og skræmmende på overfladen, men hvis de anvendes korrekt, eller etisk, de virkelig kan forbedre vores eksistens.”
Der er imidlertid en voksende bekymring for, at AI og facial anerkendelse teknologier er faktisk afhængige af forudindtaget data og algoritmer, og kan forårsage stor skade. Det er særligt alarmerende i forbindelse med straffesager, hvor maskiner kunne træffe beslutninger om folks liv – som længden af en fængselsstraf, eller om at frigive nogen mod kaution – baseret på forudindtaget data fra en domstol og politi-system, der er racistisk skadet ved hvert skridt.
Kosinski forudså, at med en stor mængde facial billeder af en person, en algoritme, der let kunne opdage, hvis denne person er psykopat eller har en høj kriminelle tilbøjeligheder. Han sagde, at dette var især med hensyn til i betragtning af, at en tilbøjelighed til kriminalitet ikke oversætte til kriminelle handlinger: “Selv folk, meget tilbøjelige til at begå en forbrydelse, er meget usandsynligt, at begå en forbrydelse.”
Han har også nævnt et eksempel, der refereres til i den Økonom, som først rapporterede seksuelle orientering undersøgelse – at natklubber og sport stadioner, der kunne udsættes for pres til at scanne folks ansigter, før de kommer til at afsløre eventuelle trusler om vold.
Kosinski bemærkes, at på nogle måder, dette var ikke meget forskelligt fra menneske sikkerhedsvagter gør subjektive beslutninger om mennesker, de anser for farlige-leder for at komme ind.
Loven generelt mener folks ansigter til at blive “offentlige oplysninger”, sagde Thomas Keenan, professor of environmental design og computer science på University of Calgary, at bemærke, at regler ikke er fanget op med teknologi: ingen lov, der fastslår, hvornår brugen af en persons ansigt til at producere nye oplysninger, der stiger til det niveau af privatlivets fred invasion.
Keenan sagde, at det kunne tage en tragedie at skabe reformer, såsom en bøsse unge bliver slået ihjel, fordi mobberne anvendes en algoritme til at ud af ham: “Se, du er ved at sætte folks liv i fare.”
Selv med AI, der gør meget præcise forudsigelser, der er også stadig en procentdel af forudsigelser, der vil være forkerte.
“Du går ned ad en meget glat skråplan,” siger Keenan, “hvis man i 20-eller en ud af hundrede gange … du kommer til at være forkert.”
Kontakt forfatteren: sam.levin@theguardian.com