Professor vars studie som visade att teknik kan upptäcka om en person är gay eller straight, säger program snart kommer att visa egenskaper som kriminella anlag
@SamTLevin
e-post
Tisdag 12 September 2017 08.00 BST
Senast ändrad tisdagen den 12 September 2017 12.59 BST
Väljarna har rätt att hålla sina politiska övertygelser privat. Men enligt vissa forskare, tar det inte lång tid innan en dator kan programmet korrekt gissa om man är liberal eller konservativ på ett ögonblick. Allt som behövs är bilder på deras ansikten.
Michal Kosinski – Stanford University professor som gick viral förra veckan för forskning som tyder på att artificiell intelligens (AI) kan upptäcka om folk är gay eller straight baserade på foton – sa sexuell läggning var bara en av många egenskaper som algoritmer som skulle kunna förutsäga genom ansiktsigenkänning.
Med hjälp av foton, AI kommer att kunna kartlägga människors politiska åsikter, oavsett om de har hög IQs, oavsett om de är predisponerade för kriminellt beteende, oavsett om de har specifika personlighetsdrag och många andra privata, personliga detaljer som kunde genomföra stora sociala konsekvenser, sade han.
Den nya AI: n kan du träna oavsett om du är gay eller straight från ett fotografi
Läs mer
Kosinski som beskrivs extra och ibland störande tillämpningar av ansikts-detection-teknik att han förväntar sig att se i en nära framtid, höja komplexa etiska frågor om urholkningen av integritet och eventuella missbruk av AI till målet utsatta människor.
“Ansiktet är en observerbar proxy för ett brett spektrum av faktorer, som ditt liv historia, din utveckling faktorer, oavsett om du är frisk”, sade han.
Ansikten innehåller en betydande mängd information, och med hjälp av stora datamängder av foton, sofistikerade datorprogram kan avslöja trender och lära sig att skilja viktiga egenskaper med en hög grad av noggrannhet. Med Kosinski ‘ s “gaydar” AI, en algoritm som används för online dating bilder för att skapa ett program som kunde korrekt identifiera sexuell läggning 91% av tiden med män och 83% kvinnor, bara genom att granska en handfull bilder.
Kosinski ‘ s forskning är mycket kontroversiella, och står inför ett stort bakslag från HBT-grupper, som hävdade att AI var bristfällig och att anti-HBT-myndigheter kan använda denna typ av programvara för att reda homosexuella och förfölja dem. Kosinski och andra forskare har dock hävdat att mäktiga regeringar och företag redan besitter dessa tekniska möjligheter och att det är viktigt att exponera eventuella faror i ett försök att verka för sekretess och lagstadgade garantier, som inte har hållit jämna steg med AI.
Kosinski, biträdande professor i organisatoriskt beteende, sade han studerade kopplingen mellan ansiktsuttryck och politiska preferenser, med preliminära resultaten visar att AI är effektivare på att gissa människors ideologier som bygger på deras ansikten.
Detta beror förmodligen på att politiska åsikter verkar vara ärftliga, eftersom forskning har visat, sade han. Det innebär att politiska sympatier kan kopplas till genetik eller utvecklingsmässiga faktorer, vilket kan resultera i detekterbara facial skillnader.
Kosinski sade tidigare studier har funnit att konservativa politiker tenderar att vara mer attraktiva än liberaler, möjligen för att snygga människor har fler fördelar och en lättare tid att komma framåt i livet.
Michal Kosinski. Foto: Lauren Bamford
Kosinski sa AI skulle fungera bäst för personer som står långt till höger eller vänster och att det skulle vara mindre effektivt för den stora gruppen av väljare i mitten. “En hög konservativ värdering … skulle vara en mycket tillförlitlig prognos att den här killen är konservativ.”
Kosinski är också känd för sitt kontroversiella arbete på psykometriska profilering, bland annat med hjälp av Facebook data för att dra slutsatser om personlighet. De uppgifter som företaget Cambridge Analytica har använt liknande verktyg för att rikta väljarna i stöd av Donald Trump ‘ s kampanj, gnistor debatten om användning av personlig väljare information i kampanjer.
Ansiktsigenkänning kan också användas för att dra slutsatser om IQ, sade Kosinski, vilket tyder på en framtid där skolor kan använda resultaten i ansiktet söker när man överväger blivande studenter. Denna ansökan väcker en rad etiska frågor, särskilt om AI är som utger sig för att avslöja om vissa barn är genetiskt mer intelligent, han sade: “Vi bör tänka på vad man ska göra för att se till att vi inte hamnar i en värld där bättre gener innebär ett bättre liv.”
Några av Kosinski ‘ s förslag trolla fram 2002 science-fiction-film Minority Report, där polisen arresterar människor innan de har begått brott, som bygger på prognoser av framtida mord. Professorn menade att vissa av de områden i samhället som redan fungerar på ett liknande sätt.
Han nämnde elevrådgivare att ingripa när de observerar barn som tycks uppvisar aggressivt beteende. Om algoritmer kan användas för att exakt förutsäga vilka elever som behöver hjälp och stöd i ett tidigt skede, som kan vara till nytta, sade han. “Den teknik som låter väldigt farligt och skrämmande på ytan, men om de används på rätt sätt eller etiskt, de kan verkligen förbättra vår existens.”
Det finns dock en växande oro för att AI och ansiktsigenkänning teknik är faktiskt beroende av partiska data och algoritmer och kan orsaka stor skada. Det är särskilt alarmerande inom ramen för brottmål, där maskiner kan fatta beslut om människors liv – som längden av ett fängelsestraff eller om att släppa någon på borgen – som bygger på snedvridna data från en domstol och politiskt system som är rasistiskt skadas vid varje steg.
Kosinski förutspådde att med en stor volym av ansikts bilder av en person, en algoritm kan lätt upptäcka om en person är en psykopat eller har hög brottsliga tendenser. Han sade att detta var särskilt med tanke på att en benägenhet för brott översätter inte till brottsliga handlingar: “Även människor som är mycket benägna att begå brott är mycket osannolikt att begå ett brott.”
Han citerade också ett exempel som refereras i den Ekonom som först rapporterade sexuell läggning studie – som nattklubbar och sport arenor kan utsättas för påtryckningar att skanna människors ansikten innan de går in för att identifiera möjliga hot om våld.
Kosinski noteras att på vissa sätt, detta var inte mycket annorlunda från de mänskliga väktare att göra subjektiva beslut om personer som de anser vara alltför farligt att gå in på.
Lagen i allmänhet anser att människors ansikten för att vara “offentlig information”, säger Thomas Keenan, professor i environmental design-och datavetenskap vid University of Calgary, att notera att lagstiftningen har inte hängt med den tekniska utvecklingen: ingen lag som anger när användningen av någons ansikte för att producera ny information stiger till den nivå av integritet invasionen.
Keenan sa att det kan ta en tragedi att gnista reformer, såsom homosexuella ungdomar att bli slagen till döds på grund av mobbarna används en algoritm för att ut honom: “Nu, du sätter människors liv i fara.”
Även med AI som gör mycket noggranna förutsägelser, det finns också fortfarande en andel av förutsägelser som kommer att vara felaktiga.
“Du kommer ner en mycket hal is, säger Keenan, “om man i 20 eller bara en av hundra gånger … du kommer att vara döda fel.”
Kontakta författaren: sam.levin@theguardian.com