“Jeg var chokeret over, at det var så nemt”: mød professor, der siger facial anerkendelse kan fortælle, hvis du er bøsse

Psykolog Michal Kosinski siger kunstig intelligens kan registrere din seksualitet og politik bare ved at kigge på dit ansigt. Hvad hvis han har ret?

@PaulLewis

E-mail

Lør 7 Jul 2018 10.00 BST

Head shot of psychologist Michal Kosinski with white surveillance square marks round his eyes

Michal Kosinski: “det ved jeg ikke tror på fri vilje.’
Foto: Jason Henry til the Guardian

Vladimir Putin var ikke til stede, men hans loyale løjtnanter var. Den 14. juli sidste år, den russiske premierminister, Dmitrij Medvedev, og flere medlemmer af hans kabinet, der indkaldes i et kontor bygning i udkanten af Moskva. Ind på scenen trådte en drenget udseende psykolog, Michal Kosinski, der var fløjet fra byens centrum med helikopter til at dele sin forskning. “Der var Lavrov, i første række,” husker han flere måneder senere, med henvisning til Ruslands udenrigsminister. “Du ved, en fyr, der starter krige og tager over lande.” Kosinski, en 36-årig assistent professor i organisatorisk adfærd på Stanford University, var smigret over, at det russiske kabinet ville samles for at lytte til ham tale. “De fyre, slår mig som en af de mest kompetente og velinformerede grupper,” fortæller han mig. “De gjorde deres hjemmearbejde. De læst mine ting.”

Kosinski ‘ s “ting” omfatter banebrydende forskning i teknologi, masse overtalelse og kunstig intelligens (AI) – forskning, der inspirerede til skabelsen af den politiske rådgivning Cambridge Analytica. For fem år siden, mens en ph.d. – studerende ved Cambridge University, viste han, hvordan selv godartet aktivitet på Facebook kan afsløre personlighedstræk – en opdagelse, der senere blev udnyttet af data-analytics firma, der hjalp med at sætte Donald Trump i det Hvide Hus.

Der ville være nok til at gøre Kosinski interessant at det russiske kabinet. Men hans publikum ville også have været fascineret af hans arbejde på brug af AI til at opdage psykiske træk. Uger efter sin rejse til Moskva, Kosinski offentliggjort et kontroversielt papir, hvor han viste, hvordan face-analyse af algoritmer kunne skelne mellem billeder af bøsser og lige mennesker. Så godt som seksualitet, han mener, at denne teknologi kunne bruges til at afsløre, følelser, IQ og selv en tilbøjelighed til at begå forbrydelser. Kosinski har også algoritmer, der anvendes til at skelne mellem ansigter af Republikanere og Demokrater, i en ikke-offentliggjort eksperiment, siger han, var en succes – selv om han indrømmer, at de resultater, der kan ændre “afhængigt af, om jeg kan nævnes skæg eller ej”.

Fremskridt, der gør, at folk er ubehageligt. Når de første aber gik, andre aber sikkert sagt, ” Det er skandaløst!’

Hvordan har denne 36-årig akademisk, der har endnu til at skrive en bog, tiltrække sig opmærksomhed fra det russiske kabinet? Over vores flere møder i Californien og London, Kosinski stilarter sig selv som et tabu-at sprænge tænker, at nogen, der er parat til at dykke ned i et vanskeligt område, om kunstig intelligens og overvågning, at andre akademikere ikke. “Jeg kan være ked af, om vi taber fred,” siger han. “Men det vil ikke ændre på det faktum, at vi allerede mistet vores privatliv, og der er ingen vej tilbage uden at ødelægge denne civilisation.”

Formålet med hans forskning, Kosinski siger, er at sætte fokus på farerne. Men han er meget begejstret for nogle af de teknologier, som han hævder at være advarer os om, at tale ophidset om kameraer, der kan afsløre folk, der er “tabt, angst, handlet eller potentielt farligt. Du kunne forestille dig at have disse diagnostiske værktøjer til overvågning af det offentlige rum for potentielle trusler mod sig selv eller til andre,” fortæller han mig. “Der er forskellige privatlivets fred med hver af disse tilgange, men det kan bogstaveligt talt til at redde liv.”

“Fremskridt altid gør folk ubehageligt,” Kosinski tilføjer. “Altid har. Sandsynligvis, da den første aber stoppet hængende fra træerne og begyndte at gå på savannen, de aber i træerne var ligesom, ‘Det er skandaløst! Det gør os ubehageligt.’ Det er det samme med enhver ny teknologi.”

***

Kosinski har analyseret tusindvis af folks ansigter, men aldrig køre sit eget image gennem hans personlighed-afsløring modeller, så vi kan ikke vide, hvilke egenskaber er angivet af hans blege, grå øjne eller dimpling i hans hage. Jeg beder ham om at beskrive sin egen personlighed. Han siger, at han er en samvittighedsfuld, udadvendt og sandsynligvis følelsesmæssige person med en IQ, der er “måske lidt over gennemsnittet.” Han tilføjer: “Og jeg er ubehageligt.” Hvad der gjorde ham på den måde? “Hvis du har tillid til, personlighed videnskab, ser det ud til, at der, i stor udstrækning, du er født på denne måde.”

Hans venner, og på den anden side, beskrive Kosinski som en strålende, provokerende og en ukuelig data videnskabsmand, der har en umættelig (nogle siger, naiv) ønske om at skubbe grænserne for sin forskning. “Michal er som en lille dreng med en hammer,” en af hans akademiske venner fortæller mig. “Pludselig alt ligner et søm.”

Født i 1982 i Warszawa, Kosinski har arvet hans evne til kodning fra sine forældre, der begge er uddannet som software-ingeniører. Kosinski og hans bror og søster havde “en computer derhjemme, er potentielt meget tidligere end vestlige mennesker af samme alder”. Ved slutningen af 1990’erne, som en af Polens post-Sovjetiske økonomi var ved at åbne op, Kosinski var ansættelse af sine kammerater til at arbejde for sin egen IT-virksomhed. Dette business-hjalp fonden ham gennem universitetet, og i 2008 var han indskrevet på en Ph.d. – uddannelse i Cambridge, hvor han var tilknyttet den Psykometri-Center, en facilitet, der har specialiseret sig i måling af psykologiske træk.

Det var omkring denne tid, at han mødte David Stillwell, en anden ph.d. – studerende, som havde bygget en personlighed, quiz og delte det med dine venner på Facebook. App ‘ en hurtigt gik viral, som hundreder og derefter tusindvis af mennesker, der deltog i undersøgelsen til at opdage deres scores i henhold til “Big Five” værdier: åbenhed, samvittighedsfuldhed, udadvendthed, omgængelig og neurotisk. Når brugerne afsluttet myPersonality tests, hvoraf nogle også målt IQ og trivsel, fik de en mulighed for at donere deres resultater til akademisk forskning.

Kosinski kom om bord, ved hjælp af sin digitale færdigheder til at rense, anonymisere og sortere data, og derefter gøre den tilgængelig for andre akademikere. I 2012, mere end 6 millioner mennesker havde taget test – med omkring 40% donere deres data, at skabe den største datasæt af sin slags.

From Cesare Lombroso’s 19th-century criminal taxonomy: headshot of a “habitual thief"

Facebook

Twitter

Pinterest

Fra Cesare Lombroso kriminelle taksonomi: et ‘sædvanligt tyv’…

From Cesare Lombroso’s 19th-century criminal taxonomy: head shot of a murderer

Facebook

Twitter

Pinterest

…og en morder. Billeder: Alamy

I Maj, New Scientist magazine afsløret, at datasættet brugernavn og adgangskode havde været et uheld efterladt på GitHub, er en af de hyppigst anvendte kode-deling websted. For fire år, alle – ikke kun godkendte forskere – kunne have adgang til data. Før bladets undersøgelse, Kosinski havde tilladt mig, at der var risiko for, at deres liberale tilgang. “Vi anonymiserede data, og vi har lavet forskere underskrive en garanti for, at de ikke vil bruge det til kommercielle grunde,” havde han sagt. “Men du kan bare ikke rigtig garantere, at dette ikke vil ske.” Meget af Facebook data, tilføjede han, var “de-anonymisable”. I kølvandet på den Nye Videnskabsmand historie, Stillwell lukkede ned myPersonality projekt. Kosinski har sendt mig et link til den meddelelse, der klager: “Twitter krigere og sensation-søger forfattere gjorde David lukke myPersonality projekt.”

I løbet af den tid de myPersonalitydata var tilgængelig, om 280 forskere, der brugte det til at offentliggøre mere end 100 videnskabelige artikler. Den mest omtalte var en 2013-undersøgelse medforfatter af Kosinski, Stillwell og en anden forsker, der undersøgte forholdet mellem Facebook “Likes” og de psykologiske og demografiske træk af 58,000 mennesker. Nogle af resultaterne blev intuitiv: de bedste prædiktorer for introversion, for eksempel, var Likes til sider, såsom “Video Games” og “Voltaire”. Andre fund var mere forvirrende: blandt de bedste prædiktorer af høj IQ var Likes på Facebook sider for “Tordenvejr” og “Morgan Freeman ‘ s Voice”. Folk, der kunne Lide sider for “iPod” og “Gorillaz” var tilbøjelige til at være utilfredse med livet.

Hvis en algoritme, der blev fodret med tilstrækkelige data om Facebook kan Lide, Kosinski og hans kolleger fandt, at det kunne gøre mere præcise personlighed-baserede forudsigelser end vurderinger, som virkelige venner. I anden forskning, Kosinski og andre, der viste, hvordan Facebook data, kan omdannes til, hvad de beskrev som “en effektiv tilgang til digitale masse overtalelse”.

Deres forskning kom opmærksom på SCL-Group, der er moderselskab for Cambridge Analytica. I 2014, SCL forsøgte at hverve Stillwell og Kosinski, der tilbyder at købe den myPersonality data og deres prædiktive modeller. Da forhandlingerne brød sammen, de stolede på hjælp fra en anden fuldmægtig i Cambridge ‘ s psykologi institut – Aleksandr Kogan, en assisterende professor. Ved hjælp af hans egen Facebook personlighed quiz, og betalende brugere (med SCL penge) for at tage prøver, Kogan, der er indsamlet data om 320,000 Amerikanerne. At udnytte et hul i lovgivningen, der tillod udviklere at høste data fra venner af Facebook app-brugere (uden deres viden eller samtykke), Kogan var i stand til at hoover op af yderligere data, som på så mange som 87 millioner mennesker.

Headshot of whistleblower Christopher Wylie of Cambridge Analytica

Facebook

Twitter

Pinterest

Cambridge Analytica whistleblower Christopher Wylie, der siger, at virksomheden forsøgte at kopiere Kosinski arbejde for ‘psykologisk krigsførelse’. Foto: Getty Images

Christopher Wylie, informanten, der løftede låget på Cambridge Analytica ‘ s operationer, der tidligere i år, har beskrevet, hvordan virksomheden sat sig for at “kopiere” det arbejde, som Kosinski og hans kolleger, og at gøre det til et instrument for “psykologisk krigsførelse”. “Det er ikke min skyld,” Kosinski fortalte reportere fra den Schweiziske offentliggørelse Das Magazin, som var de første til at gøre forbindelsen mellem hans arbejde og Cambridge Analytica. “Jeg har ikke bygge bomben. Jeg viste kun, at den eksisterer.”

Cambridge Analytica altid har benægtet brug af Facebook-baseret psykografiske målretning under Trump kampagne, men skandalen over sine data høst har tvunget selskabet til at lukke. Sagaen også vist sig at være yderst skadelige til Facebook, hvis hovedkvarter er mindre end fire km fra Kosinski ‘ s base på Stanford Business School i Silicon Valley. Første gang jeg træder ind på hans kontor, og jeg spørger ham om et maleri ved siden af sin computer, der forestiller en demonstrant bevæbnet med en Facebook logo i et hylster i stedet for en pistol. “Folk tror, jeg er anti-Facebook,” Kosinski siger. “Men jeg tror, at jeg generelt, det er bare en vidunderlig teknologi”.

Stadig, han er skuffet på Facebook CEO Mark Zuckerberg, der, når han har vidnet for den AMERIKANSKE Kongres i April, sagde han prøvede at finde ud af, “om der var noget slemt, der foregår på Cambridge University”. Facebook, Kosinski siger, var godt klar over, at hans forskning. Han viser mig e-mails, han havde med medarbejdere i 2011, hvor de oplyst, at de var “ved hjælp af analyse af sproglige data til at udlede personlighedstræk”. I 2012 er de samme medarbejdere gemt et patent, der viser, hvordan personlighed egenskaber kan hentes fra Facebook beskeder og statusopdateringer.

Kosinski synes uanfægtet af den furore over Cambridge Analytica, som han føler er uretfærdigt udskældte psykometriske micro-targeting i politik. “Der er negative aspekter ved det, men alt i alt er dette en fantastisk teknologi og godt for demokratiet,” siger han. “Hvis du kan målrette politiske budskaber til at passe folks interesser, drømme, personlighed, du laver de beskeder, der er mere relevant, som gør, at vælgerne er mere engageret – og mere engagerede vælgere, der er gode for demokratiet.” Men du kan også, vil jeg sige, bruge de samme teknikker til at modvirke, at din modstander ‘ s vælgere fra at dreje sig, som er dårlig for demokratiet. “Så hver eneste politiker i USA er at gøre dette,” Kosinski svar, med et skuldertræk. “Når du målrette vælgere af din modstander, dette er en vælger-undertrykkelse aktivitet.”

Kosinski er bredere klage over Cambridge Analytica nedfald, han siger, er, at det har skabt en “illusion”, at myndighederne kan beskytte data og beskytte deres privatliv. “Det er en tabt krig,” siger han. “Vi bør fokusere på at organisere vores samfund på en sådan måde, at sørge for, at post-privacy æra er en beboelig og rart sted at leve.”

***

Kosinski siger, at han aldrig har sat sig for at bevise, at AI kunne forudsige en persons seksualitet. Han beskriver det som en chance for opdagelse, noget han “faldt over”. Pæren øjeblik kom, da han var sigtning gennem Facebook profiler til et andet projekt, og begyndte at lægge mærke til, hvad han troede var mønstre i folks ansigter. “Det pludselig slog mig,” siger han, “indadvendte og udadvendte har helt forskellige ansigter. Jeg var ligesom, ‘Wow, måske der er noget der.’”

Fysiognomi, den praksis at fastslå en persons karakter fra deres ansigt, har en historie der strækker sig helt tilbage til det antikke Grækenland. Men sin storhedstid kom i det 19 århundrede, da den italienske antropolog Cesare Lombroso offentliggjorde sin berømte taksonomi, der erklærede, at “næsten alle kriminelle, der” har “en kande ører, tykke hår, tyndt skæg, udtalt bihuler, fremspringende hager, og brede kindben”. Den analyse, der var forankret i en dybt racistisk tankegang, der fastslog, at kriminelle lignede “vilde aber”, selv om Lombroso præsenterede sine fund med præcision af en retsmediciner. Tyvene var kendt for deres “lille flakkende øjne”, voldtægtsforbrydere deres “opsvulmede læber og øjenlåg”, mens mordere havde en næse, der var “ofte hawklike og altid large”.

Lombroso er stadig er stadig på display i en museum i Torino, udover de kranier af de hundredvis af kriminelle, han har brugt mange år på at undersøge. Hvor Lombroso brugte calipre og craniographs, Kosinski har været ved hjælp af neurale netværk til at finde mønstre i fotos er kopieret fra internettet.

Kosinski har modtaget e-mails fra folk forvirrede omkring deres seksualitet, der håbede, at han ville køre deres foto gennem sin algoritme

Kosinski ‘ s forskning afviser fysiognomi som “en blanding af overtro og racisme forklædt som videnskab” – men så hævder at det skabt et tabu omkring “at studere eller endda diskutere sammenhængen mellem ansigtstræk og karakter”. Der er voksende beviser for, at han insisterer på, at sammenhængen mellem ansigter og psykologi findes, selv om de er usynlige for det menneskelige øje, nu, med fremskridt inden for machine learning, sådanne links kan blive opfattet. “Vi havde ikke algoritmer, der for 50 år siden for, at kunne spotte mønstre,” siger han. “Vi havde kun menneskelige dommere.”

I en rapport, der blev offentliggjort sidste år, Kosinski og Stanford datalog, Yilun Wang, rapporterede, at en maskine-learning system, var i stand til at skelne mellem billeder af gay og straight mennesker med en høj grad af nøjagtighed. De brugte 35,326 billeder fra dating websites, og hvad Kosinski beskriver som “off-the-shelf” facial anerkendelse software.

Præsenteret med to billeder – et af en homoseksuel person, den anden lige – den algoritme, der var trænet i at skelne mellem de to i 81% af tilfældene involverer billeder af mænd og 74% af billeder af kvinder. Menneskelige dommere, derimod, var i stand til at identificere den lige og homoseksuelle mennesker i 61% og 54% af sagerne, hhv. Når den algoritme, der blev vist fem facial billeder per person i parret, dens nøjagtighed er steget til 91% for mænd 83% og for kvinder. “Jeg var bare chokeret over at opdage, at det er så let for en algoritme til at skelne mellem gay og straight people”, Kosinski fortæller mig. “Jeg kunne ikke se hvorfor det ville være muligt.”

Psychologist Michal Kosinski

Facebook

Twitter

Pinterest

‘Jeg har ikke bygge bomben. Jeg viste kun, at det eksisterer.’ Foto: Jason Henry til the Guardian

Heller ikke mange andre mennesker, og der var en øjeblikkelig reaktion, når forsknings – døbt “AI gaydar”, blev fremvist i the Economist. To af Usa ‘s mest fremtrædende LGBTQ organisationer, der krævede, at Stanford distancere sig fra, hvad de kaldte dens professor’ s “farlige og mangelfulde forskning”. Kosinski har modtaget en strøm af e-mails, mange fra folk, der fortalte ham, at de var i tvivl om deres seksualitet, og håbede, at han ville køre deres foto gennem sin algoritme. (Han faldt.) Der var også vrede, at Kosinski havde udført forskning på en teknologi, der kan bruges til at forfølge homoseksuelle i lande som Iran og Saudi-Arabien, hvor homoseksualitet straffes med døden.

Kosinski siger, at hans kritikere savnet det punkt. “Det er den iboende paradoks advare folk mod potentielt farlig teknologi,” siger han. “Jeg snuble på disse resultater, og jeg var faktisk tæt på at sætte dem i en skuffe, og ikke offentliggørelse – fordi jeg havde et rigtig godt liv uden at dette papir at være ude. Men da en kollega spurgte mig, om jeg ville være i stand til at se mig selv i spejlet, hvis man en dag, et selskab eller en regering indsat en lignende teknik til at såre folk.” Det ville, siger han, har været “moralsk forkert” at begrave sine resultater.

En højlydt kritiker af, at forsvar er den Princeton professor Alexander Todorov, der har foretaget nogle af de mest citerede forskning i ansigter og psykologi. Han argumenterer for, at Kosinski ‘ s metoder er behæftet med mange fejl: de mønstre, der er samlet op af algoritmer, der sammenligner tusindvis af billeder, der kan have lidt at gøre med ansigtstræk. I en spottende kritik lagt online, Todorov og to AI-forskere på Google gjort gældende, at Kosinski ‘ s algoritme kunne have været at reagere på mønstre i folks makeup, skæg eller briller, selv den vinkel, de holdt kameraet på. Selv lagt billeder på dating websites, Todorov påpeger, er projektet en række ikke-facial spor.

Kosinski erkender, at hans machine learning system registrerer ikke-forretningsmæssigt forbundne signaler, men er hårdnakket, også software skelner mellem ansigtet strukturer. Hans resultater er i overensstemmelse med den prænatale hormon-teori, seksuel orientering, han siger, og som argumenterer for, at niveauet af androgener, fostre er udsat for i livmoderen hjælpe med at afgøre, om folk er lige eller bøsse. Det samme androgener, Kosinski argumenterer for, også kunne resultere i “køn-atypiske facial morfologi”. “Således,” skriver han i sit oplæg, “bøsser er forudsagt til at have mindre kæber og chins, slankere øjenbryn, længere næser og større panden… Det modsatte skulle være tilfældet for lesbiske.”

Hvis du dybest set accepterer, at vi er lige computere, så er computere, der ikke har begået kriminalitet

Dette er, hvor Kosinski arbejde strejfer ind biologiske determinisme. Mens han ikke benægte den indflydelse af sociale og miljømæssige faktorer på vores personligheder, han spiller dem ned. Til tider, hvad han siger, synes uhyggeligt minder af Lombroso, der var kritisk over for den idé, at kriminelle havde “fri vilje”: de skal være ynkede snarere end straffet, den italienske hævdede, fordi – som aber, katte og gøge – de var “programmeret til at gøre skade”.

“Jeg tror ikke på skyld, fordi jeg ikke tror på den frie vilje,” Kosinski fortæller mig, at forklare, at en persons tanker og adfærd “er fuldt biologisk, fordi de udspringer af de biologiske computer, som du har i dit hoved”. Ved en anden lejlighed, fortæller han mig, “Hvis du dybest set accepterer, at vi er lige computere, så er computere, der ikke har begået kriminalitet. Computere kan opstå fejl. Men så skal du ikke give dem skylden for det.” Professoren tilføjer: “Meget gerne: du behøver ikke, generelt, skylden for hunde, der ikke makker ret.”

Todorov mener, Kosinski ‘ s forskning er “utrolig etisk tvivlsomt”, som det kunne låne en fernis af troværdighed, at regeringer, der måske ønsker at bruge en sådan teknologi. Han peger på et papir, der syntes online to år siden, hvor de Kinesiske AI forskere påstod, at de havde trænet et ansigt-anerkendelse algoritme til at forudsige – med 90% nøjagtighed – af, om en person var en dømt kriminel. Den forskning, der anvendes Kinesiske regering identitet billeder af hundredvis af mandlige forbrydere, ikke var peer-reviewed, og blev revet i stykker af Todorov, der advarede om, at “udviklingen inden for kunstig intelligens og maskinindlæring har aktiveret den videnskabelige racisme ind i en ny æra”.

Kosinski har en anden tage. “Det faktum, at resultaterne var helt ugyldig og uden hold i virkeligheden, betyder ikke, at det, de foreslår, er også forkert,” siger han. “Jeg kan ikke se, hvorfor ville du ikke være i stand til at forudsige tilbøjelighed til at begå en forbrydelse fra en persons ansigt. Vi ved for eksempel, at testosteron niveauer er knyttet til tilbøjeligheden til at begå kriminalitet, og de er også forbundet med ansigtstræk – og dette er bare et link. Der er tusindvis eller millioner af andre, at vi er uvidende om, at computere kunne meget nemt finde frem til.”

Ville han nogensinde foretage en lignende forskning? Kosinski tøver, siger, at “forbrydelse” er en alt for sløv etiket. Det ville være mere fornuftigt, siger han, at “at se på, om vi kan registrere træk eller dispositioner, der er potentielt farligt for et individ eller et samfund – som aggressiv adfærd”. Han tilføjer: “jeg tror, nogen skal jo gøre det… Fordi hvis det er en risikabel teknologi, så regeringer og virksomheder er tydeligt allerede bruger det.”

***

Men når jeg trykker på Kosinski for eksempler på, hvordan psykologi-afsløring AI bliver brugt af regeringer, han gentagne gange falder tilbage på en obskur Israelske start, Faception. Virksomheden tilbyder software, der scanner pas, visum og social media profiler, før spytte ud score at kategorisere folk i forhold til flere personlighedstyper. På sin hjemmeside, Faception lister otte sådanne kriterier for klassificering, herunder “White-Collar Gerningsmanden”, “Høj-IQ”, “Pædofil” og “Terrorist”. Kosinski beskriver virksomheden som “tvivlsomme” – et case-studie i, hvorfor forskere, der bekymrer sig om privatlivets fred bør advare offentligheden om risikoen for AI. “Tjek, hvad Faception gør, og hvilke kunder de har,” fortæller han mig under en animeret debat om etikken i sin forskning.

Jeg kalder Faception ‘ s administrerende direktør, Shai Gilboa, der plejede at arbejde i Israelske militære efterretningstjeneste. Han fortæller mig, at virksomheden har kontrakter, der arbejder på “national sikkerhed og den offentlige sikkerhed” i Asien, Mellemøsten og Europa. Til min overraskelse, at han fortæller mig om et forskningssamarbejde, som han gennemførte for to år siden. “Når du kigger i den akademiske verden marked, du er på udkig efter de bedste forskere, der har meget gode databaser og store erfaring,” siger han. “Så dette er grunden til, at vi nærmede Professor Kosinski.”

Men når jeg sætter denne forbindelse, at Kosinski, spiller han den ned: han hævder, at have mødt Faception at diskutere etik i ansigtet-anerkendelse teknologier. “De kom til at Stanford], fordi de indså, hvad det er, de gør, har potentielt store negative konsekvenser, og for store risici.” Senere, han har erkendt, at der var mere i det. Han mødte dem “måske tre gange” i Silicon Valley, og blev tilbudt aktier i det selskab, i bytte for at blive en rådgiver (han siger, at han faldt).

Kosinski afviser at have samarbejdet om forskning, men indrømmer Faception gav ham adgang til sin facial anerkendelse software. Han eksperimenterede med Facebook billeder i myPersonality datasæt, siger han, til at bestemme, hvor effektive de Faception software til at opdage personlighedstræk. Han foreslog, Gilboa tale til Stillwell om at købe myPersonality data. (Stillwell, Kosinski siger, faldet.)

Han børster på mit forslag om, at disse samtaler synes etisk tvivlsomme. “Jeg vil gøre en masse af det,” siger han. “En masse begynder folk kommer her, og de kan ikke tilbyde dig nogen penge, men de siger,” Se, vi har med dette projekt, kan du rådgive os?’” At dreje ned af en sådan anmodning ville have gjort ham til “en arrogant skiderik”.

Han giver en lignende forklaring på hans rejse til Moskva, som han siger, var arrangeret af Sberbank Corporate University som en “pædagogisk dag” for russiske embedsmænd. Universitetet er et datterselskab af Sberbank, en statsejet bank, som godkendt af EU, og dets administrerende direktør, Ruslands tidligere minister for økonomisk udvikling, er tæt på Putin. Hvad var formålet med rejsen? “Jeg vidste ikke rigtig forstå den sammenhæng,” siger Kosinski. “De sætter mig på en helikopter, der fløj mig til et sted, jeg kom på scenen. På den helikopter jeg fik en briefing om, hvem der skulle være i rummet. Så gav jeg en snak, og vi talte om, hvordan AI er at ændre samfundet. Og så sendte de mig ud.”

‘Overvågningssamfund’ er: teknologi har på den amerikansk-mexicanske grænse gået for vidt?

Læs mere

Den sidste gang jeg ser Kosinski, vi mødes i London. Han bliver irritabel, når jeg trykker ham på Rusland, der peger på sin dystre post om homoseksuelles rettigheder. Gjorde han taler om at bruge facial anerkendelse teknologi til at opdage seksualitet? Ja, siger han – men denne tale, var ikke forskellig fra andre præsentationer, hvor han drøftede den samme forskning. (Et par dage senere, Kosinski fortæller mig, at han har tjekket sit dias; i virkeligheden er, siger han, han ikke fortæller er, at Russerne om hans “AI gaydar”.)

Hvem der ellers var i publikum, bortset fra Medvedev og Lavrov? Kosinski, ved det ikke. Er det muligt, at han talte til et værelse fuld af russiske intelligens agenter? “Det er korrekt”, siger han. “Men jeg tror, at mennesker, der arbejder for overvågning stat, mere end nogen anden, fortjener at få at vide, at det, de gør, er at skabe en reel risiko.” Han fortæller mig, han er ingen fan af Rusland, og understreger, at der ikke var nogen diskussion af spionage, eller at påvirke valget. “Som akademiker, har du pligt til at forsøge at imødegå dårlige ideer og sprede gode ideer,” siger han og tilføjer, at han ville tale med “den mest elendige diktator derude”.

Jeg spørger Kosinski, hvis nogen har forsøgt at rekruttere ham som en aktiv intelligens. Han hække. “Tror du, at hvis en efterretningstjeneste nærmer dig de sige: ‘Hej, jeg er CIA’?” svarer han. “Nej, de siger: ‘Hej, jeg er en start, og jeg er interesseret i dit arbejde og vil du være en rådgiver?’ Der helt sikkert sket i STORBRITANNIEN. Da jeg var i Cambridge, havde jeg en minder.” Han fortæller mig om en Britisk forsvar ekspert han mistanke om arbejdet for de efterretningstjenester, der var meget interesseret i sin forskning, at invitere ham til seminarer med deltagelse af embedsmænd i militære uniformer.

I en af vores sidste samtaler, Kosinski fortæller mig, at han ikke burde have talt om hans besøg i Moskva, fordi hans værter spurgte ham ikke til. Det ville ikke være “elegant” at nævne det i the Guardian, siger han, og desuden, “det er en irrelevant kendsgerning”. Jeg påpeger, at han allerede har efterladt en forholdsvis stor fingerpeg på Facebook, hvor han postede et billede af sig selv ombord på en helikopter, med billedteksten: “at Tage ud til at give en tale til Statsminister Medvedev.” Han blev senere ændret hans personlige indstillinger: billedet er ikke længere forbudt, men for “kun venner”.

• Kommentarer til dette stykke, er premoderated at sikre, at diskussionen forbliver på de emner, der rejses af denne artikel.

I en kommentar om dette stykke? Hvis du gerne vil have din kommentar til at være i betragtning til optagelse på Weekend magazine ‘ s breve side i print, bedes du e-mail weekend@theguardian.com, herunder dit navn og adresse (må ikke offentliggøres).


Date:

by