Hvordan Cambridge Analytica vendte Facebook ‘likes’ til en lukrativ politisk redskab

Den algoritme, der bruges i Facebook data, brud bakset om personlige data for at få oplysninger om, seksuel orientering, race, køn – og endda intelligens og barndommens traumer

Lør 17 Mar 2018 13.02 GMT

Sidst opdateret Lør 17 Mar 2018 13.55 GMT

Alexander Nix, CEO of Cambridge Analytica, som arbejdede med Aleksandr Kogan til at høste data.
Foto: The Washington Post/Getty Images

Den algoritme i hjertet af Facebook data, brud lyder næsten for komplekst til at være reel. Det trawl gennem de fleste tilsyneladende triviel, smid indlæg –”likes” brugere dole ud som de gennemse webstedet til at indsamle følsomme personlige oplysninger om seksuel orientering, race, køn, selv intelligens og barndommens traumer.

Et par dusin “likes”, kan give en stærk forudsigelse af, hvilket parti en bruger vil stemme for, at afsløre deres køn, og om deres partner er sandsynligt, at være en mand eller kvinde, skabe stærke fingerpeg om, hvorvidt deres forældre boede sammen i løbet af deres barndom og forudsige deres sårbarhed over for stofmisbrug. Og det kan gøre alt dette uden at fordybe sig i personlige beskeder, indlæg, statusopdateringer, billeder eller alle andre oplysninger, som Facebook har.

Nogle af resultaterne kan lyde mere som følge af opdaterede online detektivevner end sofistikeret analyse af data; “smag” en politisk kampagne side er lidt forskellige fra pinning en plakat i et vindue.

Men for fem år siden psykologi forskere viste, at langt mere komplekse egenskaber kunne udledes mønstre, der er usynlig for en menneskelig observatør, scanning via profiler. Bare et par tilsyneladende tilfældige “likes” kunne danne grundlag for en foruroligende komplekse karakter vurderinger.

Når brugere synes om “curly fries” og Sephora kosmetik, dette blev sagt til at give spor til intelligens; Hello Kitty kan lide angivet politiske synspunkter; “at Være forvirret efter at vågne op fra lur” var knyttet til seksualitet. Disse var blot nogle af de uventede, men konsekvent sammenhænge bemærket i et papir i Proceedings of National Academy of Sciences tidende i 2013. “Få brugere, der var forbundet med ‘likes’ eksplicit at afsløre deres attributter. For eksempel, mindre end 5% af brugerne, der er mærket som bøsse var forbundet med eksplicit gay-grupper, som Ikke H8 Kampagne,” peer-reviewed forskning fundet.

De forskere, Michal Kosinski og David Stillwell og Thore Graepel, så dystopisk potentiale af undersøgelsen og rejst bekymringer vedrørende privatlivets fred. På det tidspunkt, Facebook “likes” blev forbudt som standard.

“Forudsigeligheden af de enkelte attributter, der fra digitale registreringer af adfærd, der kan have betydelige negative konsekvenser, fordi det kan nemt blive anvendt til et stort antal mennesker uden deres samtykke, og uden at lægge mærke til dem,” sagde de.

“Kommercielle virksomheder, offentlige institutioner, eller endda din Facebook-venner kunne bruge software til at udlede egenskaber såsom intelligens, seksuel orientering eller politiske synspunkter, at en person ikke kan have til formål at dele.”

Til nogle, der måtte have lydt som en forretningsmulighed. Fra begyndelsen af 2014, Cambridge Analytica CEO Alexander Nix havde underskrevet en aftale med en af Kosinski er Cambridge kolleger, foredragsholder Aleksandr Kogan, til en privat kommercielt foretagende, der er adskilt fra Kogan opgaver på universitetet, men som et ekko af Kosinski ‘ s arbejde.

Dr Aleksandr Kogan

Dr Aleksandr Kogan

Den akademiske havde udviklet en Facebook app, der fremhævede en personlighed, quiz, og Cambridge Analytica betalt for folk til at tage det, reklamer på platforme som Amazons Mechanical Turk.

App ‘en er optaget resultaterne af hver quiz, der er indsamlet data fra taker’ s Facebook-konto – og, ikke mindst, udtrukket data om deres Facebook-venner så godt.

Resultaterne blev parret med hver quiz-taker ‘ s Facebook-data til at søge mønstre og opbygge en algoritme til at forudsige resultater for andre Facebook-brugere. Deres venners profiler leveret et testområde for formel og, mere afgørende, som en ressource, der ville gøre den algoritme politisk værdifulde.

For at være berettiget til at tage den test brugeren var nødt til at have en Facebook-konto og være OS vælgere, så millioner af profiler kan blive matchet til valglisterne. Fra en indledende forsøg på 1.000 “såmaskiner”, forskerne opnået på 160.000, – profiler, – eller der omkring 160 pr. person. Til sidst et par hundrede tusinde betalt test-takers ville være nøglen til data fra et stort skår af OS vælgere.

Det var yderst attraktive. Det kunne også anses for ulovlig, primært fordi Kogan ikke har tilladelse til at indsamle eller anvende oplysningerne til kommercielle formål. Hans tilladelse fra Facebook til høst profiler i store mængder, der var specifikt begrænset til akademisk brug. Og selv om virksomheden på det tidspunkt, må apps til at indsamle ven data, blev det kun til brug i forbindelse med Facebook selv, til at fremme interaktion. Salg af data på eller til at sætte det til andre formål, herunder Cambridge Analytica er politisk marketing – var strengt udelukket.

Det forekommer også sandsynligt, projektet var ved at bryde den Britiske data protection love, der forbyder salg eller anvendelse af personoplysninger uden samtykke. Det inkluderer tilfælde, hvor der er givet tilladelse til et formål, men data er brugt til en anden.

De betalte test-takers underskrevet op til T&Cs, herunder indsamling af deres egne data, og Facebook ‘s standard betingelser tilladt, at deres venner’, at der indsamles data med en app, medmindre deres personlige indstillinger er tilladt dette. Men ingen af dem enige om, at deres data kan blive brugt til at skabe en politisk marketing værktøj, eller at den bliver placeret i en stor kampagne-database.

Kogan fastholder alt, hvad han gjorde var lovligt og siger, at han havde et “nært samarbejde” med Facebook, som gav ham tilladelse til, at hans apps.

Facebook benægter, at dette var et brud på datasikkerheden. Vice-præsident Paul Grewal sagde: “Beskyttelse af personlige oplysninger, der er kernen i alt, hvad vi gør, og vi kræver det samme fra folk, der arbejder apps på Facebook. Hvis disse rapporter er sande, er det en alvorlig krænkelse af vores regler.”

Grafisk at vise de centrale aktører i Cambridge Analytica historie

Omfanget af dataindsamling Cambridge Analytica betalt for var så stort, at det udløste en automatisk nedlukning af app ‘ ens evne til at høste profiler. Men Kogan fortalte en kollega, at han “talte med en ingeniør” for at få begrænsning ophævet, og inden for en dag eller to, arbejdet genoptages.

Inden for få måneder, Kogan og Cambridge Analytica havde en database med millioner af AMERIKANSKE vælgere, der havde sin egen algoritme til at scanne dem, at identificere hvilke politiske observanser, og personlighedstræk. De kunne så vælge, hvem du vil målrette og håndværk, deres beskeder, der var tilbøjelige til at appellere til dem – en politisk tilgang, der er kendt som “mikro-targeting”.

Facebook meddelte fredag, at det var suspension af Cambridge Analytica og Kogan fra platformen, indtil oplysninger over misbrug af data, der er relateret til dette projekt.

Facebook benægter, at høst af millioner af profiler af GSR og Cambridge Analytica var et brud på datasikkerheden. Det sagde i en erklæring, at Kogan “fået adgang til disse oplysninger på en lovlig måde, og gennem de rigtige kanaler”, men “ikke efterfølgende overholde vores regler”, fordi han gav oplysninger til tredjemand.


Date:

by