Hvordan sosiale medier filter bobler og algoritmer påvirke valget

Med Facebook blir en viktig electoral slagmark, forskere studerer hvordan automatisert kontoer brukes til å endre den politiske debatten online

  • Avslørt: Facebook interne regler om sex, terrorisme og vold

A Facebook Live broadcast hosted by ITV News with Theresa May

En Facebook direktesending arrangert av ITV News hadde Theresa Kan svare på spørsmål sendt inn av brukere av nettstedet.
Foto: Facebook/PA

Facebook

Hvordan sosiale medier filter bobler og algoritmer påvirke valget

Med Facebook blir en viktig electoral slagmark, forskere studerer hvordan automatisert kontoer brukes til å endre den politiske debatten online

  • Avslørt: Facebook interne regler om sex, terrorisme og vold

@alexhern

Mandag 22 Mai 2017 14.14 BST

Sist endret på mandag 22 Mai 2017 14.17 BST

En av de mektigste aktørene i den Britiske valgkampen er også en av de mest uklar. Med bare litt over to uker på å gå før velgerne går til urnene, det er to ting hver valget ekspert enig om: hva som skjer på sosiale mediene, og Facebook i særdeleshet, vil ha en enorm effekt på hvor landet stemmer, og ingen har noen anelse om hvordan å måle hva som faktisk skjer der.

“Mange av oss skulle ønske vi kunne studere Facebook,” sa Professor Philip Howard, University of Oxford Internet Institute, “men vi kan ikke, fordi de virkelig ikke dele noe som helst.” Howard leder et team av forskere som studerer “computational propaganda” ved universitetet, forsøker å skinne et lys på måter automatisert kontoer er brukt til å endre debatt på nettet.

“Jeg tror at det har vært flere demokratiske øvelser i det siste året som har gått av skinnene på grunn av store mengder feilinformasjon i den offentlige sfære,” Howard sa. “Brexit og resultatet, og Trump valget og resultatet, er det jeg tenker på som “feil”, i at det var slik betydelige mengder av feilinformasjon ut i den offentlige sfære.

“Ikke alle som kommer fra automatisering. Det kommer også nyheter, kultur, bobler av utdanning, og folks evne til å tenke kritisk når de leser nyheter. Men det nærliggende årsak til feilinformasjon er Facebook som serverer useriøs nyheter til et stort antall brukere.”

Avslørt: Facebook interne avtaleverk på sex, terrorisme og vold

Les mer

Emily Taylor, daglig leder av Oxford Informasjon Laboratorier og redaktør av Journal of Cyber-Politikken, ja, kall Facebook effekt på demokratisk samfunn “snikende”. Taylor uttrykt lignende reservasjoner om falske nyheter spres på sosiale medier, (et begrep Howard skyr på grunn av sin politiske konnotasjoner, og foretrakk å beskrive slike kilder som “falsk”, “junk” eller bare “dårlig”), men hun la til at det var en “dypere, skumlere, mer snikende problem: vi finnes nå i disse kuratert miljøer, der vi aldri se noe utenfor vår egen boble … og vi ikke skjønner hvordan kuratert de er.”

En 2015 studie viste at mer enn 60% av Facebook-brukere er fullstendig uvitende om noen curation på Facebook i det hele tatt, å tro i stedet for at hver enkelt historie fra sine venner og følges sidene dukket opp i sin nyhetsstrøm.

I virkeligheten, de aller fleste av innhold gitt brukeren abonnerer på vil aldri vises foran dem. I stedet, Facebook viser en algoritmisk utvalget, basert på en rekke faktorer: viktigst om noen har betalt Facebook for å promotere innlegg, men også hvordan du har samhandlet med lignende innlegg i det siste (ved å like, kommentere eller dele dem), og hvor mye andre har gjort det samme.

Det er det siste punktet som har Taylor bekymret for automatisering på sosiale medier. Reklame er et svart hull av sine egne, men minst det er å være vagt åpen: alle sosiale medier nettsteder mark sponset innlegg som sådan, og politiske partier er pålagt å rapportere reklame tilbringe på et nasjonalt og lokalt nivå.

Ingen slik forskrift gjelder for automatisering. “Du ser et innlegg med 25 000 retweets eller aksjer som kommer inn i din tidslinje,” Taylor sa, “og du vet ikke hvor mange av dem er menneskelig.” Hun ser automatisering som en del av et bredt spekter av sosiale medier optimalisering teknikker, som partene bruk for å sikre at deres budskap rir på bølgen av algoritmisk curation på så mange tidslinjer som mulig. Det er lik, men mye yngre og mindre dokumentert, søke motor optimalisering, kunsten å sikre en bestemt webside viser høyt opp på Googles søkeresultatsider.

Akademikere som Taylor og Howard forsøker å studere hvordan disse teknikkene er anvendt, og om de virkelig kan svinge valg. Men deres innsats blir såret av det faktum at de største sosiale medier nettverk i verden – Facebook – er nesten helt gjennomsiktig til utenforstående.

Hvis Howard ‘ s-gruppen var å undersøke Facebook heller enn Twitter, de “ville bare være i stand til å gjennomgå den offentlige sider”, sa han. Som ville gå glipp av det store flertallet av aktivitet som foregår på sosiale nettverk, på den private tidslinjer, lukkede grupper, og gjennom effekten av algoritmisk curation på individ-feeder. Selv så, sier han, de offentlige sidene kan være relevante. “I noen av våre andre land studert, vi tror vi har funnet falske Facebook-grupper. Så det er falske brukere, men slik vi tror de var vant med Trumf i særdeleshet – er at de ble brukt, laget, leide, leide, til å bli med falske fan grupper som var full av ikke-virkelige mennesker.

“De falske grupper kan ha slutt tiltrukket ekte fans,” sa han, som var modigere til å erklære sin støtte til kandidaten av kunstig skapt oppfatning av en dønning i støtte for ham. “Det er alle disse Trump fans i nabolaget, at du visste egentlig ikke … så vi tror det er den mekanismen. Og så tror vi at noen av de offentlige sidene ble stengt ned, gikk private, eller bare fordi det var så fulle av mennesker at den falske problemet gikk unna. Vi vet ikke, dette er teorien.”

Facebook er feil: gjorde falske nyheter og polarisert politikk få Trump valgt?

Les mer

Facebook tillater noen forskere tilgang til informasjon som ville svare Howard ‘ s spørsmål, er det bare benytter dem først. Selskapet utgir en moderat strøm av forskning gjennomført av egne data forskere, noen ganger i samarbeid med institusjonene. Av og store, er slik forskning tegner et rosenrødt syn på organisasjonen, men av selskapet dårlig misjudges hvordan et bestemt studium vil bli mottatt av publikum.

I 2014, for eksempel sosiale nettverk publisert forskning som viser at det to år tidligere hadde bevisst økte mengden av det “negative” innhold på tidslinjene for 150.000 mennesker, for å se om det ville gjøre dem triste. Studien til “emosjonell smitte” utløste raseri, og kan ha avkjølt Facebook synspunkter på publisering av forskning full stopp.

Som et resultat av deres mangel på tilgang til Facebook, Howard og hans team har slått til Twitter. Selv der, selskapets grenser hardt rammet – de kan se at bare 1% av innleggene på nettstedet hver dag, noe som betyr at de må nøye velge hvilke vilkår de skjerm for å unngå at det blir for bredt. I den AMERIKANSKE valgkampen, de treffer cap et par ganger, mangler avgjørende timer av data som samtale traff en fever pitch.

Lignende begrensninger eksisterer i hele studiet. Laget hadde for å bruke en bred definisjon av “automatisert bokføring” (de teller enhver konto som gjør mer enn 50 tweets en dag med politiske hashtags), fordi Twitter ikke ville dele sin egen definisjon. Og de hadde til å begrense sin undersøkelse av politiske innlegg til tweets som inneholder ett av rundt 50-kontoer – slik som #ge17 – ikke bare for å unngå å treffe den 1% – grensen, men også å bare ta opp tweets aktivt engasjert i den politiske debatten.

Resultatet, Howard sa, var “vagt analogt” til samtale på Facebook: mens det kan ikke være den samme, og det er sannsynlig at debatter som er mest mulig automatisert på Twitter er også mest automatisert på Facebook, og i stor grad de samme retning.

Men begrensningene har en stor fordel: i motsetning til nesten alle andre akademiske i verden, og de aller fleste av sivile institusjoner som er ansvarlig for regulering av rettferdighet av valg, Oxford Internet Institute, tar sikte på å publisere sine funn før valget, oppdatert på en jevnlig basis. Da jeg møtte Howard, sammen med to av hans DPhil studenter og andre forskere John Gallacher og Monica Kaminska, de var bare begynnelsen for å gjøre følelse av Twitter-data. The graduate studenter møter en tung par uker koding av data, manuelt merking web-domener og lenker til kategorier som “nyheter”, “hoax” eller “video”, men resultatet bør være en sjelden glimt inn i en stil valgkamp som mange av sine utøvere ønske var skjult.

Det er for tidlig å si hvilke resultater de får, selv om Howard har trukket ett avvik fra den foreløpige data: dømme ved egne beregninger, er det ikke synes å være betydelige mengder av roboter innlegg russiske innhold, for eksempel koblinger til Sputnik eller Russland i Dag.

Selv der, selv om han ønsker for en liten sum ekstra samarbeid. “Vi har sluttet å jobbe med geolocation,” sa han, og refererer til prosessen med å prøve å regne ut hvor en bestemt twitter-melding ble sendt, “men Twitter har IP-adressene til hver bruker.” Deling det, selv i gruppen, anonymisert form, kunne skinne et lite lys på en side av demokratisk politikk innhyllet i mørke. I disse dager, på internett, ingen vet du er en bot.


Date:

by