Hvordan sociale medier filter bobler og algoritmer påvirke valget

Med Facebook ved at blive et centralt valget slagmark, forskere undersøger, hvordan automatiserede regnskaber bruges til at ændre den politiske debat online

  • Afsløret: Facebook ‘ s interne regler om sex, terrorisme og vold

A Facebook Live broadcast hosted by ITV News with Theresa May

En Facebook Live-udsendelse hosted af ITV News havde Theresa Kan besvare spørgsmål, som indsendes af brugere af hjemmesiden.
Foto: Facebook/PA

Facebook

Hvordan sociale medier filter bobler og algoritmer påvirke valget

Med Facebook ved at blive et centralt valget slagmark, forskere undersøger, hvordan automatiserede regnskaber bruges til at ændre den politiske debat online

  • Afsløret: Facebook ‘ s interne regler om sex, terrorisme og vold

@alexhern

Mandag 22 Maj 2017 14.14 BST

Sidst opdateret mandag den 22 Maj 2017 14.17 BST

En af de mest magtfulde aktører i det Britiske valg er også et af de mest uigennemsigtige. Med lidt over to uger til at gå, før vælgerne går til stemmeurnerne, er der to ting, hvert valg ekspert er enig om, hvad der sker på de sociale medier og Facebook i særdeleshed, vil få en enorm indflydelse på, hvordan landet stemmerne, og ingen har nogen anelse om, hvordan til at måle, hvad der rent faktisk sker der.

“Mange af os ville ønske, at vi kunne studere Facebook,” siger Professor Philip Howard, fra University of Oxford Internet Institute, “men vi kan ikke, fordi de virkelig ikke dele noget.” Howard står i spidsen for et team af forskere, der studerer “computational propaganda” på universitetet, forsøger at kaste lys på, hvordan automatiserede regnskaber bruges til at ændre debatten online.

“Jeg tror, at der har været flere demokratiske øvelser i det sidste år, der er gået af sporet på grund af store mængder af misinformation i det offentlige rum,” Howard sagde. “Brexit og dens udfald, og Trump valget og resultatet heraf, er, hvad jeg tænker på som ‘fejl’, at der var så betydelige mængder af misinformation ud i den offentlige sfære.

“Ikke alle, der kommer fra automatisering. Det kommer også fra de nyheder, kultur, bobler af uddannelse, og mennesker er evnen til at gøre kritisk tænkning, når de læser nyheder. Men den umiddelbare årsag til misinformation er Facebook, der serverer junk nyheder til et stort antal brugere.”

Afsløret: Facebook ‘ s interne regelsæt om sex, terrorisme og vold

Læs mere

Emily Taylor, direktør for Oxford Oplysninger Labs og redaktør af Journal of Cyber Politik, enige om, at kalde Facebook ‘ s effekt på demokratisk samfund “snigende”. Taylor udtrykte lignende forbehold over for falske nyheder spredes på sociale medier, (et begreb, Howard undgår på grund af de politiske konnotationer, der foretrækker at beskrive sådanne kilder, som “falsk”, “junk” eller blot “dårlige”), men hun tilføjede, at der var en “dybere, mere skræmmende, mere snigende problem: vi findes nu i disse kurateret miljøer, hvor vi har aldrig se noget uden for vores egen boble … og vi er ikke klar over, hvor kurateret de er.”

En 2015 undersøgelse foreslået, at mere end 60% af Facebook brugere er helt uvidende om eventuelle datasikring på Facebook ved alle, at tro i stedet på, at hver enkelt historie fra deres venner, og der blev fulgt på sider, der dukkede op i deres news feed.

I virkeligheden, har det store flertal af indhold, som en given bruger abonnerer på, vil aldrig være i front af dem. I stedet, Facebook, viser en algoritmisk udvalg, der er baseret på en række faktorer: vigtigst af alt, om nogen har betalt Facebook for at fremme indlæg, men også hvordan du har interageret med lignende stillinger i fortiden (af smag, kommentere eller dele dem), og hvor meget andre folk har gjort det samme.

Det er det sidste punkt, der er Taylor bekymret for, om automatisering på sociale medier websteder. Reklamer er et sort hul, der er sin egen, men i det mindste har det at være vagt åbent: alle social media sites mark sponsoreret indlæg som sådan, og de politiske partier er forpligtet til at rapportere reklame tilbringe på nationalt og lokalt niveau.

Ikke sådan forordning gælder for automation. “Du kan se et indlæg med 25,000 retweets eller aktier, der kommer ind på din tidslinje,” Taylor sagde, “og du ikke vide, hvor mange af dem er et menneske.” Hun ser, at automatisering som en del af et bredt spektrum af sociale medier optimering teknikker, som parterne bruger til at sikre, at deres budskab rides den bølge af algoritmisk datasikring på så mange tidslinjer som muligt. Det er en lignende, men meget yngre og mindre dokumenterede, at søgemaskineoptimering, den kunst, der sikrer en bestemt web-side viser højt op på Googles søgeresultatsider.

Akademikere såsom Taylor og Howard forsøger at studere, hvordan disse teknikker er anvendt, og om de virkelig kan svinge valg. Men deres indsats er til skade ved det faktum, at de største sociale medier i verden – Facebook – er næsten helt uigennemskuelige for udenforstående.

Hvis Howard ‘ s gruppe var at undersøge Facebook snarere end Twitter, at de “kun ville være i stand til at gennemgå den offentlige sider”, sagde han. At ville gå glip af størstedelen af den aktivitet, der foregår på det sociale netværk, på egen tidslinjer, lukkede grupper, og gennem den effekt, at den algoritmiske datasikring på de enkelte feeds. Selv så, han siger, de offentlige sider, kan være relevante. “I nogle af vores andre undersøgte lande, vi tror, vi har fundet falske Facebook-grupper. Så der er falske brugere, men den måde, vi tror, de blev anvendt – med Trumf i særdeleshed – er, at de blev brugt, skabt, ansat, lejet, til at slutte sig til falske fan-grupper, der var fuld af ikke-rigtige mennesker.

“Disse falske grupper kan have i sidste ende tiltrukket rigtige fans”, sagde han, der var opmuntret til at erklære deres støtte til den kandidat, der ved den kunstigt skabte opfattelse af en dønning i støtte til ham. “Der er alle disse Trump fans i dit nærområde, som du ikke virkelig ved, … så vi tror, det er den mekanisme. Og så mener vi, at nogle af de offentlige sider fik lukket ned, gik egen, eller bare fordi der er så fuld af rigtige mennesker, at de falske problem gik væk. Vi ved det ikke, det er teorien.”

Facebook ‘ s fiasko: gjorde falske nyheder og polariseret politik få Trump valgt?

Læs mere

Facebook tillader, at nogle forskere adgang til oplysninger, der ville svare Howard ‘ s spørgsmål – det er bare anvender dem først. Selskabet offentliggør en moderat strøm af forskning udført af sine egne data forskere, lejlighedsvis sammen med partner-institutionerne. I det store, sådan forskning tegner et rosenrødt billede af organisationen, men lejlighedsvis virksomheden dårligt misjudges, hvordan en bestemt undersøgelse vil blive modtaget af det offentlige.

I 2014, for eksempel, det sociale netværk offentliggjort forskning, der viser, at to år tidligere havde bevidst øget mængde af “negative” indhold, om tidsfrister for 150.000 mennesker, for at se om det ville gøre dem kede af det. En undersøgelse af “følelsesmæssig smitte” udløste harme, og kan have afkølet Facebook ‘ s synspunkter om publicering af forsknings-fuld stop.

Som et resultat af deres manglende adgang til Facebook, Howard og hans team har henvendt sig til Twitter. Selv der, virksomhedens grænser hårdt ramt – de kan se, blot 1% af alle indlæg på hjemmesiden hver dag, hvilket betyder at de er nødt til omhyggeligt at vælge, hvad angår de monitor for at undgå at blive alt for bredt. I den AMERIKANSKE valgkamp, de ramte den fælles landbrugspolitik et par gange, manglende afgørende timer af data som samtale ramte en fever pitch.

Lignende begrænsninger findes i hele undersøgelsen. Holdet var nødt til at bruge en bred definition af “elektronisk bogføring” (de tæller alle konti, der gør mere end 50 tweets en dag med politiske hashtags), fordi Twitter ville ikke dele sin egen definition. Og de var nødt til at begrænse deres undersøgelse af politiske indlæg til tweets, der indeholder en af omkring 50 hashtags – såsom #ge17 – ikke kun for at undgå at ramme 1% – grænsen, men også til kun at øse op tweets, der er aktivt engageret i den politiske debat.

Resultatet, Howard sagde, var “vagt svarer” til samtale på Facebook: mens det kan ikke være de samme, det er sandsynligt, at de debatter, der er mest automatiserede på Twitter er også mest automatiserede på Facebook, og i stort set samme retning.

Men de begrænsninger, har én stor fordel: i modsætning til næsten alle andre akademiske i verden, og langt størstedelen af de civile institutioner, der er ansvarlige for regulering af den retfærdige valg, Oxford Internet Institute har til formål at offentliggøre sine resultater før valget, opdateret på en regelmæssig basis. Da jeg mødte Howard, sammen med to af hans DPhil studerende og kolleger forskere John Gallacher og Monica Kaminska, de var bare begyndt at gøre følelse af Twitter-data. De studerende står over for en tung par uger kodning af data, manuelt mærkning web-domæner og links i kategorier som “nyheder”, “hoax” eller “video”, men resultatet bør være et sjældent indblik i en stil i valgkamp, at mange af dens udøvere ønske var skjult.

Det er for tidligt at sige, hvilke resultater de vil få, selvom Howard har trukket en konstatering fra de foreløbige data: at dømme efter deres egne målinger, der ikke synes at være betydelige mængder af bots udstationering russiske indhold, såsom links til Sputnik eller Rusland i Dag.

Selv der, men han ønsker for en lille smule ekstra samarbejde. “Vi er holdt op med at arbejde med geolocation,” sagde han, med henvisning til den proces af forsøger at arbejde ud fra, hvor en bestemt tweet blev sendt, “men Twitter har IP-adresser for hver bruger.” Dele, der, selv i samlet, anonymiseret form, kunne skinne en lille lys på en side af demokratisk politik indhyllet i mørke. Disse dage, er på internettet, ved ingen, at du er en bot.


Date:

by