Illustration: Elena Scotti (Foto: Shutterstock)
Internettet er trådt ind i en ny æra, tvinger os til at gætte på stort set alt, hvad vi se, høre og læse. I deres nye bog, LikeWar: Weaponization af Sociale Medier, P. W. Singer og Emerson Brooking udforske foruroligende måder, hvor internettet er at omdanne nyheder, politik, og karakteren af krigen selv.
Sociale medier, det er fair at sige, har ikke slået ud af den måde, vi troede det ville. Medier som Facebook, Instagram og Twitter—når en afslappet plads til at dele fotos, personlige opdateringer, og forbinde med gamle venner—er i stigende grad ved at blive co-valgt for politiske og ideologiske formål. I den nye bog, Sanger, en strateg på det Nye Amerika tænketank og en best-selling forfatter, og Brooking, research fellow ved the Council on Foreign Relations, undersøge dette nye og voksende digitale slagmark.
Ingen tvivl om, at sociale medier har oplevet en dyb tab af uskyld. Stikker og kan lide at have været erstattet af Twitter krige, deepfakes, og masse misinformationskampagner. Valg den nationale sikkerhed og den offentlige sikkerhed er ved at blive bragt i fare af de gåen-on i disse engang-uskadelige-kanaler. I denne nye slagmark, vi brugere af internet og sociale medier, er i fare for at blive manipuleret og styret. I en vis forstand, at vi selv er blevet hacket.
I uddrag nedenfor, Sanger og Brooking udforske de forskellige måder, hvorpå nye teknologier—kunstig intelligens i særdeleshed—vil komplicere sociale medier endnu. Internettet er ved at få en hel masse murkier, og som følge heraf, er vores evne til at skelne fakta fra fiktion vil være i fare. —George Dvorsky
I løbet af de sidste årtier, sociale medier virksomheder er blevet reglerne i enorme digitale riger, gennem hvilket alt fra vores ferie billeder og dating liv til, hvad vi mener om politik og krig, at alle forløb. Men de er også blevet noget andet, teknologi kraftcentre, udgifter bogstaveligt talt snesevis af milliarder af dollars på at skabe nye former for kunstig intelligens, der vil køre vores fremtidige verden.
Nogle af de mest spændende arbejde der bliver gjort på “neurale netværk”, der afspejler hjerne på en måde, som fungerer ved hjælp af mønstergenkendelse. De støvtætte gennem massive mængder af data, spionage ligheder og gøre slutninger om, hvad der måske hører til hvor. Med nok neuroner, bliver det muligt at opdele nettet i flere “lag”, der hver opdage et nyt mønster ved at starte med resultaterne af det foregående lag. Hvis en neurale netværk er at studere billeder, det kan starte med at udforske begrebet “kanter,” sortering ud i alle kanter fra ikke-kanter. Igen, det næste lag kan finde “cirkler”; laget efter, at “ansigter”; lag efter det, “næser.” Hvert lag gør det muligt for netværket at nærme sig et problem med at mere og mere nøjagtighed.
Neurale netværk er uddannet via en proces kendt som “dyb læring.” Oprindeligt denne proces blev overvåget. En kød-og-blod menneskelige ingeniør fed netværket et bjerg af data (10 millioner billeder eller et bibliotek af engelsk litteratur) og langsomt styret nettet for at finde ud af, hvad de ingeniør var på udkig efter (en “bil” eller en “rose”). Som det netværk, gik til sit arbejde, mønster-sortering og ingeniør bedømt på sine præstationer og sammenknebne synapser, fik det en lille smule bedre hver gang. Forfatter Gideon Lewis-Kraus dejligt beskriver den proces, som er tuning en slags “kæmpe maskine demokrati.”
I dag, avanceret neurale netværk kan fungere uden, at den menneskelige tilsyn. I 2012, ingeniører med Google Hjernen projektet har udgivet en banebrydende undersøgelse, der dokumenterede, hvordan de havde fodret en ni-lag neurale netværk 10 millioner forskellige screenshots fra tilfældige YouTube-videoer, der forlader det til at spille med data på sin egen. Som det sigtet gennem skærmbilleder, neurale netværk — ligesom mange menneskelige YouTube-brugere, udviklet en fascination med billeder af katte. Ved at finde og isolere et sæt af kat-relaterede kvaliteter, det lærte sig at være en effektiv kat detektor. “Vi har aldrig fortalt det under træningen, “Det er en kat’,” forklarede en af Googles ingeniører. “Det dybest set opfundet begrebet en kat.”
De sociale medier giganter investerer så dybt i den teknologi, fordi de mener, at det rummer potentialet til at løse alle mulige problemer for dem, fra at skabe mere overbevisende markedsføring, at de øger deres overbebyrdede menneskelige indhold, moderation specialister (der blot er overvældet af den store mængde af had og vold slynget ud på nettet). I slutningen af 2017, Google annoncerede, at 80 procent af den voldelige, ekstremistiske videoer uploadet til YouTube var automatisk blevet opdaget og fjernet, før en enkelt bruger havde signaleret dem.
Disse virksomheder mener, at den næste fase er at “hacke chikane,” undervisning neurale netværk til at forstå strømmen af online samtale med henblik på at identificere trolde og spørgsmål dem alvorlige advarsler før et menneske moderator har brug for at få involveret. En Google-system, som er beregnet til at opdage misbrug—ikke bare bandeord, men giftige sætninger og skjult fjendtlighed—har lært at vurdere sætninger på et “angreb skala” fra 1 til 100. Dets konklusioner er justeret med de menneskelige moderatorer omkring 90 procent af tiden.
Disse neurale netværk–baseret sentiment analyse kan anvendes ikke blot til individuelle samtaler, men at den samlede aktivitet for hver bruger af sociale medier på en platform. I 2017, Facebook begyndte at teste en algoritme, der er beregnet til at identificere brugere, der blev deprimeret og med risiko for selvmord. Det anvendes mønstergenkendelse til at overvåge brugernes indlæg, tagging af personer, der er mistænkt for at indeholde tanker om selvmord og sende dem til sine indhold moderation hold. En selvmorderisk brugeren kunne modtage støtte og link til psykologiske ressourcer uden andre mennesker at have bragt post til Facebook ‘ s opmærksomhed (eller endda at have set det). Det var et stærkt eksempel på en potentiel god—men også en oplagt udfordring for online privacy.
Social media-virksomheder kan også anvende neurale netværk til at analysere de links, som brugerne deler. Dette er nu ved at blive anvendt til det vanskelige problem med misinformation og “falske nyheder”. Flere engineering nystartede uddannelse af neurale netværk til at fact-tjekke overskrifter og artikler, test af basale statistiske krav (“Der var x antal illegale indvandrere i sidste måned”) mod en stadigt voksende database af fakta og tal. Facebook ‘ s AI videnskabsmand, der har vendt mange hoveder, når i kølvandet af 2016 AMERIKANSKE valg, bemærkede han, at det var teknisk muligt at stoppe viral usandheder. Det eneste problem, forklarede han, var i forvaltningen af “trade-offs”—at finde den rigtige blanding af “filtrering og censur og ytringsfrihed og anstændighed.” Med andre ord, den samme vanskelige politiske spørgsmål, der har plaget Silicon Valley fra begyndelsen.
Men den store alsidighed af neurale netværk skaber også deres nye fare. Smart selvom teknologien kan være, det bekymrer sig ikke, hvordan det bruges. Disse netværk er ikke forskellig fra en kniv eller en pistol eller en bombe—ja, de er lige så tveægget som internettet selv.
Regeringerne i mange af de mindre-end-frie nationer, savle på den strøm af neurale netværk, der kan lære millioner af ansigter, flag “tvivlsom” – tale, og udlede skjulte mønstre i den akkumulerede online aktivitet af deres borgere. Den mest oplagte kandidat er Kina, hvis søgeord-filtrering og sociale kredit system vil drage stor fordel af gennemførelsen af sådanne intelligente algoritmer. I 2016, Facebook blev rapporteret til at være at udvikle sådan en “smart” censur-system i et forsøg på at gøre det muligt at udvide i de massive Kinesiske marked. Det var en grim ekko af, hvordan Sun Microsystems og Cisco gang i sammensværgelse om at bygge Kinas Store Firewall.
Men det tager ikke en autoritær stat til at slå et neuralt netværk til det onde ender. Alle kan bygge og træne en bruger gratis, open-source værktøjer. En eksplosion af interesse i disse systemer, der har ført til, at tusindvis af nye applikationer. Nogle kan beskrives som “nyttige,” andre “mærkelige.” Og et par—men udviklet med de bedste intentioner—er med rette betegnes som intet mindre end “mind-bendingly skræmmende.”
Vi har allerede set, hvor nemt det er for åbenlyse løgne (“verden er flad”; “pizzaria er en hemmelig sex med mindreårige dungeon”) til at tage fat, og der spredes over internettet. Neurale netværk er indstillet til massivt at forværre dette problem med oprettelsen af, hvad der er kendt som “deepfakes.”
Lige som de kan studere optaget tale til at udlede, hvilket betyder, at disse netværk kan også studere en database af ord og lyde til at udlede de komponenter af tale—pitch, kadence, intonation—og lære at efterligne en persons stemme næsten perfekt. Desuden, at netværket kan bruge sin beherskelse af en stemme til at omtrentlige ord og sætninger, at det aldrig har hørt. Med et minut værd af lyd, disse systemer kan gøre en god tilnærmelse af nogen tale mønstre. Med et par timer, de er stort set perfekt.
En sådan “tale-syntese” startup, kaldet Lyrebird, chokerede verden i 2017, når det frigives optagelser af en uhyggeligt nøjagtig, fuldstændig falske samtale mellem Barack Obama, Hillary Clinton, og Donald Trump. Et andet selskab afsløret et redigeringsværktøj, at det, der er beskrevet som “Photoshop til lyd, og” viser, hvordan man kan ændre eller tilføje nye stumper af tale til en lyd fil, så let, som man kunne røre et billede op.
Neurale netværk kan syntetisere ikke bare, hvad vi læser og hører om, men også hvad vi ser. I 2016, et team af edb-og av-forskere viste, hvordan den, der starter med et to-dimensionalt billede, at de kunne bygge en fotorealistisk, tre-dimensionelle model af en persons ansigt. De demonstrerede det med den sene boksning legenden Muhammad Ali, der forvandler et enkelt billede ind i en hyper-realistisk ansigt maske klar til at blive animeret og placeret i en virtuel verden—og i stand til at omskrive historien om, hvad Muhammed gjorde og sagde, da han var i live.
Denne teknologi kan også bruges til at ændre den nuværende eller fremtidige. Ved hjælp af en off-the-shelf webcam, et andet team af forskere fanget “facial identitet” i en test emne: proportioner af deres funktioner og bevægelsesmønstre i deres mund, bryn, og jawline. Så de havde taget facial identitet af en anden person i en forudindtalt video, som Arnold Schwarzenegger, der sidder til en samtale eller George W. Bush holder en tale. Efter at de fusionerede de to facial identiteter via “deformation overførsel,” oversætte bevægelser af den første side i et rimeligt forhold bevægelser, som den anden. I det væsentlige, testpersonen kunne bruge deres eget ansigt til at styre et udtryk for den person på skærmen i real time. Hvis petite kvinde foran webcam åbnede sin mund, så gjorde faux Arnold Schwarzenegger. Hvis den midaldrende fyr med strittende hår og et fipskæg mund ord i hurtig rækkefølge, og hævede et øjenbryn, så gjorde den fotorealistiske George W. Bush. Som forskerne selv bemærkede, “Disse resultater er svære at skelne fra virkeligheden, og ofte går ubemærket hen, at indholdet ikke er reel.”
Neurale netværk kan også bruges til at skabe deepfakes, der ikke er kopier. Snarere end blot at studere billeder til at lære navnene på de forskellige objekter, disse netværk kan lære at producere nye, aldrig-før-set versioner af objekter i spørgsmålet. De kaldes “generativ netværk.” I 2017, dataloger afsløret en generativ netværk, der kunne skabe fotorealistiske syntetiske billeder på efterspørgslen, alle med kun et søgeord. Spørg efter “volcano”, og du fik flammende udbrud såvel som rolig, hvilende bjerge—helt fortrolig-tilsyneladende landskaber, der ikke havde nogen jordisk kolleger. Et andet system skabt syntetisk berømtheder—ansigter af mennesker, der ikke eksisterede, men som virkelige mennesker ville sandsynligvis se som Hollywood-stjerner.
Ved hjælp af denne teknologi, brugerne vil i sidste ende være i stand til at fremtrylle en overbevisende portræt af en scene eller en person, som de eller AI kan forestille dig. Fordi billedet vil være meget original, vil det være umuligt at identificere forfalskning via mange af de gamle metoder til påvisning. Og generativ netværk kan gøre det samme med video. De har produceret uhyggelige, looping klip af en “strand”, en “baby” eller endda “golf.” De har også lært at tage et statisk billede af en mand på en mark; en s-tog station) og generere en kort video af en intelligent fremtid (manden gå væk, toget afgår). På denne måde, tallene i gamle sort-hvide fotografier, der måske en dag blive bragt til live, og begivenheder, der aldrig fandt sted, kan ikke desto mindre blive præsenteret online som virkelige hændelser, dokumenteret med overbevisende video beviser.
Og endelig er der den MADCOMs. Forkortelse for “machine-drevet kommunikation værktøjer,” MADCOMs er chatbots, der har ingen script på alle, bare den tale, mønstre tydes ved at studere millioner eller milliarder af samtaler. I stedet for at de overvejer, hvordan MADCOMs kan anvendes, er det lettere at spørge, hvad man ikke kan udrette med intelligente, adaptive algoritmer, der afspejler menneskelig tale mønstre.
Den iboende løfte om en sådan teknologi—en AI, der er det væsentlige ikke kan skelnes fra en menneskelig operatør—også sætter det op for forfærdeligt misbrug. I dag, er det stadig muligt for en erfaren internet-bruger til at skelne mellem “rigtige” mennesker fra automatiske botnets og endda mange sockpuppets (Russified engelsk hjulpet os med at få øje på et par i researchen til vores bog). Snart nok, selv af denne usikre situation kan erindres, kærligt som de “gode gamle dage”—den sidste gang det var muligt at have en vis tillid til, at en anden bruger af sociale medier var en kød-og-blod menneske i stedet for en manipulerende maskine. Give en Twitter-botnet til en MADCOM og netværk kan være i stand til at fordreje den algoritmiske fremhævelse af et emne, uden at nogen opdager, blot ved at oprette realistiske samtaler blandt sine mange falske komponent selv. MADCOMs vil ikke bare køre nyheder cykler, men vil også trick og manipulere folk reagerer på dem. De kan endda give interviews til uvidende journalister.
Foder en MADCOM nok argumenter, og det vil aldrig gentage sig. Foder er det nok information om en målgruppe—sådan som hundredvis af milliarder af datapunkter, der er bosat i en vælger database, som Projektet Alamo—og det kan dreje en personlig fortælling til hver indbygger i et land. Netværket har aldrig sover, og det er altid læring. Midt i en krise, vil det altid være den første til at reagere, kommanderende uforholdsmæssig stor opmærksomhed og vejlede de sociale medier fortælling, i hvilken retning de bedste suiter sin menneskelige ejere ” skjulte ender. Matthew Chessen, en senior teknologi politisk rådgiver i det AMERIKANSKE udenrigsministerium, ikke hakkekød ord om den uundgåelige MADCOM opkomst. Det vil “bestemme skæbnen af internettet, vores samfund og vores demokrati,” skriver han. Ikke længere vil mennesker være pålideligt i afgift af maskiner. I stedet for, som maskiner styre vores ideer og kultur i en automatiseret, evolutionær proces, at vi ikke længere forstår, at de vil “starte programmering os.”
Hvis maskiner kommer til at manipulere med alt, hvad vi ser og hvordan vi tror, online, vil de allerede kontrollere verden.
Kombinere alle disse skadelige programmer af neurale netværk—efterlignede stemmer, stjålet ansigter, real-time audiovisuelle redigering, kunstige billede og video generation, og MADCOM manipulation—og det er svært at ryste den konklusion, at menneskeheden er balancerer på kanten af en klippe. De oplysninger, konflikter til at forme politik og krig både bekæmpes i dag af kloge mennesker, der bruger viral engineering. Den LikeWars af i morgen vil blive en kamp med meget intelligent, uudgrundelige algoritmer, der vil tale overbevisende om ting, der aldrig sket, at producere “bevis” for, at der ikke eksisterer. De vil frø usandheder på tværs af de sociale medier med en intensitet og volumen, der gør den nuværende situation ser smuk.
Aviv Ovadya, chief technologist ved Center for Social Media Ansvar ved University of Michigan, har beskrevet denne truende fare i stark, enkle betingelser. “Vi er så skruet det er over, hvad de fleste af os kan forestille sig,” sagde han. “Og afhængigt af hvor langt du se ind i fremtiden, bliver det bare værre.”
For generationer, science fiction forfattere har været besat af udsigten til en AI Armageddon: en Terminator-stil overtagelse, hvor robotter gennemsøge sølle menneske byer, flammekastere og stråle kanoner klar. Endnu mere sandsynligt overtagelse finder sted på sociale medier. Hvis maskiner kommer til at manipulere med alt, hvad vi ser og hvordan vi tror, online, vil de allerede kontrollere verden. Efter at have vundet deres vigtigste erobring—det menneskelige sind—de maskiner, der måske aldrig brug for at gøre oprør.
P. W. Singer og Emerson T. Brooking nye bog, LikeWar: Weaponization af Sociale Medier, som blev offentliggjort i oktober 2, 2018 og kan købes her.
Dele Denne Historie