Maskinene Som Vil Bekjempe Sosiale Medier Krigene i Morgen

Illustrasjon: Elena Scotti (Foto: Shutterstock)

Internett har gått inn i en ny æra, tvinger oss til å gjette deg frem til nesten alt vi ser, hører og leser. I sin nye bok, LikeWar: Weaponization av Sosiale Medier, P. W. Sanger og Emerson Brooking utforske urovekkende måter i der internett er transformere nyheter, politikk, og arten av krigen i seg selv.

Sosiale medier, det er rettferdig å si, har ikke slått ut på den måten vi trodde det ville. Medier som Facebook, Instagram og Twitter—når en uformell plass å dele bilder, personlige oppdateringer, og få kontakt med gamle venner—blir i økende grad co-valgt for politiske og ideologiske formål. I den nye boken, Sanger, en strateg på den Nye Amerika tenketank og en bestselgende forfatter, og Brooking, stipendiat ved Rådet for Utenlandske Forbindelser, undersøke dette nye og utvikling digitale slagmarken.

Uten tvil, sosiale medier har opplevd en betydelig tap av uskyld. Kakker og liker har blitt erstattet av Twitter kriger, deepfakes, og masse desinformasjon kampanjer. Valg, nasjonal sikkerhet, og offentlig sikkerhet blir satt i fare av det som foregår innenfor disse gang-ufarlig-tv. I denne nye slagmarken, og vi som brukere av internett og sosiale medier, er i fare for å bli manipulert og kontrollert. På en måte vi selv blir hacket.

I utdraget nedenfor, Sanger og Brooking utforske ulike måter i som nye teknologier—kunstig intelligens i særdeleshet—vil komplisere sosiale medier enda mer. Internett er i ferd med å få en hel masse murkier, og ved å følge vår evne til å skille fakta fra fiksjon vil være i fare. —George Dvorsky

I løpet av de siste tiårene, sosiale medier selskaper har blitt reglene for enorme digital riker, der alt fra vår ferie bilder og dating liv til hva vi tenker om politikk og krig all flyt. Men de har også blitt noe annet, teknologi kraftstasjoner, utgifter bokstavelig talt titalls milliarder av dollar til å skape nye former for kunstig intelligens som vil kjøre fremtiden vår verden.

Noen av de mest spennende arbeidet blir gjort på “nevrale nettverk” som speil hjernen på en måte av funksjon ved hjelp av mønstergjenkjenning. De sile gjennom enorme mengder data, spionasje fellestrekk og å gjøre slutninger om hva som kan hører hjemme der. Med nok nevroner, blir det mulig å dele nettverket i flere “lag” hver oppdage et nytt mønster ved å starte med funnene i forrige lag. Hvis en nevrale nettverk er å studere bilder, det kan starte med å oppdage begrepet “kantene” sortere ut alle kantene fra ikke-kanter. I sin tur, neste lag kan oppdage “sirkler”, laget etter det, “ansikter”, laget etter det, “neser.” Hvert lag kan nettverket for å nærme seg et problem med flere og flere detaljer.

Nevrale nettverk er opplært via en prosess som kalles “deep læring.” Opprinnelig denne prosessen ble overvåket. En kjøtt-og-blod menneskelige ingeniør matet nettverket et fjell av data (10 millioner bilder eller et bibliotek av norsk litteratur) og sakte guidede nettverket for å finne hva som ingeniør var ute etter (en “bil” eller en “kompliment”). Som nettverket gikk til arbeid på sin mønster-sortering og ingeniør dømt ytelsen og forskjøvet synapser, det ble litt bedre for hver gang. Forfatter Gideon Lewis-Kraus herlig beskriver prosessen som tuning en slags “gigant-maskin demokrati.”

I dag, avansert nevrale nettverk kan fungere uten at menneskelig tilsyn. I 2012, ingeniører med Google Hjernen prosjektet utgitt en banebrytende studie som dokumenterte hvordan de hadde matet en ni-lag nevrale nettverk 10 millioner forskjellige skjermbilder fra tilfeldig YouTube-videoer, slik at det å spille med data på sine egne. Som det siktet gjennom skjermbilder, nevrale nettverk — akkurat som mange menneskelige YouTube-brukere—utviklet en fascinasjon med bilder av katter. Ved å oppdage og isolere et sett av cat-relaterte egenskaper, det lærte seg å være en effektiv katt detektor. “Vi har aldri sagt det under trening, ‘Dette er en katt,’” forklarte en av Google-ingeniører. “Det i utgangspunktet oppfant konseptet av en katt.”

Sosiale medier kjemper investerer så dypt i teknologi fordi de tror det holder å love å løse alle slags problemer for dem, fra å skape mer overtalende markedsføring for å øke deres overarbeidet menneskelig innhold moderering spesialister (som rett og slett er overveldet av det store volumet av hat og vold spydde ut på nettet). I slutten av 2017, Google annonserte at 80 prosent av de voldelige ekstremistiske videoer som er lastet opp til YouTube hadde blitt automatisk oppdaget og fjernet før en enkelt bruker hadde merket dem.

Disse selskapene tror den neste fasen er å “hacke trakassering,” undervisning nevrale nettverk for å forstå flyten av online samtale for å identifisere troll og gi dem stern advarsler før en menneskelig moderator trenger å bli involvert. En Google-systemet har til hensikt å oppdage online overgrep—ikke bare banning, men giftig setninger og skjult fiendtlighet—har lært å rangere setninger på et “angrep skala” fra 1 til 100. Dens konklusjoner er i samsvar med de menneskelige moderatorer omtrent 90 prosent av tiden.

Slike nevrale nettverk–basert følelser analyse kan brukes ikke bare til individuelle samtaler, men til den samlede aktiviteten av alle sosiale medier brukeren på en plattform. I 2017, Facebook begynte å teste en algoritme som er ment å identifisere brukere som var deprimert og at risikoen for selvmord. Det brukes mønstergjenkjenning til å overvåke bruker innlegg, merking av de som er mistenkt for å inneholde tanker om selvmord og videresende dem til innholdet moderering lag. En suicidal brukeren kunne få ord av støtte-og link til psykologiske ressurser uten andre mennesker etter å ha hentet posten til Facebook oppmerksomhet (eller engang å ha sett det). Det var en mektig eksempel på en potensiell god—men også en åpenbar utfordring for personvern på nettet.

Sosiale medier kan bedrifter også bruke nevrale nettverk til å analysere lenker som brukerne dele. Dette er nå blir brukt til det vanskelige problemet med feilinformasjon og “falske nyheter.” Flere engineering selskaper i oppstartsfasen er trening av nevrale nettverk for å faktum-sjekk overskrifter og artikler, tester grunnleggende statistiske krav (“Det var x antall ulovlige innvandrere siste måned”) mot en stadig voksende database av fakta og tall. Facebook daglig AI forsker slått mange hoder når, i kjølvannet av 2016 AMERIKANSKE valget, og han bemerket at det var teknisk mulig å stoppe viral usannheter. Det eneste problemet, forklarte han, var i å håndtere “trade-offs”—å finne den rette blanding av “filtrering og sensur og ytringsfrihet og anstendighet.” Med andre ord, den samme vanskelige politiske spørsmål som har plaget Silicon Valley fra begynnelsen.

Men det store allsidighet av nevrale nettverk skaper også sine kommende fare. Smart selv om teknologi kan være, det bryr ikke hvordan det er brukt. Disse nettverkene er ikke forskjellig fra en kniv eller en pistol eller en bombe, faktisk, de er like tveegget som selve internett.

Regjeringene i mange mindre-enn-frie land salivate i kraft av nevrale nettverk som kan lære millioner av ansikter, flagg “tvilsom” – tale, og utlede skjulte mønstre i akkumulert online aktivitet av sine borgere. Den mest åpenbare kandidaten er Kina, som søkeord-filtrering og sosiale kreditt system vil ha stor nytte av gjennomføringen av slike intelligente algoritmer. I 2016, Facebook, ble rapportert å være med å utvikle en slik “smart” sensur system i et forsøk på å tillate det å ekspandere inn i det enorme Kinesiske markedet. Dette var en stygg ekko av hvordan Sun Microsystems og Cisco når konspirerte for å bygge Kina ‘ s Great Firewall.

Men det trenger ikke ta en autoritær stat for å slå et neuralt nettverk mot onde ender. Hvem som helst kan bygge og trene en bruker gratis, open-source verktøy. En eksplosjon av interesse i disse systemene har ført til tusenvis av nye programmer. Noen kan bli beskrevet som “nyttig” andre “merkelig.” Og et par—selv om den er utviklet med de beste intensjoner—er med rette beskrives som intet mindre enn “mind-bendingly skremmende.”

Vi har allerede sett hvor lett det er for åpenbare usannheter (“verden er flat”; “pizza privaten er et hemmelig mindreårige sex dungeon”) til å ta tak og spredt over internett. Nevrale nettverk er satt til svært sammensatte dette problemet med etableringen av hva som er kjent som “deepfakes.”

Akkurat som de kan studere innspilt tale til å finne mening, disse nettverkene kan også studere en database med ord og lyder for å konkludere at deler av tale—banen, tråkkfrekvens, intonasjon—og lære å etterligne stemmen til en som prater nesten perfekt. Videre nettverket kan bruke sin mestring av en stemme til omtrentlig ord og uttrykk som det er aldri hørt. Med et minutt igjen av lyd, disse systemene kan gjøre en god tilnærming av noens ytringer mønstre. Med et par timer, de er egentlig perfekt.

En slik “talesyntese” oppstart, kalt Lyrebird, sjokkerte verden i 2017 når det utgitt opptak av en uhyggelig nøyaktig, fullstendig falske samtale mellom Barack Obama, Hillary Clinton, og Donald Trump. Et annet selskap avduket et redigeringsverktøy som det som er beskrevet som “Photoshop for lyd,” viser hvordan man kan forandre eller legge til nye biter av talen til en lyd-fil som enkelt som man kunne ta opp et bilde.

Nevrale nettverk kan syntetisere ikke bare hva vi leser og hører, men også det vi ser. I 2016, og et team av datamaskinen og audiovisuelt forskere viste hvordan du starter med et to-dimensjonalt bilde, kunne de bygge en fotorealistisk, tre-dimensjonal modell av noens ansikt. De demonstrerte det med late boksing legend Muhammad Ali, transformere ett bilde inn i et hyper-realistisk ansiktsmaske klar til å være animert, og plassert i en virtuell verden—og i stand til å omskrive historien om hva Muhammed Ali gjorde og sa at da han var i live.

Denne teknologien kan også brukes til å endre nåtiden eller fremtiden. Ved hjelp av en off-the-sokkel webkamera, et team av forskere fanget “facial identitet” i en test subject: deler av sine funksjoner og bevegelsesmønstre av deres munn, bryn, og kjeven. Da har de tatt ansikts identiteten til en annen person i en forhåndsinnspilt video, slik som Arnold Schwarzenegger sitter for et intervju eller George W. Bush å gi en tale. Etter det, er de slått sammen de to ansikts identiteter via “deformasjon transfer,” oversette bevegelser av den første ansikt til forholdsmessig bevegelser med den andre. I hovedsak, test subject kunne bruke sitt eget ansikt, og til å styre uttrykk for den personen på skjermen, alt i sanntid. Hvis petite kvinnelige foran webkamera åpnet munnen, så gjorde faux Arnold Schwarzenegger. Hvis middelaldrende fyr med spiky hår og en goatee kjeften ord i rask rekkefølge, og hevet et øyenbryn, så gjorde det bilderealistiske George W. Bush. Som forskerne seg bemerket, “Disse resultatene er vanskelig å skille fra virkeligheten, og at det ofte går ubemerket hen at innholdet er ikke ekte.”

Nevrale nettverk kan også brukes til å opprette deepfakes som ikke kopier i det hele tatt. Snarere enn bare å studere bilder for å lære navn på ulike objekter, disse nettverkene kan lære hvordan å produsere nye, aldri-før-sett versjoner av objekter i spørsmålet. De er kalt “generativ nettverk.” I 2017, datamaskinen forskere avduket en generativ nettverk som kan lage fotorealistiske syntetiske bilder på forespørsel, alle med kun et søkeord. Spør etter “volcano”, og du fikk flammende utbrudd, så vel som rolige, sovende fjell—helt kjent-landskap som tilsynelatende hadde ingen jordisk kolleger. Et annet system som er opprettet syntetiske kjendiser—ansiktene til folk som ikke eksisterer, men som ekte mennesker ville mest sannsynlig vise som blir Hollywood-stjernene.

Ved hjelp av slik teknologi, brukere vil til slutt være i stand til å mane frem et overbevisende bilde av en scene eller person de eller AI kan forestille deg. Fordi bildet vil bli virkelig original, vil det være umulig å identifisere forfalskning via mange av de gamle metoder for påvisning. Og generativ nettverk kan gjøre det samme med video. De har produsert uhyggelige, looping klipp av en “strand” en “baby”, eller til og med “golf.” De har også lært å ta et statisk bilde (en mann på et felt; et tog på stasjonen) og generere en kort video av en logisk fremtiden (mannen går bort; toget avgang). På denne måten tallene i gamle svart-hvitt-bilder kan en dag bli brakt til liv, og hendelser som aldri fant sted, kan likevel bli presentert på nettet som virkelige hendelser, dokumentert med overbevisende video bevis.

Og til slutt, det er MADCOMs. Forkortelse for “maskin-drevet kommunikasjonsverktøy,” MADCOMs er chatbots som har ingen skript i det hele tatt, bare tale mønstre utledet ved å studere millioner eller milliarder av samtaler. I stedet for å vurdere hvordan MADCOMs kan brukes, er det lettere å spørre om hva man kan ikke oppnå med intelligent, adaptive algoritmer som speil menneskelig tale mønstre.

Den iboende lover av slik teknologi—en AI som er egentlig umulig å skille fra en menneskelig operatør—også sett det opp for forferdelig misbruk. I dag, er det fortsatt mulig for avanserte internett-bruker å skille mellom “ekte” mennesker fra automatiske spam og selv mange sockpuppets (Russified engelsk hjalp oss å få øye på en få i forskning for vår bok). Snart nok, selv denne usikre situasjonen kan huske fondly som den “gode gamle dager”—siste gang det var mulig å ha noen tillit til at en annen sosiale medier brukeren var en kjøtt-og-blod menneske i stedet for et manipulerende maskinen. Gi en Twitter-botnet til en MADCOM og nettverk kan være i stand til å forvrenge algoritmisk prominence av et emne uten at noen merker det, rett og slett ved å opprette realistisk samtaler blant sine mange falske komponent selv. MADCOMs vil ikke bare drive nyheter sykluser, men vil også lure og manipulere folk reagerer på dem. De kan også gi intervjuer til uvitende journalister.

Mate en MADCOM nok argumenter, og det vil aldri gjenta seg selv. Mate er det nok informasjon om et mål befolkningen, for eksempel de hundrevis av milliarder av data poeng som bor i en velger database som Prosjekt Alamo—og det kan spinne en personlig fortelling for alle som er bosatt i et land. Nettverket sover aldri, og det er alltid lære. Midt i en krise, vil det alltid være den første til å svare, kommanderende uforholdsmessig stor oppmerksomhet og veilede sosiale medier fortelling i hvilken retning beste suites sin menneskelige eiere ” skjulte ender. Matteus Chessen, en ledende teknologi policy rådgiver på U.S. State Department, ikke fingrene imellom om den uunngåelige MADCOM overtak. Det vil “avgjøre skjebnen til internett, vårt samfunn og vårt demokrati,” skriver han. Ikke lenger vil mennesker bli pålitelig som har ansvar for maskinene. I stedet, som maskiner styre våre ideer og kultur i en automatisert, evolusjonær prosess som vi ikke lenger forstå, de vil “start programmering oss.”

Hvis maskinene kommer til å manipulere alt vi ser og hvordan vi tenker online, vil de allerede styre verden.

Kombiner alle disse skadelige programmer av nevrale nettverk—etterlignet stemmer, stjålet ansikter, real-time video redigering, kunstig bilde og video generasjon, og MADCOM manipulasjon—og det er tøft å riste den konklusjon at menneskeheten er vakler på kanten av et stup. Informasjonen konflikter som forme politikk og krig både er kjempet i dag av smarte mennesker ved hjelp av viral engineering. Den LikeWars av morgendagen vil bli utkjempet med svært intelligent, uransakelige algoritmer som vil snakke overbevisende ting som aldri har skjedd, produsere “bevis” som ikke egentlig eksisterer. De vil frø usannheter over sosiale medier landskapet med en intensitet og volum som vil gjøre den nåværende tilstand ser sjarmerende.

Aviv Ovadya, chief technologist ved Senter for Sosiale Medier Ansvar ved University of Michigan, har beskrevet denne truende trusselen i sterk, enkel form. “Vi er så skrudd det er utenfor hva de fleste av oss kan forestille deg,” sa han. “Og som er avhengig av hvor langt du se inn i fremtiden, det blir bare verre.”

For generasjoner, science fiction-forfattere har blitt besatt av tanken på et AI Armageddon: en Terminator-stil overtakelse der roboter skuring ubetydelige menneskelige byene, flammekastere og bredde kanoner på den klar. Men mer sannsynlig overtakelse vil finne sted på sosiale medier. Hvis maskinene kommer til å manipulere alt vi ser og hvordan vi tenker online, vil de allerede styre verden. Etter å ha vunnet sine viktigste erobring—det menneskelige sinn—maskiner kan aldri trenger å gjøre opprør i det hele tatt.

P. W. Sanger og Emerson T. Brooking nye bok, LikeWar: Weaponization av Sosiale Medier ble publisert i oktober 2, 2018 og kjøpes her.

Deler Denne Historien


Date:

by