De Machines Die de Bestrijding van de Sociale Media-Oorlogen van Morgen

Illustratie: Elena Scotti (Foto ‘ S: Shutterstock)

Het internet heeft ingevoerd in een nieuw tijdperk, dwingen ons tot tweede-denk dat vrijwel alles wat we zien, horen en lezen. In hun nieuwe boek, LikeWar: De Weaponization van Sociale Media, P. W. Zanger en Emerson Brooking het verkennen van het verstoren van de manieren waarop het internet is het transformeren van nieuws, politiek, en de aard van de oorlog zelf.

Social media, het is eerlijk om te zeggen, nog niet bleek de manier waarop we dachten dat het zou zijn. Media platforms zoals Facebook, Instagram en Twitter—zodra een informele ruimte om delen van foto ‘ s, persoonlijke updates, en te verbinden met oude vrienden—worden steeds vaker co-gekozen voor de politieke en ideologische doeleinden. In het nieuwe boek, Zanger, een strateeg bij de New America denktank en een best-selling auteur, en Brooking, een research fellow verbonden aan de Council on Foreign Relations, en onderzocht dit nieuwe en evoluerende digitale slagveld.

Zonder twijfel, de sociale media heeft ervaren een diepe verlies van de onschuld. Pokes en houdt zijn vervangen door Twitter oorlogen, deepfakes, en massale desinformatie campagnes. De verkiezingen, de nationale veiligheid, de openbare veiligheid worden geplaatst in gevaar door het reilen en zeilen binnen deze eenmaal onschadelijk kanalen. In dit nieuwe slagveld, wij, de gebruikers van het internet en sociale media, zijn voor risico van gemanipuleerd en gecontroleerd. In een zin, we zijn zelf gehackt.

In het fragment hieronder, Zanger en Brooking het verkennen van de verschillende manieren waarop emerging technologies—kunstmatige intelligentie in het bijzonder—zal bemoeilijken sociale media nog verder. Het internet is over een stuk troebeler, en by gevolg, ons vermogen om te onderscheiden van de feiten van de fictie in het gedrang komen. —George Dvorsky

Gedurende de laatste decennia, social media bedrijven worden de regels van enorme digitale koninkrijken, waardoor alles van onze vakantie foto ‘ s en dating leven naar wat we denken over politiek en oorlog op alle stroom. Maar ze hebben ook iets anders, technologie krachtpatsers, uitgaven letterlijk tientallen miljarden dollars om te maken de nieuwe vormen van kunstmatige intelligentie die onze toekomstige wereld.

Een aantal van de meest opwindende werk wordt gedaan op “neurale netwerken” die spiegel hersenen op een manier door te functioneren door middel van patroonherkenning. Ze ziften door middel van enorme hoeveelheden gegevens, spionage overeenkomsten en het maken van conclusies over wat zou kunnen thuishoren. Met genoeg neuronen, wordt het mogelijk splitsen van het netwerk in meerdere “lagen” elke ontdekking van een nieuw patroon door te beginnen met de bevindingen van de vorige laag. Als een neuraal netwerk is het bestuderen van foto ‘ s, het kan beginnen met het ontdekken van het concept van de “randen” sorteren van alle kanten van het niet-randen. Op zijn beurt, de volgende laag zou kunnen ontdekken “kringen”; de laag na dat, de “gezichten”; de laag na dat, “neuzen.” Elke laag maakt het mogelijk het netwerk te benaderen van een probleem met meer en meer granulariteit.

Neurale netwerken zijn opgeleid via een proces dat bekend staat als ‘ diep leren.” Oorspronkelijk was dit proces begeleid. Een vlees-en-bloed menselijke ingenieur gevoed het netwerk een berg aan data (10 miljoen foto ‘ s of een bibliotheek van de engelse literatuur) en langzaam begeleide het netwerk te vinden wat de ingenieur was op zoek naar (een “auto” of een “compliment”). Als het netwerk aan de slag gingen met het patroon-het sorteren en de ingenieur beoordeeld zijn prestaties en getweaked de synapsen, kreeg het een beetje beter elke keer. Schrijver Gideon Lewis-Kraus heerlijk beschrijft het proces als het tunen van een soort van “gigantische machine van de democratie.”

Vandaag, geavanceerde neurale netwerken kan functioneren zonder dat menselijk toezicht. In 2012, ingenieurs met de Google Brain project verschenen van een baanbrekende studie die gedocumenteerd hoe ze had gevoed met een negen-laag neurale netwerk 10 miljoen verschillende screenshots van willekeurige YouTube-video ‘ s, waardoor het spelen met de gegevens op zijn eigen. Als het gezeefd door de screenshots, het neurale netwerk — net als veel mensen die een YouTube-gebruikers ontwikkelde een fascinatie met foto ‘ s van katten. Door het ontdekken en het isoleren van een set van cat-gerelateerde eigenschappen, het leerde zichzelf om een effectieve kat detector. “We hadden het tijdens de training, ‘Dit is een kat,’” legde een van de technici van Google. “Het principe is dat de uitvinder van het concept van een kat.”

De sociale media reuzen investeren zo diep in de technologie, omdat ze geloven dat het houdt de belofte in om het oplossen van allerlei problemen voor hen, van het creëren van meer overtuigende marketing aan het vergroten van hun overwerkte menselijke inhoud moderatie specialisten (die zijn gewoon overweldigd door de enorme hoeveelheid van haat en geweld uitgespuwd op het web). Eind 2017, Google heeft aangekondigd dat 80 procent van de gewelddadige extremistische video ‘ s geüpload naar YouTube had automatisch opgemerkt en verwijderd voor een enkele gebruiker had gemarkeerd.

Deze bedrijven zijn van mening dat de volgende fase is om te “hacken intimidatie,’ het onderwijs neurale netwerken die juist de doorstroming van het online gesprek om vast te stellen trollen en geven hen stern waarschuwingen voordat een mens moderator moet worden betrokken. Een Google-systeem dat bedoeld is om te detecteren online misbruik—niet alleen vloeken, maar de giftige zinnen en verholen vijandigheid—heeft geleerd om te beoordelen zinnen op een “aanval schaal van 1 tot 100. De conclusies zijn in lijn met die van de menselijke moderators ongeveer 90 procent van de tijd.

Dergelijke neurale netwerk op basis van sentiment-analyse kan worden toegepast, niet alleen voor individuele gesprekken, maar op de gecombineerde activiteit van alle social media gebruikers op een platform. In 2017, Facebook begonnen met het testen van een algoritme de bedoeling om gebruikers te identificeren die werden depressief en het risico op zelfmoord. Het gebruikte patroon erkenning van de monitor van de gebruiker posts te taggen die verdacht zijn gedachten aan zelfmoord en ze doorstuurt naar de inhoud moderatie teams. Een suïcidale gebruiker ontvangt woorden van steun en een link naar de psychologische middelen zonder andere mensen te hebben bracht de post naar Facebook aandacht (of zelfs te hebben gezien). Het was een krachtig voorbeeld van een potentieel goede—maar ook een voor de hand liggende uitdaging om de online privacy.

Sociale media kunnen bedrijven ook gebruik maken van neurale netwerken voor het analyseren van de links die gebruikers delen. Dit wordt nu toegepast op het netelige probleem van de desinformatie en “nep-nieuws.” Meerdere engineering startups het trainen van neurale netwerken om de feiten te controleren koppen en artikelen, tests elementaire statistische claims (“Er zijn x aantal illegale immigranten in de laatste maand”) tegen een steeds groeiende database van feiten en cijfers. Facebook ‘ s chief AI wetenschapper veel hoofden, toen in de nasleep van de 2016 AMERIKAANSE verkiezingen, hij merkte op dat het technisch mogelijk is om te stoppen met virale leugens. Het enige probleem is, legde hij uit, was in beheer van de “trade-offs”—het vinden van de juiste mix van “filteren en censuur en vrije meningsuiting en het fatsoen.” In andere woorden, dezelfde netelige politieke vragen die achtervolgd Silicon Valley vanaf het begin.

Maar de enorme veelzijdigheid van neurale netwerken creëert ook hun opkomende gevaar. Smart hoewel de technologie kan worden, het geeft niet hoe het gebruikt wordt. Deze netwerken zijn niet verschillend van een mes of een pistool of een bom—inderdaad, ze zijn als een tweesnijdend als het internet zelf.

Regeringen van veel minder-dan-vrije landen kwijlen bij de macht van neurale netwerken die kunnen leren miljoenen gezichten, vlag “twijfelachtige” – toespraak, en zijn afgeleid van verborgen patronen in de gecumuleerde online activiteiten van hun burgers. De meest voor de hand liggende kandidaat is China, waarvan trefwoord-filtering en sociaal krediet systeem zal sterk profiteren van de implementatie van dergelijke intelligente algoritmen. In 2016, Facebook werd gerapporteerd aan de ontwikkeling van een dergelijke “slimme” censuur-systeem in een poging om het uit te breiden naar de enorme Chinese markt. Dit was een lelijke echo van hoe Sun Microsystems en Cisco eenmaal besloten tot de bouw van China ‘ s Great Firewall.

Maar het neemt niet een autoritaire staat om te schakelen van een neuraal netwerk in de richting van het kwaad eindigt. Iedereen kan bouwen en te trainen met behulp van een gratis, open-source tools. Een explosie van interesse in deze systemen heeft geleid tot duizenden nieuwe toepassingen. Wat kan worden omschreven als “behulpzaam” anderen “vreemd.” En een paar die—hoewel ontwikkeld met de beste bedoelingen—is terecht beschreven als niets minder dan de “mind-bendingly angstaanjagend.”

We hebben al gezien hoe eenvoudig het is om voor de hand liggende leugens (“The world is flat”; “De pizza parlor is een geheim minderjarige seks dungeon”) in de hand te nemen en verspreid over het internet. Neurale netwerken zijn ingesteld om massaal samengestelde dit probleem met de creatie van wat bekend staat als “deepfakes.”

Net zoals ze kunnen studeren opgenomen spraak af te leiden betekenis, kunnen deze netwerken ook studie een database van woorden en geluiden die afleiden van de componenten van de spraak—pitch, cadans, intonatie—en leren na te bootsen de stem van een spreker die bijna perfect. Bovendien, het netwerk gebruik kan maken van zijn beheersing van een stem voor een benadering van woorden en zinnen die het nog nooit van gehoord. Met een minuut waarde van audio -, deze systemen kan een goede benadering van iemands spraak patronen. Met een paar uur, zijn ze in wezen perfect.

Een dergelijke “spraak synthese” opstarten, genaamd Liervogel, schokte de wereld in 2017, wanneer het uitgebrachte opnamen van een griezelig nauwkeurig, volledig nep gesprek tussen Barack Obama, Hillary Clinton, en Donald Trump. Een ander bedrijf onthulde een editing tool die het beschreef als “Photoshop voor audio,’ zien hoe kunt aanpassen of toevoegen van nieuwe stukjes spraak naar een audio-bestand net zo gemakkelijk als men zou touch-up van een afbeelding.

Neurale netwerken kunnen synthetiseren niet alleen wat we lezen en horen, maar ook wat we zien. In 2016, een team van computer-en audiovisuele wetenschappers aangetoond hoe, te beginnen met een twee-dimensionale foto, ze kunnen bouwen aan een foto realistische, drie-dimensionale model van iemands gezicht. Ze bewezen dat het met het eind van bokslegende Mohammed Ali, de transformatie van een enkele foto in een hyper-realistische masker klaar om te worden geanimeerd en geplaatst in een virtuele wereld—en in staat zijn om de geschiedenis te herschrijven van wat Mohammed Ali deed en zei, toen hij in leven was.

Deze technologie kan ook worden gebruikt voor het wijzigen van het heden of de toekomst. Het gebruik van een off-the-shelf webcam, een ander team van wetenschappers gevangen in de “facial identiteit” van een test onderworpen: de verhoudingen van hun functies en de bewegingspatronen van hun mond, wenkbrauwen, en kaaklijn. Dan zijn ze vastgelegd op het gezicht van de identiteit van een andere persoon in een vooraf opgenomen video, zoals Arnold Schwarzenegger zitten voor een interview of George W. Bush het geven van een speech. Na dat, ze samengevoegd met de twee gezichts-identiteiten via “vervorming overdracht, te” vertalen bewegingen op het eerste gezicht in evenredige bewegingen door de tweede. In wezen, de proefpersoon kon gebruik maken van hun eigen aangezicht, om controle op de uitingen van de persoon op het scherm, alles in real time. Als de petite vrouw in de voorkant van de webcam opende haar mond, zo ook de faux Arnold Schwarzenegger. Als het middelste leeftijd man met stekelig haar en een sikje mond woorden in rap tempo op en trok een wenkbrauw op, zo ook de laag ‘ fotorealistische George W. Bush. Zoals de onderzoekers zelf merkte op: “Deze resultaten zijn moeilijk te onderscheiden van de werkelijkheid, en het gaat vaak onopgemerkt dat de inhoud niet echt.”

Neurale netwerken kunnen ook worden gebruikt voor het maken van deepfakes die niet kopieert. Eerder dan het onderzoek naar beelden om meer te leren de namen van de verschillende objecten, deze netwerken kunnen leren hoe het produceren van nieuwe, nooit eerder vertoonde versies van de objecten in kwestie. Ze heten “generatieve netwerken.” In 2017, computer wetenschappers onthuld een generatieve netwerk dat kon maak fotorealistische synthetische beelden op de vraag, alle met alleen een trefwoord in. De vraag “vulkaan” en je hebt vurige uitbarstingen evenals serene, slapende bergen—geheel vertrouwd schijnbare landschappen die had geen aardse tegenhangers. Een ander systeem gemaakt van synthetische beroemdheden—gezichten van mensen die niet bestaan, maar wie echte mens zou waarschijnlijk zien als de Hollywood-sterren.

Met deze technologie, gebruikers zullen uiteindelijk in staat zijn om te toveren in een overtuigende gelijkenis van de scène of persoon die zij of de AI kan voorstellen. Omdat het beeld zal echt origineel, zal het onmogelijk worden om het identificeren van de vervalsing via veel van de oude methoden van detectie. En generatieve netwerken kan hetzelfde doen met video. Ze hebben geproduceerd griezelige, looping clips van een “strand”, “baby” of zelfs “golf.” Ze hebben ook geleerd hoe je een statische afbeelding van een man op een veld, in een trein in het station) en het genereren van een korte video van een voorspellende toekomst (de man weg te lopen; de trein vertrekt). Op deze manier worden de cijfers in oude zwart-wit foto ‘ s kan een dag worden tot leven gebracht, en gebeurtenissen die nooit heeft plaatsgevonden, kunnen toch worden online gepresenteerd als echte gebeurtenissen, gedocumenteerd met boeiende video bewijs.

En tenslotte zijn er de MADCOMs. Kort voor de “machine-gedreven communicatie-tools,” MADCOMs zijn chatbots die geen script, de spraak patronen ontcijferd door het bestuderen van miljoenen of miljarden gesprekken. In plaats van het beschouwen van hoe MADCOMs kunnen worden gebruikt, is het makkelijker om te vragen wat men niet zou kunnen bereiken met het intelligente, adaptieve algoritmen die een weerspiegeling zijn van de menselijke spraak patronen.

De inherente belofte van dergelijke technologie—een AI, dat is in wezen niet te onderscheiden van een menselijke operator stelt ook het verschrikkelijke misbruik. Vandaag de dag, blijft het mogelijk voor een slimme internet-gebruiker te onderscheiden van de “echte” mensen van geautomatiseerde botnets en nog veel sokpoppen (de Russified engels hielp ons ter plaatse een paar in het onderzoek voor ons boek). Snel genoeg, zelfs in deze onzekere stand van zaken kan worden opgeroepen liefdevol als de “goede oude tijd”—de laatste tijd was het mogelijk om wat vertrouwen dat andere sociale media gebruikers een vlees-en-bloed mens in plaats van een manipulatieve machine. Geef een Twitter-botnet om een MADCOM en het netwerk zou kunnen verstoren, de algoritmische bekendheid van een onderwerp, zonder dat iemand het merkt, gewoon door het maken van realistische gesprekken tussen de vele nep-onderdeel zelf. MADCOMs niet alleen drive-nieuws-cycli, maar ook misleiden en manipuleren van de mensen die reageren op hen. Ze kunnen zelfs subsidie interviews te onwetende journalisten.

Het voeden van een MADCOM genoeg argumenten en het nooit meer zal herhalen. Leid deze over voldoende informatie om een doelgroep—zoals de honderden miljarden van de gegevenspunten die zich bevinden in een kiezer database als Project Alamo—en het kan de spin een gepersonaliseerd verhaal voor iedere inwoner van een land. Het netwerk slaapt nooit, en het is altijd te leren. In het midden van een crisis, het zal altijd de eerste om te reageren, commandant van onevenredig veel aandacht en begeleiden van de sociale media vertellen in welke richting het best past bij de menselijke eigenaren’ verborgen eindigt. Matthew Chessen, een senior technology policy advisor bij het AMERIKAANSE State Department, geen blad voor de mond over de onvermijdelijke MADCOM afkomst. Het “bepalen van het lot van het internet, onze samenleving en onze democratie”, schrijft hij. Niet langer zal de mens op betrouwbare wijze in de leiding van de machines. In plaats daarvan, zoals machines sturen onze ideeën en cultuur in een geautomatiseerd evolutionaire proces dat we niet langer begrijpen, zullen ze “het programmeren begint ons.”

Als machines komen te manipuleren alles wat we zien en hoe we denken online, zullen ze al controle van de wereld.

De combinatie van al deze schadelijke toepassingen van neurale netwerken—nagebootst stemmen, gestolen gezichten, real-time audiovisuele bewerken, kunstmatige beeld-en video-generatie, en MADCOM manipulatie—en het is moeilijk om te schudden van de conclusie dat de mensheid balanceert op de rand van een klif. De informatie conflicten die vorm geven aan de politiek en de oorlog zowel zijn vochten vandaag door slimme mensen gebruik van de virale engineering. De LikeWars van de toekomst zullen worden gevochten door de zeer intelligente, ondoorgrondelijke algoritmen die zal spreken overtuigend dingen die nooit gebeurd zijn, het produceren van “bewijs” dat niet echt bestaat. Ze krijgt zaad leugens over het social media landschap met een intensiteit en het volume dat zal maken van de huidige stand van zaken kijken schilderachtige.

Aviv Ovadya, chief technologist bij het Centrum voor Sociale Media Verantwoordelijkheid aan de Universiteit van Michigan, heeft beschreven hoe deze dreiging in schril, eenvoudige termen. “We zijn zo geschroefd, het is dan wat de meeste van ons zich kunnen voorstellen,” zei hij. “En afhankelijk van hoe ver je in de toekomst kijken, het wordt alleen maar erger.”

Voor generaties, science-fiction-schrijvers zijn geobsedeerd met het vooruitzicht van een AI-Armageddon: een Terminator-achtige overname waarin de robots schuren nietige menselijke steden, vlammenwerpers en straal kanonnen in de aanslag. Nog meer kans op een overname zal plaatsvinden op sociale media. Als machines komen te manipuleren alles wat we zien en hoe we denken online, zullen ze al controle van de wereld. Na het winnen van hun belangrijkste verovering—de menselijke geest—de machines niet meer nodig om in opstand te komen.

P. W. Zanger en Emerson T. Brooking ‘ s nieuwe boek, LikeWar: De Weaponization van Sociale Media, werd gepubliceerd 2 oktober 2018 en hier worden gekocht.

Deel Dit Verhaal


Date:

by