Die Maschinen, die im Kampf gegen die Social-Media-Kriege von Morgen

Illustration: Elena Scotti (Fotos: Shutterstock)

Das internet eingegeben hat in eine neue ära, die uns zwingt, zu spekulieren, praktisch alles, was wir sehen, hören und Lesen. In Ihrem neuen Buch, LikeWar: Die Weaponization of Social Media, P. W. Singer und Emerson Brooking erkunden Sie die beunruhigende Weise, in der das internet verändert die news, Politik, und die Natur des Krieges selbst.

Social media, es ist fair zu sagen, ist nicht so geworden wie wir dachten, es würde. Media-Plattformen wie Facebook, Instagram und Twitter, sobald ein casual Raum, um Fotos, persönliche updates, und schließen Sie mit alten Freunden—zunehmend vereinnahmt für politische und ideologische Zwecke. In dem neuen Buch, Sänger, Stratege bei der New America think-tank und ein Bestseller-Autor, und Broker, research fellow bei der Council on Foreign Relations, untersuchen diese neuen und sich entwickelnden digitalen Schlachtfeld.

Kein Zweifel, social media erlebt einen tiefgreifenden Verlust der Unschuld. Pokes und mag, ersetzt worden durch die Twitter-Kriege, deepfakes und Massen-Desinformation Kampagnen. Wahlen, die nationale Sicherheit und öffentliche Sicherheit sind gefährdet durch die Vorgänge innerhalb dieser einmal-Harmlose Kanäle. In diesem neuen Schlachtfeld, wir, die Nutzer des internet und die sozialen Medien, sind in Gefahr, manipuliert und kontrolliert. In einem gewissen Sinn sind wir selbst gehackt.

In dem Auszug unten, Sängerin und Brooking erkunden Sie die verschiedenen Möglichkeiten, in welche neuen Technologien—künstliche Intelligenz im besonderen erschweren wird social media noch weiter. Das internet ist im Begriff, eine ganze Menge murkier, und durch die Konsequenz, unsere Fähigkeit zu erkennen, Tatsache von der Fiktion in Gefahr. —George Dvorsky

In den letzten Jahrzehnten, social-media-Unternehmen haben sich die Regeln der digitalen Königreiche, durch die alles, was von unserem Urlaub, Fotos und dating Leben, was wir denken, über Politik und Krieg alle fließen. Aber Sie haben auch etwas anderes geworden, Technologie-Innovationszentren, zu den Ausgaben buchstäblich Dutzende von Milliarden von Dollar zu schaffen, der neue Formen der künstlichen Intelligenz, die unsere zukünftige Welt.

Einige der spannendsten arbeiten durchgeführt werden “neuronale Netze”, der Spiegel, die Gehirne eine Art von Funktion mit Hilfe von pattern recognition. Sie durchforsten riesige Mengen von Daten, Ausspähung von Gemeinsamkeiten und Rückschlüsse über das, was vielleicht gehören wo. Mit genügend Neuronen, wird es möglich, die Spaltung des Netzes in mehrere “Schichten,” jede Entdeckung eines neuen Musters beginnen Sie mit die Ergebnisse der vorherigen Schicht. Wenn ein neuronales Netz ist ein Studium Aufnahmen, es könnte beginnen zu entdecken, das Konzept der “Kanten” Sortierung alle Kanten, die aus der nicht-Kanten. Wiederum die nächste Schicht entdecken könnten, “Kreisen”; die Schicht nach, die “Gesichter”; die Ebene nach “Nase.” Jede Schicht kann der Netzwerk-Ansatz ein problem mit mehr und mehr Granularität.

Neuronale Netze trainiert werden, die durch einen Prozeß bekannt als “deep learning.” Ursprünglich war dieser Prozess überwacht. Ein Fleisch und Blut menschlichen Ingenieur fed das Netzwerk einen Berg von Daten (10 Millionen Bilder oder eine Bibliothek mit englischer Literatur) und langsam geführt, das Netzwerk zu finden, was der Ingenieur war auf der Suche nach (einem “Auto” oder ein “Kompliment”). Als Netzwerk zur Arbeit ging auf seinen Muster-Sortierung und der Ingenieur beurteilt die Leistung und optimiert die Synapsen, es wurde ein wenig besser jedes mal. Schriftsteller Gideon Lewis-Kraus herrlich beschreibt den Prozess als tuning eine Art “Riesen-Maschine Demokratie.”

Heute, erweiterte neuronale Netze funktionieren können, ohne, dass die menschliche Aufsicht. Im Jahr 2012, die Ingenieure, die mit dem Google-Brain-Projekt veröffentlichte eine bahnbrechende Studie, die dokumentiert, wie Sie gefüttert hatten eine neun-layer neuronalen Netzwerk 10 Millionen verschiedene screenshots von random YouTube-videos, so dass es zu spielen mit den Daten auf Ihrer eigenen. Als er sichtete die screenshots, die neuronalen Netzes — ebenso wie viele menschliche YouTube-Nutzer—entwickelt eine Faszination mit Bildern von Katzen. Durch die Entdeckung und Isolierung einer Reihe von cat-bezogene Qualitäten, die es lehrte, sich zu einer effektiven cat-Detektor. “Wir haben nie gesagt, dass es während der Ausbildung, “Das ist eine Katze’”, erklärte einer der Google-Ingenieure. “Es ist im Grunde erfunden das Konzept einer Katze.”

Die social-media-Riesen investieren so tief in der Technik, weil Sie glauben, hält es das Versprechen, lösen alle Arten von Problemen für Sie, von der Erstellung überzeugender marketing zum ausbau Ihrer überlasteten menschlichen Inhalt moderation Spezialisten (die sind einfach überwältigt von der schieren Menge von Hass und Gewalt ausgespuckt, die auf der web). Ende 2017, Google angekündigt, dass 80 Prozent der gewaltsame extremistische videos auf YouTube hochgeladen hatte, wurde automatisch erkannt und entfernt, bevor ein single-user-hatte geflaggt.

Diese Unternehmen glauben, dass die nächste Etappe “hack Belästigung,” Lehre neuronale Netze zu verstehen, die flow der online-Konversation, um zu ermitteln, Trolle und geben Sie diese stern-Warnungen vor einem menschlichen moderator Bedürfnisse zu Holen beteiligt. Eine Google-system soll erkennen, online-Missbrauch—nicht nur Gotteslästerung, sondern giftige Phrasen und verschleierte Feindseligkeit—gelernt hat, zu rate Sätze auf einen “Angriff-Skala” von 1 bis 100. Seine Schlussfolgerungen decken sich mit jenen der menschlichen Moderatoren über 90 Prozent der Zeit.

Solche neuronale Netzwerk–basierte sentiment-Analyse angewendet werden kann, die nicht nur einzelnen Gespräche, sondern um die kombinierte Aktivität eines jeden social-media-Nutzer auf einer Plattform. Im Jahr 2017, Facebook, begann das testen eines Algorithmus bestimmt ist, Benutzer zu identifizieren, wurden depressiv und mit einem Risiko für Selbstmord. Es verwendet Mustererkennung, um zu überwachen, Benutzer, Beiträge, tagging denen Verdacht besteht, gehören Gedanken an Selbstmord und weiterleiten Ihrer Inhalte moderation-teams. Eine selbstmörderische Benutzer erhalten kann, Worte der Unterstützung und link zu den psychologischen Ressourcen, ohne andere Menschen mit brachte die post auf Facebook, die Aufmerksamkeit (oder sogar gesehen). Es war ein beeindruckendes Beispiel einer möglichen gut—aber auch eine offensichtliche Herausforderung für die online-Privatsphäre.

Social-media-Unternehmen können auch neuronale Netze zu analysieren, die links, die Nutzer zu teilen. Dies wird jetzt angewendet auf das heikle problem der Fehlinformation und “fake news”. Mehrere engineering-startups sind die Ausbildung neuronaler Netzwerke ” fact-check Schlagzeilen und Artikel, testing grundlegende statistische Aussagen (“Es wurden x Anzahl der illegalen Einwanderer im letzten Monat”) gegen eine stetig wachsende Datenbank von Fakten und zahlen. Facebook-Chef KI-Wissenschaftler drehte viele Köpfe, wenn, in der Zeit nach der US-Wahl 2016, stellte er fest, dass es technisch möglich zu stoppen virale Unwahrheiten. Das einzige problem, erklärte er, war in die Verwaltung der “trade-offs”—die richtige Mischung von “Filterung und Zensur und freie Meinungsäußerung und Anstand.” In anderen Worten, die gleichen heiklen politischen Fragen, die verbissen Silicon Valley von Anfang an.

Aber die schiere Vielseitigkeit von neuronalen Netzen erstellt auch Ihre aufkommende Gefahr. Smart obwohl die Technologie auch sein mag, es interessiert nicht, wie es verwendet wird. Diese Netzwerke sind nicht anders als ein Messer oder eine Pistole oder eine Bombe—in der Tat, sind Sie wie ein zweischneidiges Schwert, wie das internet selbst.

Die Regierungen von viele weniger-als-free-Nationen hungrig auf die Leistung der neuronalen Netze, die lernen können, Millionen von Gesichtern, Kennzeichen “bedenklich” Rede, und zu schließen, verborgene Muster in der kumulierten online-Aktivitäten Ihrer Bürgerinnen und Bürger. Der offensichtlichste Kandidat ist China, dessen keyword-Filterung und soziale credit-system profitieren in hohem Maße von der Umsetzung solcher intelligenten algorithmen. Im Jahr 2016, Facebook wurde berichtet, dass die Entwicklung solch “intelligenter” Zensur-system in einem Versuch, um es zu erweitern, in der riesige chinesische Markt. Dies war ein hässliches echo, wie Sun Microsystems und Cisco einmal verschworen, zu bauen Chinas Große Firewall.

Aber es funktioniert nicht, einen autoritären Staat zu verwandeln, ein neuronales Netz in Richtung böse enden. Jeder kann bauen und trainieren mit freien, open-source-tools. Eine explosion des Interesses an diesen Systemen hat dazu geführt, Tausende von neuen Anwendungen. Einige könnten beschrieben werden als “hilfreich” andere “seltsam.” Und ein paar—obwohl entwickelt, die mit den besten Absichten—zu Recht beschrieben als nichts weniger als “mind-bendingly erschreckend.”

Wir haben bereits gesehen, wie einfach es ist, für offensichtliche Unwahrheiten (“Die Welt ist flach”; “Die pizza parlor ist ein Geheimnis Minderjährige sex-Verlies”) zu halten, und verteilt über das internet. Neuronale Netze sind Massiv Verbindung dieses problem mit der Schaffung von sogenannten “deepfakes.”

Nur so können Sie die Studie aufgenommenen Rede zu folgern, was bedeutet, diese Netze können auch Studie eine Datenbank von Wörtern und Geräuschen zu schließen, die Komponenten der Rede—, pitch -, Trittfrequenz -, intonations—und lernen, imitieren die Stimme eines Sprechers fast perfekt. Außerdem, das Netzwerk und seine Beherrschung einer Stimme, die Ungefähre Wörter und Sätze, die es noch nie gehört. Eine minute im Wert von audio -, diese Systeme könnten eine gute Annäherung an jemandem Rede-Muster. Mit ein paar Stunden, sind Sie im wesentlichen perfekt.

Ein solcher “speech synthesis” startup namens Lyrebird, schockierte die Welt im Jahr 2017, wenn es veröffentlicht Aufnahmen von einem unheimlich präzise, vollständig gefälschte Gespräch zwischen Barack Obama, Hillary Clinton und Donald Trump. Ein anderes Unternehmen enthüllte ein editing-tool, dass es beschrieben werden als “Photoshop für audio” zeigt, wie man verändern kann oder neue hinzufügen bits der Rede, um eine audio-Datei so leicht, als könnte man Sie berühren sich ein Bild.

Neuronale Netze synthetisieren kann, nicht nur, was wir Lesen und hören, sondern auch das, was wir sehen. Im Jahr 2016, ein team von computer-und audiovisuelle Wissenschaftler gezeigt, wie sich, beginnend mit einem zweidimensionalen Foto, Sie bauen konnte ein fotorealistisches, dreidimensionales Modell eines Gesichts. Sie demonstrierte es mit dem Verstorbenen Boxlegende Muhammad Ali, verwandelt ein einzelnes Bild in eine hyper-realistische Gesichts-Maske bereit zu sein, animiert und platziert in einer virtuellen Welt—und in der Lage, zu schreiben, die Geschichte von dem, was Muhammad Ali gesagt und getan hat, wenn er am Leben war.

Diese Technologie könnte auch verwendet werden, ändern Sie die Gegenwart oder Zukunft. Ein off-the-shelf-webcam, ein anderes team von Wissenschaftlern erfasst die “Gesichts-Identität”, einer Prüfung, Thema: die Proportionen Ihrer Funktionen und Bewegungsmuster Ihrem Mund, Augenbrauen und Kinn. Dann eroberten Sie die Gesichts-Identität einer anderen person in einem vorab aufgezeichneten video, wie Arnold Schwarzenegger sitzen für ein interview oder George W. Bush-ein Vortrag. Danach fusionierten die beiden Gesichts-Identitäten über “Verformung übertragen,” die übersetzung der Bewegungen von der ersten Fläche in verhältnismäßig Bewegungen durch den zweiten. Im wesentlichen, die Probanden könnten Ihre eigenen Gesicht, um die Kontrolle der Ausdrucksformen der person auf dem Bildschirm, und das alles in Echtzeit. Wenn die zierliche Frau in vor der webcam öffnete Ihren Mund, Tat so die faux Arnold Schwarzenegger. Wenn die im mittleren Alter Kerl mit stacheligen Haaren und einem Spitzbart Mund Wörter in schneller Folge und hob eine Augenbraue, Tat so die fotorealistische George W. Bush. Wie die Forscher selbst bemerkt, “Diese Ergebnisse sind schwer zu unterscheiden von der Realität, und es geht oft unbemerkt, dass der Inhalt nicht real ist.”

Neuronale Netze können auch verwendet werden, zu erstellen deepfakes, die nicht Kopien an alle. Anstatt nur studieren, Bilder, lernen die Namen der verschiedenen Objekte, die diese Netzwerke können lernen, wie man neue, noch-nie-gesehen-Versionen der Objekte in Frage. Man nennt Sie “generative Netzwerke.” Im Jahr 2017, computer-Wissenschaftler enthüllt eine generative Netzwerke erstellen fotorealistische, synthetische Bilder auf Anfrage, alle mit nur einem keyword. Fragen Sie nach “Vulkan”, und Sie bekam feurigen Eruptionen sowie ruhigen, schlafenden Berge—ganz vertraut anmutenden Landschaften, die hatte keine irdischen Gegenstücken. Ein anderes system erstellt synthetischen prominenten—Gesichter von Menschen, die nicht existieren, aber denen echte Menschen würden wahrscheinlich Sicht als Hollywood-stars.

Mittels dieser Technologie, die Benutzer werden schließlich in der Lage zu zaubern eine überzeugende Gestalt einer Szene oder person, die Sie oder die KI sich vorstellen kann. Da wird das Bild wirklich originell, wird es unmöglich sein, zu erkennen, die Fälschung über viele von den alten Methoden der Erfassung. Und generative Netzwerke können das gleiche tun mit video. Sie haben produziert unheimlich, Loop-clips “beach”, ein “baby” oder auch “golf.” Sie haben auch gelernt, wie man ein statisches Bild (ein Mann auf einem Feld; ein Zug in der station) und generiert ein kurzes video von einer prädiktiven Zukunft (der Mann zu Fuß entfernt; mit dem Zug Abfahrt). Auf diese Weise, die Figuren in alten schwarz-weiß-Fotografien, die vielleicht eines Tages zum Leben erweckt werden, und Ereignisse, die nie stattgefunden hat, kann dennoch vorgestellt werden, online wie real vorkommen, dokumentiert durch überzeugende video-Beweis.

Und schließlich gibt es die MADCOMs. Abkürzung für “machine-driven Kommunikations-tools,” MADCOMs sind chatbots, die kein script haben auf alle, sondern nur die Sprachmuster, entschlüsselt durch die Untersuchung von Millionen oder Milliarden von Gesprächen. Statt zu überlegen, wie man MADCOMs verwendet werden könnten, ist es einfacher zu Fragen, was könnte man nicht alles erreichen intelligente, adaptive algorithmen, die ein Spiegel menschlicher Sprachmuster.

Die inhärente Versprechen dieser Technologie—eine KI, die im wesentlichen nicht von einem menschlichen operator—zudem stellt es für den schrecklichen Missbrauch. Heute bleibt es möglich, für einen versierten internet-Nutzer zu unterscheiden, “echte” Menschen aus automatisierten Botnetze und auch viele sockpuppets (russifiziert Englisch geholfen, uns vor Ort ein paar in den Recherchen für unser Buch). Bald genug selbst in diesem ungewissen Zustand kann abgerufen werden liebevoll als die “guten alten Tage”—das Letzte mal war es möglich, ein gewisses Vertrauen, die anderen social-media-Nutzer wurde eine Fleisch-und-Blut-Menschen statt einer manipulativen Maschine. Geben Sie einen Twitter-botnet ein MADCOM und das Netzwerk in der Lage sein könnte zu einer Verzerrung der algorithmischen Prominenz eines Themas, ohne dass jemand etwas merkt, einfach durch das erstellen realistische Konversationen unter den vielen fake-Komponente selbst. MADCOMs nicht nur Fahrt-news-Zyklen, aber auch trick und manipulieren die Menschen auf Sie zu reagieren. Sie können auch gewähren interviews mit ahnungslosen Reportern.

Füttern Sie eine MADCOM genug Argumente, und es wird sich nie wiederholen. Füttern Sie ausreichend Informationen über die Zielgruppe—wie die Hunderte von Milliarden von Datenpunkten, die sich in eine Wähler-wie bei einer Datenbank-Projekt Alamo—und es drehen kann eine personalisierte Geschichte für jeden Bewohner eines Landes. Das Netz schläft nie, und es ist immer lernen. Mitten In der Krise, es wird immer die erste zu reagieren, Kommandierender unverhältnismäßige Aufmerksamkeit und führen die social-media-Erzählung, in welche Richtung am besten Suiten Ihre menschlichen Besitzer ” versteckte enden. Matthäus Chessen, senior Technologie-Berater bei der US-State Department, nicht viele Worte über die unvermeidlichen MADCOM Aufstieg. Es wird “das Schicksal des internet, unsere Gesellschaft und unsere Demokratie”, schreibt er. Nicht mehr Menschen werden zuverlässig in die Obhut der Maschinen. Statt, wie Maschinen Steuern unsere Ideen und die Kultur in einem automatisierten evolutionären Prozess, den wir nicht mehr verstehen, Sie wird “mit der Programmierung beginnen uns.”

Wenn die Maschinen kommen, zu manipulieren alles, was wir sehen und wie wir denken, online, Sie bereits die Welt beherrschen.

Kombinieren Sie all diese schädlichen Anwendungen neuronaler Netze—ahmte Stimmen, gestohlene Gesichter, real-time audiovisuellen Bearbeitung, künstlichen Bild-und video-generation, und MADCOM manipulation—und es ist schwer, schütteln Sie die Schlussfolgerung, dass die Menschheit taumelt am Rand einer Klippe. Die Informationen, die Konflikte, die Form der Politik und Krieg gleichermaßen kämpfte sich heute durch clevere Menschen die Verwendung viraler engineering. Die LikeWars von morgen wird bekämpft werden von hoch intelligenten, undurchsichtigen algorithmen, sprechen überzeugend von Dingen, die nie passiert sind, die Herstellung von “beweisen”, dass nicht wirklich vorhanden ist. Sie werden Samen Unwahrheiten über die social media Landschaft mit einer Intensität und Lautstärke, wird der aktuelle Stand der Dinge schauen urig.

Aviv Ovadya, chief technologist bei Center for Social Media Verantwortung an der Universität von Michigan, hat Sie beschrieben, diese drohende Gefahr in der stark, einfache Begriffe. “Wir sind so versaut, es ist über das hinaus, was die meisten von uns sich vorstellen kann”, sagte er. “Und je nachdem wie weit Sie in die Zukunft schauen, es wird nur noch schlimmer.”

Seit Generationen science-fiction-Autoren gewesen, besessen von der Aussicht auf eine AI-Armageddon: ein Terminator-style übernahme in denen die Roboter durchforsten kümmerlichen menschlichen Städten, Flammenwerfer und beam-Kanonen bereit. Noch wahrscheinlicher übernahme stattfinden wird, auf social media. Wenn die Maschinen kommen, zu manipulieren alles, was wir sehen und wie wir denken, online, Sie bereits die Welt beherrschen. Gewonnen haben Ihre wichtigste Eroberung—der menschliche Geist—die Maschinen können nie brauchen, um sich an alle.

P. W. Singer und Emerson T. Brooking neues Buch, LikeWar: Die Weaponization of Social Media, veröffentlicht wurde am 2. Oktober, 2018 und hier erworben werden.

Teilen Sie Diese Geschichte


Date:

by