Der Drohende Anstieg der AI-Powered-Malware

Datenschutz und Sicherheit

Die Malware von der Zukunft Haben, AI Supermächte

Illustration: Sam Woolley (Gizmodo) Ben DicksonToday 11:35amFiled: Künstliche IntelligenceFiled: Künstliche Intelligenz

  • Künstliche Intelligenz
  • Malware

41

  • Bearbeiten
  • Embiggen
  • Senden Sie an die Redaktion
  • Fördern
  • Teilen auf Kinja
  • Verschieben von ad-slots

In den letzten zwei Jahren, wir haben gelernt, dass die machine-learning-algorithmen zu manipulieren die öffentliche Meinung, die verursachen tödliche Autounfälle, erstellen gefälschte porno-und manifest-extrem sexistisch und rassistisch Verhalten.

Und nun, die Cyber-Bedrohungen von deep learning und neuronale Netzwerke entstehen. Wir sind erst am Anfang zu fangen Einblicke in eine Zukunft, in der die Cyberkriminellen trick neuronale Netze in fatalen Fehler und verwenden Sie deep learning verstecken Ihre malware und finden Ihr Ziel unter Millionen von Nutzern.

Teil der Herausforderung der Sicherung der künstliche-Intelligenz-Anwendungen liegt in der Tatsache, es ist schwer zu erklären, wie Sie arbeiten, und selbst die Menschen, die Sie schaffen, sind oft hart gedrückt, um Einblick in Ihr Innenleben. Aber wenn wir uns vorbereiten für das, was kommen wird, wir werden lernen Sie zu schätzen und reagieren auf diese Bedrohungen, auf die harte Weise.

In der AI-Fadenkreuz

Im Jahr 2010, die Vereinigten Staaten und Israel angeblich veröffentlicht Stuxnet, eine Schadsoftware richtet sich an kampfunfähig Irans nukleare Infrastruktur. Stuxnet wurde entwickelt, um verbreitete sich wie ein Wurm, sondern nur entfesseln Sie Ihre schädliche Nutzlast, wenn es sich innerhalb einer Netzwerk-Konfiguration, die identisch mit der iranischen Atomanlage in Natanz. Der Stuxnet-Wurm ist immer noch einer der raffiniertesten Viren, die jemals geschaffen wurden, und die sehr gezielten Angriff war nur möglich Dank der Informationen und Ressourcen zur Verfügung, um den Geheimdiensten.

Aber im Zeitalter von AI, erstellen gezielte malware kann sich so einfach wie das training eines neuronalen Netzes mit Bildern oder Sprach-samples von das beabsichtigte Ziel. Im August, IBM-Forschern vorgestellt DeepLocker, ein proof-of-concept-malware, die verwendet deep neural networks verstecken seine bösartige Nutzlasten, die eine Schwankung des WannaCry ransomware, und nur aktivieren, wenn Sie erkannt Ihr Ziel nicht.

Sie eingebettet DeepLocker in einem scheinbar harmlosen video-conferencing-Anwendung. In einem hypothetischen Szenario, könnte die Anwendung installiert und verwendet von Millionen Benutzern manifestieren, ohne eine schädliche Verhalten. Inzwischen, jedoch, die malware nutzt eine Gesichtserkennung neuronalen Netzwerk, abgestimmt auf das Bild von der beabsichtigten gezielt, um den computer zu Scannen webcam-video-feed für die Gegner.

Sobald das Gesicht des Ziels zeigt sich vor der Kamera von einem computer ausführen, der die infizierte Anwendung, DeepLocker aktiviert die ransomware, verschlüsselt alle Dateien auf dem computer des Opfers.

“Während die Gesichtserkennung Szenario ist ein Beispiel dafür, wie malware nutzen könnten AI zu identifizieren, ein Ziel, andere Kennungen wie Spracherkennung oder geo-Lage kann auch dazu genutzt werden, um eine AI-powered-malware zu finden, der seine Opfer”, sagt Marc Stoecklin, der leitende Forscher des Projekts, erzählte mir damals von IBM veröffentlicht seine Erkenntnisse.

Man kann leicht sehen, wie das gleiche Modell angewendet werden können, andere gefährliche Möglichkeiten, wie Schaden oder Spionage auf Menschen eines bestimmten Geschlechts oder der Rasse.

Eine bedrohliche Aspekt der AI-powered malware wie DeepLocker ist, dass es die “black-box” Charakter der Tiefe lernen sich zu verstecken Ihre bösartige Nutzlast. Sicherheits-Forscher in der Regel zu entdecken und Dokument-malware durch reverse engineering, aktivieren Sie im sandbox-Bedingungen, und extrahieren Ihre digital-und Verhaltens-Signaturen. Leider neuronale Netze sind extrem schwer zu reverse Engineering, das macht es einfacher für Angreifer zu umgehen Sicherheits-tools und Analysten.

Drehen AI gegen sich selbst

Ein weiterer trend von KI-basierte Bedrohungen werden gegnerische Angriffe, wo böswilligen Akteuren manipuliert input-Daten zu zwingen, neuronale Netze handeln, in unregelmäßigen Manieren. Es gibt bereits mehrere Berichte veröffentlicht, und Studien, die zeigen, wie diese Angriffe funktionieren kann in verschiedenen Szenarien.

Die meiste Arbeit getan, das Feld konzentriert sich auf trickst computer-vision-algorithmen, der Zweig der AI, die es ermöglicht, Computer zu klassifizieren und erkennen von Objekten in Bildern und Videos. Dies ist die Technologie, die in selbstfahrenden Autos, die Gesichtserkennung und den smart-Kamera-Anwendungen wie Google-Linse.

Aber das problem ist, dass wir nicht genau wissen, wie die neuronalen Netzwerke, die hinter computer-vision-algorithmen definieren die Eigenschaften der einzelnen Objekte, und das ist, warum Sie können nicht in epische und unerwartete Art und Weise.

Zum Beispiel, Studenten am MIT zeigte, dass Sie durch geringfügige Anpassungen an eine Spielzeug-Schildkröte, Sie könnten trick von computer-vision-algorithmen zu klassifizieren es als ein Gewehr. In einer ähnlichen Studie, Forscher an der Carnegie Mellon University zeigte, konnte Sie täuschen Gesichtserkennung algorithmen zu verwechseln Sie für Promis durch anlegen spezieller Brillen. In noch einem anderen Fall wird software verwendet, die von der UK Metropolitan Police zu erkennen Kinderpornografie gekennzeichnet Bilder von Dünen im Akt.

Während diese sind relativ Harmlose Beispiele, die Dinge können sich problematisch, da neuronale Netze finden Ihren Weg in eine wachsende Zahl von kritischen Einstellungen. Zum Beispiel, eine gemeinsame Forschung von der Universität von Michigan, der University of Washington und der University of California, Berkeley, festgestellt, dass durch Aufkleben von kleinen schwarzen und weißen Aufkleber auf Stopp-Schilder, Sie könnten Sie machen, nicht nachweisbar auf die KI-algorithmen verwendet, die in selbstfahrenden Autos.

Die menschliche Wahrnehmung ist nicht perfekt, und unsere Augen oft nicht uns. Aber in keinem dieser Fälle würde ein Mensch machen, der gleiche Fehler wie KI funktioniert. All diese Studien unterstreichen, eine sehr wichtige Tatsache: Obwohl computer-vision-algorithmen führen oft auf par oder besser als Menschen bei der Erkennung von Objekten, Ihre Funktionalität ist deutlich Verschieden von der menschlichen Sicht, und wir können nicht Vorhersagen, Ihre Misserfolge, bis Sie passieren.

Wegen der undurchsichtigen Natur der neuronalen Netzwerke, ist es sehr schwierig zu untersuchen, Ihre Schwachstellen, und wenn böswillige Akteure entdecken Sie zuerst, entweder zufällig oder durch Versuch und Irrtum, werden Sie eine einfachere Zeit versteckt und der Nutzung von Ihnen zu erzwingen, KI-Anwendungen nicht in kritische und schädliche Weise. Diese vorsätzliche manipulation von KI-algorithmen bekannt ist, wie gegnerische Angriffe.

Gegnerische Angriffe beschränken sich nicht nur auf computer-vision-algorithmen. Zum Beispiel haben Forscher gefunden, dass Hacker manipulieren konnte, die audio-Dateien in einer Weise, die wäre nicht nachweisbar für das menschliche Ohr aber würden leise Kommandos zu senden, ein voice-fähiges Gerät, wie ein smart-Sprecher.

Entsperren der black box

Klar, AI Cyberattacken wurden nicht Virenschutzlösungen noch. Die Entwicklung von AI-malware und gegnerische Angriffe ist immer noch sehr schwierig, und Sie arbeiten nicht konsequent. Aber es ist nur eine Frage der Zeit, bis jemand entwickelt die Werkzeuge, die Sie verbreitet. Wir brauchen nur zu schauen, wie FakeApp, eine Anwendung, die vereinfacht Gesicht-swapping mit dem Einsatz von deep-learning, löste eine Welle von gefälschten porno-videos und die zunehmende Besorgnis über die Gefahren der KI-basierte Fälschung und Betrug.

Es gibt mehrere vorgeschlagene Verteidigung gegen gegnerische Angriffe. Aber auch die Forscher zugeben, dass keine der Lösungen sind nicht vollständig, da Sie meist versuchen, die Adresse der neural network-black box, die durch Stossen Sie es aus verschiedenen Blickwinkeln, um die trigger-mögliche unangenehme überraschung könnte es zurückzuhalten.

Mittlerweile, KI-basierte malware hat keine dokumentierte Lösung. Nach Angaben der Forscher die erste, die das Bewusstsein über Sie, wir können nicht einmal wissen, ob es bereits AI-powered-malware in freier Wildbahn oder nicht.

Eine sehr wichtige Komponente für die Sicherung von AI ist, um es erklärbar und transparent. Dies bedeutet, dass die neuronalen Netze sollten entweder in der Lage sein, zu erklären, die Schritte, die Sie ergreifen, um zu einer Entscheidung oder erlauben es den Forschern, reverse Engineering und wandeln Sie diese Schritte.

Erstellen von erklär-AI ohne Kompromisse bei der Leistung der neuronalen Netzwerke ist schwierig, aber es gibt bereits mehrere Projekte in Arbeit, darunter ein von der Regierung gefördertes Projekt unter der Leitung von DARPA, der Defense Department research arm.

Regelungen wie die Europäische Union GDPR und Kalifornien CCPA erfordern tech-Unternehmen, die transparent über Ihre Daten Erhebung und Verarbeitung Praktiken und in der Lage sein, zu erklären, die automatisierte Entscheidungen zu treffen, Ihre Anwendungen machen. Die Einhaltung dieser Regeln sollte auch immens helfen bei der Erreichung erklärbar AI. Und wenn-tech-Unternehmen sind besorgt, dass Sie verlieren Ihren Wettbewerbsvorteil, indem Sie das Innenleben Ihrer proprietären algorithmen verständlich, Sie berücksichtigen sollten, dass wird nichts mehr schädlich für Ihren Ruf—und durch die Erweiterung, Ihre bottom-line—als ein security-desaster zurückzuführen auf Ihre KI-algorithmen.

Es dauerte eine Globale Wahl-manipulation Krise im Jahr 2016 für die Welt aufwachen, um die zerstörerische Kraft der algorithmischen manipulation. Seitdem, KI-algorithmen haben sich noch weitere Prominente bei allem, was wir tun. Wir sollten nicht warten, bis eine weitere Sicherheit Katastrophe passieren, bevor wir uns dazu entschließen, die KI der black-box-problem.

Teilen Sie Diese Geschichte


Date:

by