US-Armee Versichert der Öffentlichkeit, Dass die Roboter-Tank-System Hält sich an AI Mord-Politik

Marines testen neuer Ausrüstung wie ein Multi-Utility Tactical Transport (MUTT) in einem simulierten Kampf-Umgebung bei Marine Corps Base Camp Pendleton, Kalifornien am 8. Juli 2016.Foto: 15th Marine Expeditionary Unit

Im vergangenen Monat, die US-Armee einen Aufruf an private Unternehmen für Ideen, wie man verbessern Ihre geplante semi-autonomen, AI-driven targeting-system für Panzer. Seine Aufforderung, die Armee um Hilfe gebeten, die Aktivierung der Erweiterten Ausrichtung und die Letalität Automatisiertes System (ATLAS) “zu erwerben, zu identifizieren, und sich Ziele mindestens 3X schneller als die aktuelle manuelle Vorgehensweise.” Aber diese Sprache offenbar Angst, einige Leute, die besorgt sind über den Aufstieg des AI-powered Tötungsmaschinen. Und das mit gutem Grund.

In der Antwort der US-Armee Hinzugefügt werden, einen Haftungsausschluss, um den Anruf für weiße Papiere in einer Bewegung, zuerst entdeckt von der Nachrichten-website Defense. Ohne ändern der ursprünglichen Formulierung, die Armee, die einfach ein Hinweis wurde Hinzugefügt, der erklärt, Verteidigungsministerium die Politik hat sich nicht geändert. Vollständig autonome amerikanischen Tötung Maschinen sind immer noch nicht erlaubt zu gehen um die Ermordung von Menschen nolens volens. Gibt es Regeln oder Richtlinien, mindestens. Und Ihre Roboter befolgen Sie diese Richtlinien.

Ja, die Defense-Abteilung ist noch im Aufbau mörderischen Roboter. Aber diese mörderischen Roboter muss sich an die Abteilung “ethical standards.”

Die hinzugefügte Sprache:

Alle Entwicklung und Einsatz von autonomen und semi-autonomen Funktionen in Waffensystemen, einschließlich bemannten und unbemannten Plattformen vorbehalten bleiben die Richtlinien, die in das Department of Defense (DoD) Richtlinie 3000.09, die aktualisiert wurde, im Jahr 2017. Nichts in dieser Mitteilung verstanden werden sollte, zum darstellen einer änderung in der DoD-Politik auf die Autonomie der Waffensysteme. Alle Anwendungen des maschinellen Lernens und der künstlichen Intelligenz, die in diesem Programm ausgewertet werden, um sicherzustellen, dass Sie konsistent sind mit DoD rechtlichen und ethischen standards.

Warum hat jeder in dieser Angelegenheit? Das Department of Defense Richtlinie 3000.09, erfordert, dass die Menschen in der Lage sein, um die “Ausübung eines angemessenen Niveaus des menschlichen Urteils über die Anwendung von Gewalt”, was bedeutet, dass die USA nicht werfen Sie einen vollständig autonomen Roboter in ein Schlachtfeld und lassen Sie es selbstständig entscheiden, ob, jemanden zu töten. Diese Schutzmaßnahme ist manchmal genannt wird “in the loop” bedeutet, dass ein Mensch die Letzte Entscheidung darüber, ob, jemanden zu töten.

Die Vereinigten Staaten wurde mit Roboter-Flugzeuge als offensive Waffen im Krieg, mindestens seit dem zweiten Weltkrieg. Aber für einige Grund, die Amerikaner des 21 Jahrhundert sind viel mehr besorgt über Roboter auf dem Boden, als Sie mit dem Roboter in die Luft. Vielleicht wir alle haben Narben, die durch Filme wie Terminator 2: Judgment Day—ein Film, der war weitaus realistischer, als wir uns wahrscheinlich vorstellen können zu der Zeit, wenn man bedenkt, dass die Darpa war eigentlich versucht, etwas zu bauen wie Skynet in den 1980er Jahren.

Das US-Militär eingesetzt, Drohnen in den Vietnam-Krieg, im Irak während des ersten Golf-Krieg, in Afghanistan, im Irak während des zweiten Irak-Kriegs in Syrien im Kampf gegen ISIS und zahlreichen anderen Ländern. Drohnenangriffe in Somalia explodiert unter Präsident Donald Trump. Aber diese Roboter sind irgendwie weniger beängstigend für die meisten Amerikaner, die hier in das Jahr 2019.

Das Verteidigungsministerium wird weiter drängen die Technologie, die hinter targeting-Systemen wie ATLAS, um seine Waffen agiler, intelligenter und letztlich tödlich. Aber keine Sorge, es wird zu halten, zu tun alle, die nach einer Richtlinie, die geschrieben worden war. Schlaf gut.

[Verteidigung]

Teilen Sie Diese Geschichte


Date:

by