Warum Verbot von Killer-KI Ist Leichter Gesagt Als Getan

Eine unbemannte US-Predator-Drohne fliegt über Kandahar Air Field, dem südlichen Afghanistan, auf einem Mond beleuchteten Nacht. (Bild: AP)

Als wir den Kopf tiefer in die 21st Jahrhundert, die Aussicht Robotern zu tun, die schmutzige Geschäft des Tötens kommt näher mit jedem Tag. In Max Tegmark ‘ s neues Buch, Leben 3.0: Mensch im Zeitalter der Künstlichen Intelligenz, der MIT-Physiker und Gründer des Future of Life Institute dies sieht scheinbar scifi Möglichkeit, unter Abwägung der möglichen Vorteile von autonomen Maschinen im Krieg mit den enormen Risiken. Die ultimative Herausforderung, sagt er, werden überzeugt Weltmächte zu übergeben, die auf dieser Spiel-ändernden Technologie.

AI hat das Potenzial zu verändern, praktisch jeden Aspekt unserer Existenz, aber es ist nicht sofort klar, wenn wir in der Lage sein, um die volle Kontrolle über diese gewaltige Kraft. Radikale Fortschritte in der KI könnte möglicherweise Ergebnis in einem utopischen Paradies, oder ein techno-Hölle verdient ein James Cameron-Film-Skript. Unter Tegmark das viele betrifft, ist die Aussicht auf autonome Tötungsmaschinen, wo die Menschen gehalten sind “out of the loop”, wenn die Zeit kommt, für einen Roboter, um einen Feind zu töten Kämpfer. Wie bei so vielen Dingen steckt der Teufel im Detail, und eine solche Technologie könnte die Einführung einer Vielzahl von unerwarteten Komplikationen und Risiken—einige von Ihnen ein existenzieller Natur.

Gizmodo ist aufgeregt, um zu teilen, ein exklusiv-Auszug aus dem Leben 3.0, in dem Tegmark diskutiert die vor-und Nachteile von outsourcing-Leben-und-Tod-Entscheidungen auf einer Maschine, eine neue initiative zu Institut ein internationales Verbot von autonomen Tötungsmaschinen, und warum es so schwierig für die Vereinigten Staaten zum Verzicht auf diese zukunftsorientierte Technologie.

Aus Kapitel 3: die Nahe Zukunft: Die Durchbrüche, Bugs, Gesetze, Waffen und Jobs

Seit jeher hat sich die Menschheit litt unter Hunger, Krankheit und Krieg. In der Zukunft, AI kann dazu beitragen, Hunger und Krankheit, aber wie wäre es mit Krieg?

Einige argumentieren, dass Atomwaffen abschrecken Krieg zwischen den Ländern, die Sie besitzen, denn Sie sind so grauenhaft, also wie wäre es, wenn alle Völker bauen sogar noch schrecklicher KI-basierte Waffen, in der Hoffnung, die Beendigung aller Kriege auf ewig? Wenn Sie unpersuaded durch das argument und glauben, dass zukünftige Kriege unvermeidlich sind, wie etwa mit AI, um diese Kriege humaner? Wenn Kriege bestehen nur Maschinen kämpfen Maschinen, dann werden keine menschlichen Soldaten oder Zivilisten müssen getötet werden. Die künftige AI-betriebenen Drohnen und andere autonome Waffen-Systeme (AWS; auch bekannt durch Ihre Gegner als “killer-Roboter”) können hoffentlich mehr fair und rational als menschliche Soldaten: ausgestattet mit übermenschlichen sensoren und furchtlos getötet werden, könnten Sie bleiben kühl, berechnend und besonnene, auch in der Hitze des Gefechts, und werden weniger wahrscheinlich versehentlich Zivilisten töten.


Date:

by