Google nannte die fünf wichtigsten Probleme der Sicherheit von Robotern

Роботы

Google sorgt sich um künstliche Intelligenz. Nicht für das, was er wird feindselig und nähme die Welt, sondern auch für die Tatsache, dass ein nützliches Home-Roboter, zum Beispiel, kann zufällig полоснуть den Wirt mit einem Messer. Eines der letzten Werke von KI-Forscher bei Google beschäftigt sich mit den «Spezifischen Fragen der Sicherheits-KI». Zustimmen, ist ein guter Weg, um zu paraphrasieren «wie sollen wir das stoppen dieser Stahlbeton-Mörder».

Um diese Frage zu beantworten, haben die Wissenschaftler konzentrierten sich auf Google fünf «praktischen Forschungs-Probleme» — die wesentlichen Herausforderungen, die zu berücksichtigen sind Programmierer, bevor Sie beginnen, erstellen der nächsten Transformator. Aus bestimmten Gründen, die Arbeit wendet sich an hypothetischen Roboter-Hausmeister, aber in Wirklichkeit Ihre Ergebnisse können gelten alle Agenten der künstlichen Intelligenz, die Roboter zu Steuern, die Kommunikation mit Menschen.

Probleme bestehen in folgenden Punkten:

  • Wie vermeidet man negative Nebenwirkungen: wie kann ich verhindern, Roboter Bücherregal umzuwerfen, in einem heftigen Wunsch, Fußboden Staubsaugen?
  • Wie vermeiden Hacking aus Gründen der Belohnung: wenn der Roboter so programmiert, Spaß haben von der Reinigung der Räume, aber geben Sie ihm Verschmieren Ort, um es einfach nur genießen vielfachen von seiner Ernte?
  • Skalierbarkeit Aufsicht: wie viel Freiheit in den Entscheidungen Roboter geben? Ob es notwendig sei, Fragen Sie jedes mal, wenn er sich bewegt die Objekte in den Prozess der Reinigung Ihres Zimmers oder bewegt sich nur, wenn Sie Ihre Lieblings-Vase am Bett?
  • Sichere Neugier: wie lehren Roboter das beruhigen Ihre Neugier? Forscher von Google führen das Beispiel Roboter, der lernt, wird er dem Micro MOP. Wie es zu lehren, dass das waschen Mopp den Boden perfekt, aber verletzen die Steckdose in den Prozess der Reinigung nicht lohnt?
  • Respekt für den persönlichen Raum: wie kann ich sicherstellen, dass der Roboter respektiert Raum, in dem sich der? Reiniger in Ihrem Schlafzimmer wäre, anders zu handeln, als Reiniger am Werk, aber Woher erfährt er diesen Unterschied?

Rein, alles nicht so einfach, wie Isaac Asimov in seinen «drei Gesetze der Robotik», aber das war ja zu erwarten.

роботы

Einige dieser Probleme scheinen gelöst, sehr einfach. Im Falle der letzteren, zum Beispiel, können Sie einfach Programmieren am Roboter mehrere voreingestellte Modi. Wenn er sich im industriellen Umfeld (und er davon erfährt, weil Sie ihm sagen), er wechselt einfach auf die Factory-Modus und wird härter Bürste schwingen.

Aber andere Probleme sind so stark abhängig von dem Kontext, dass es scheint fast unmöglich zu Programmieren Roboter auf jedes Szenario. Zum Beispiel, nehmen Sie das Problem der «sicheren Neugier». Roboter müssten «Entscheidungen zu treffen, die scheinen nicht ideal, aber die helfen dem Agenten seine Umgebung erfahren». Roboter-Agenten werden sollten auf jeden Fall Maßnahmen ergreifen, die die Grenzen des erlaubten, aber wie in diesem Fall, um Sie vor der möglichen Schädigung von sich selbst und seiner Umwelt?

Die Arbeit bietet eine Reihe von Methoden, einschließlich der Schaffung einer simulierten Umgebung, in denen die Roboter-Agent in der Lage, zeigen sich vor dem Ausgang in die Reale Welt; Regeln zu «begrenzten Neugier», die die Grenze die Bewegung des Roboters in einem vorgegebenen Raum; und die gute, alte, bewährte menschliche Aufsicht — die Arbeit des Roboters mit dem Zuchtmeister, der in der Lage sein zu überprüfen, seine Stärke.

Es ist leicht, sich vorzustellen, dass jeder dieser Ansätze hat seine eigenen vor-und Nachteile, und die Arbeit von Google geht es jedoch nicht um innovativer Lösungen — Sie ist einfach beschreibt Allgemeine Probleme.

Trotz der Tatsache, dass solche Leute wie Elon Musk und Stephen Hawking, zum Ausdruck bringen Tiefe Besorgnis über die Gefahr für die Entwicklung der künstlichen Intelligenz, die meisten Computer-Wissenschaftler sind sich einig, dass diese Probleme noch weit Weg von uns. Bevor Sie beginnen, sich sorgen darüber, dass die KI wird feindlich убийцем, wir müssen sicherstellen, dass die Roboter, die in der Lage, arbeiten in den Fabriken und in den Häusern, intelligent genug, um nicht versehentlich zu töten und Menschen nicht Schaden. Das ist schon mal passiert und auf jeden Fall wieder geschehen.

Google hat seinen eigenen Interesse daran. Die Gesellschaft befreite sich von Boston Dynamics, einem ehrgeizigen Hersteller von Robotern, die erworben im Jahr 2013, aber weiterhin zu investieren und Ressourcen in alle Arten von Projekten der künstlichen Intelligenz. Die Arbeit des Unternehmens, zusammen mit der Forschung von Universitäten und Konkurrenten, legt den Grundstein für die Computer-Gehirn — Software, die beleben den physischen Robotern. Wird schwierig sicherzustellen, dass diese Gehirne denken, wie es notwendig ist.

Google nannte die fünf wichtigsten Probleme der Sicherheit von Robotern
Ilja Hel


Date:

by