Künstliche Intelligenz bei weitem nicht so schlau wie du und danach hat ilon Musk ihn denken

Im März 2016 ein Computer-Algorithmus AlphaGo Unternehmen DeepMind konnte den Sieg über Lee Седолем, zu diesem Zeitpunkt der beste Spieler in der Welt in einer schwierigen logischen TEN. Dieses Ereignis war einer dieser entscheidenden Momente in der Geschichte der Technologie-Industrie, mit denen im Laufe der Zeit wurden und der Sieg des Computers Deep Blue von IBM über Weltmeister Schachweltmeister Garri Kasparow und der Sieg des Supercomputers Watson von IBM in der gleichen Quiz für Gelehrte Jeopardy im Jahr 2011.

Aber dennoch, trotz dieser Sieg, egal wie beeindruckend Sie sein mögen, hier geht es weitgehend um Trainingslager geht den algorithmen und der Verwendung der Brute Rechenleistung, als über eine echte künstliche Intelligenz. Der ehemalige Professor für Robotik am Massachusetts Institute of Technology von Rodney Brooks, der einer der Mitbegründer des Unternehmens iRobot, und später Rethink Robotics, sagt, dass die Ausbildung des Algorithmus-Spiel in eine komplexe strategische Puzzle-Spiel – es ist nicht der Intellekt. Zumindest nicht so, wie wir es präsentieren für den Menschen.

Der Experte erklärt, dass, egal wie stark AlphaGo zeigte sich weder bei der Ausführung der Aufgabe, in Wirklichkeit ist er nicht in der Lage, auf nichts anderes. Außerdem ist er so konfiguriert, dass er spielen kann. nur auf dem Standard-Feld 19 x 19. In einem Interview mit dem Portal TechCrunch Brooks erzählte, wie vor kurzem hatte die Gelegenheit, mit einem Team von DeepMind und herauszufinden, ein Interessantes Detail. Auf die Frage, was geschehen würde, tausche die Organisatoren der Wettbewerbe Brettgröße. und erhöht seine bis zu 29 x 29 Zellen, die Mannschaft AlphaGo gestand ihm, dass sogar eine einfache änderung des Spielfeldes würde zu dem, was «uns das Ende gekommen ist».

«Ich denke, dass die Menschen sehen, wie gut der Algorithmus mit einer anderen Herausforderung zu bewältigen, und anscheinend sofort glauben, dass er in der Lage ist so effektiv zu erfüllen andere. Aber die Tatsache, dass er nicht kann», kommentierte Brooks.

Grobe Intelligenz

Im Mai dieses Jahres in einem Interview mit Дэвину Колдвею auf der Veranstaltung TechCrunch Disrupt Kasparow wies darauf hin, dass die Entwicklung der Computer, der Schach spielen auf globaler Ebene, ist eine Sache, aber eine ganz andere nennen dies Computer sauber künstlicher Intelligenz, da er es nicht ist. Es ist nur eine Maschine, die wirft seine gesamte Rechenleistung auf die Lösung der Probleme, mit denen Sie daran gewöhnt, am besten zu bewältigen.

«Maschinen im Schach gewinnen wegen der Möglichkeit der tiefen Compute Berechnung. Sie können sich absolut unbesiegbar bei Vorhandensein einer riesigen Datenbank, die sehr schnelle Hardware und mehr logischen algorithmen. Jedoch fehlt Ihnen das Verständnis. Sie erkennen nicht die strategische Vorlagen. Die Maschinen keinen Zweck», sagte Kasparow.

Gil Pratt, CEO von Toyota Institute, der Abteilung von Toyota, Umgang mit Fragen und Projekte im Zusammenhang mit künstlicher Intelligenz und seine Verwendung in der häuslichen Robotern und unbemannten Fahrzeugen, die auch teilnahm, in einem Interview mit TechCrunch im Rahmen der Veranstaltung Robotics Session. Seiner Meinung nach, die Angst, die wir hören von einer Vielzahl von Menschen, einschließlich Ilona Maske, vor kurzem nannte künstliche Intelligenz «als existenzielle Bedrohung für die Menschheit», kann aufgrund der nicht mehr als den антиутопичными Beschreibungen der Welt, die uns die Science Fiction bietet.

«Unsere derzeitigen Systeme des tiefen Lernens sind gut bei der Erfüllung Ihrer Aufgaben nur so weit, wie wir Sie selbst geschaffen haben. Aber eigentlich sind Sie eher unterstützend ausgerichtet und крошечны in Ihrem Umfang. Also ich denke, es ist wichtig jedes mal im Kontext dieses Themas zu erwähnen und die Tatsache, wie gut Sie sind, und wie Sie tatsächlich unwirksam sind. Und wie weit sind wir von dem Moment an, wenn diese Systeme in der Lage, damit zu beginnen, jene Bedrohung, die sagt danach hat ilon Musk und anderen», — sagte Pratt.

Brooks wiederum auf TechCrunch Robotics Session darauf hingewiesen, dass unter den Menschen im Allgemeinen eine Tendenz zu der Annahme, dass wenn der Algorithmus in der Lage Umgang mit der Aufgabe «x», dann war er offensichtlich genauso schlau wie der Mensch.

«Ich denke, dass der Grund, warum Menschen, einschließlich Ilona Maske, Begehen diesen Fehler, ist wie folgt. Wenn wir Menschen sehen, sehr gut fertig zu werden mit der gestellten Aufgabe vor ihm, wir verstehen, dass es hat eine hohe Kompetenz in diesem Geschäft. Ich denke, dass das gleiche Modell versuchen die Menschen zu übernehmen und machine learning. Und genau dies ist ein schwerer Fehler», sagt Brooks.

Der Chef des Unternehmens Facebook, Mark Zuckerberg verbrachte am vergangenen Sonntag die Live-übertragung, bei der auch kritisierte Beurteilung Ilona Maske, nannte Sie «ziemlich unverantwortlich». Nach Meinung von Zuckerberg, die KI ist in der Lage, erheblich verbessern unser Leben. Musk wiederum beschloss, nicht zu schweigen und antwortete Zuckerberg, dass er «begrenzten Einblick» über die KI. Das Thema ist noch nicht geschlossen, und Musk versprach, später Ausführlicher Antworten auf die Angriffe seitens der Kollegen in der IT-Branche.

Übrigens Musk ist nicht der einzige, der denkt, dass die KI tragen kann eine potenzielle Bedrohung. Der Physiker Stephen Hawking und der Philosoph Nick Бостром ist auch Ausdruck Ihrer Besorgnis über das Potenzial das eindringen der künstlichen Intelligenz in der Lebensweise der Menschheit. Aber wahrscheinlich werden Sie sagen mehr über генерализированном künstliche Intelligenz. Über das lernen in solchen Labors, wie Facebook AI Research, DeepMind und Maluuba, als über mehr als hochspezialisierten KI, die ersten Anfänge dessen können wir heute sehen.

Brooks bemerkt auch, dass viele der Kritiker die KI auch nicht in diesem Bereich arbeiten, und schlug vor, dass diese Leute einfach nicht verstehen, wie schwierig ist die Suche nach Lösungen der einzelnen Aufgaben in diesem Bereich.

«Eigentlich Menschen, die die KI als existenzielle Bedrohung, nicht so viel. Stephen Hawking, britischer Astrophysiker und Astronom Martin Reis… und noch ein paar Leute. Die Ironie ist, dass die meisten von Ihnen verbindet eine Besonderheit – Sie auch nicht arbeiten im Bereich der künstlichen Intelligenz», sagte Brooks.

«Für diejenigen von uns, die mit KI, es ist ziemlich offensichtlich, wie schwierig zu erreichen ist die Arbeit etwas auf der Ebene des fertigen Produkts».

Missverständnis KI

Ein Teil des Problems stammt noch aus der Tatsache, dass wir alle nennen es «künstliche Intelligenz». Die Wahrheit ist, dass diese «Intelligenz» ganz anders als die menschliche Intelligenz, die in lexikalischen Nachschlagewerken und Wörterbüchern in der Regel beschrieben als «die Fähigkeit zum lernen, verstehen und приспосабливаемости auf neue Situationen».

Pascal Kaufmann, CEO von Starmind, ein Startup, bietet Hilfe an andere Unternehmen in der Nutzung der kollektiven menschlichen Intelligenz auf der Suche nach Lösungen für die Probleme im Bereich der Wirtschaft, innerhalb der letzten 15 Jahre studierte Neurobiologie. Das menschliche Gehirn und der Computer, sagte Kaufman, arbeiten ganz anders, und es wäre offensichtlich ein Fehler, Sie zu vergleichen.

«Die Analogie – das Gehirn funktioniert wie ein Computer – ist sehr gefährlich und steht ein Hindernis im Fortschritt der Entwicklung von KI», sagt Kaufman.

Der Experte glaubt auch, dass wir gehen nicht in das Verständnis menschlicher Intelligenz, wenn wir es betrachten in technologischer Hinsicht.

«Es ist ein Irrglaube, dass die algorithmen funktionieren wie das menschliche Gehirn. Menschen lieben algorithmen, und deshalb denken Sie, dass das Gehirn beschreiben kann mit Ihrer Hilfe. Ich denke, das ist grundlegend falsch», ergänzt Kaufmann.

Wenn etwas schief geht

Es gibt viele Beispiele, wo die KI-algorithmen sind bei weitem nicht so intelligent wie wir gewohnt sind, über Sie nachzudenken. Und eine der wohl am meisten бесславных kann dazu dienen, die KI-Algorithmus Tay (Tay), erstellt von einem Team der Entwicklung von KI-Systemen von Microsoft veröffentlicht und von der Kontrolle im letzten Jahr. Es dauerte weniger als einen Tag, um den bot in der Gegenwart verloren hat. Experten sagen, dass es passieren kann mit jeder KI-System, bei dem Ihr angeboten wird schlechte Vorbilder. Im Fall von Tay, kam Sie unter den Einfluss von rassistischen und anderen missbräuchlichen lexikalischen Wortformen. Und so wie es programmiert wurde, auf «Ausbildung» und «Verhalten spiegeln», das bald außer Kontrolle Forschern.

Im Rahmen der Verbreitung der Studie von Experten der Cornell und Universitäten Wyoming wurde festgestellt, dass sehr leicht täuschen algorithmen, die ausgebildeten auf die Identifizierung von digitalen Bildern. Experten haben festgestellt, dass das Bild, das aussah wie «скремблированная Unsinn» für Menschen, die mit dem Algorithmus wird definiert als ein Bild von einigen alltäglichen Objekt wie «Schulbus».

Laut einem Artikel in der von MIT Tech Review und описывавшей dieses Projekt, es ist nicht ganz klar, warum der Algorithmus lässt sich täuschen in einer Weise, die Forscher es getan haben. Dass ihm nachgefolgt wurde, um herauszufinden, ist die Tatsache, dass die Menschen lernen zu erkennen, was vor Ihnen liegt – entweder eine in sich geschlossene Bild, oder ein unklares Bild. Algorithmen wiederum, analysierenden Pixel, leichter zu Manipulation und Täuschung.

Was die selbstverwalteten Autos, hier ist alles viel schwieriger. Es gibt einige Dinge, die der Mensch versteht, bei der Vorbereitung der Begegnung mit bestimmten Situationen. Der Maschine ist es zu trainieren, wird es sehr schwierig. In einem großen Artikel, der in einer Automobil-Blogs Rodney Brooks im Januar dieses Jahres, mehrere Beispiele für solche Situationen, und zwar auch solche, die beschreibt, wie ein unbemanntes Fahrzeug nähert sich die Fahrbahn das Zeichen «Halt», der neben der Kreuzung in der Stadt, am Anfang dessen stehen und kommunizieren Erwachsene mit einem Kind.

Der Algorithmus wahrscheinlich so konfiguriert ist, dass Sie warten, bis die Fußgänger übergang über die Straße. Aber was, wenn diese Fußgänger nicht in den Sinn gekommen war, die Straße überqueren, so wie Sie stehen und warten, sagen wir, Schulbus? Der Fahrer-ein Mann in diesem Fall könnte das Horn Fußgängern, die in die Antwort könnte winken möchte, die besagt, dass das passieren kann. Unbemannte gleiche Auto in einer solchen Situation kann einfach stecken fest, endlos warten auf den übergang der Menschen über die Straße, weil der Algorithmus nicht ein Verständnis hat dieser einzigartigen menschlichen Signalen, schreibt Brooks.

Jedes dieser Beispiele zeigt uns, wie weit müssen wir noch Fortschritte bei der Entwicklung der algorithmen der künstlichen Intelligenz. Wie stark in der Lage, erfolgreich die Entwickler generalisierte KI ist eine andere Frage. Es gibt Dinge, mit denen der Mensch in der Lage, leicht zu bewältigen, jedoch für die Ausbildung des Algorithmus es wird eine echte Folter. Warum? Weil wir Menschen sind begrenzt in unserer Ausbildung eine Reihe von spezifischen Aufgaben.

Künstliche Intelligenz bei weitem nicht so schlau wie du und danach hat ilon Musk ihn denken
Nikolai Hizhnyak


Date:

by