Diese 23 Prinzipien, die Uns Helfen Könnten, zu Vermeiden, eine AI-Apokalypse

521

George Dvorsky29 Minuten agoFiled: Künstliche Intelligenz

  • künstliche superintelligenz
  • AI
  • AGI
  • ASI
  • Futurismus
  • informatik
  • Risiken
  • existenzielle Risiken
  • Bedrohungen
  • Risikominimierung
  • Weitsicht
  • Wissenschaft

13

  • Bearbeiten
  • Fördern
  • Teilen auf Kinja
  • Wechseln Gespräch-tools

Bild: Anthony Hopkins in Westworld.

Science-fiction-Autor Isaac Asimov berühmt vorhergesagt, dass wir eines Tages Roboter zu Programmieren mit einer Reihe von Gesetzen, die uns schützen, uns von unseren mechanischen Kreationen. Aber bevor wir dort sind, brauchen wir Regeln, um sicherzustellen, dass die auf der grundlegendsten Ebene, entwickeln wir AI verantwortungsbewusst und sicher. Kürzlich auf einer Versammlung, einer Gruppe von Experten, die genau das gemacht haben, kommen mit 23 Grundsätze zu lenken, die die Entwicklung der KI in eine positive Richtung—und um sicherzustellen, dass es uns nicht zerstört.

Werbung

Die neuen Richtlinien, nannte die 23 Asilomar AI Grundsätze, berühren Fragen der Forschungs -, Ethik-und vorausschau—aus der Forschung, Strategien und Daten Rechte, um die Transparenz und die Risiken der künstlichen superintelligenz. Frühere versuche zur Gründung von AI-Richtlinien, EINSCHLIESSLICH der Bemühungen von der IEEE Standards Association, Stanford University AI100 Ständigen Ausschuss, und selbst das Weiße Haus, waren entweder zu schmal im Umfang, oder viel zu verallgemeinert. Die Asilomar-Prinzipien, auf der anderen Seite, die gebündelt viel von den aktuellen Gedanken auf die Frage zu entwickeln, eine Art best-practices-Regelwerk in Bezug auf die Entwicklung von AI. Die Prinzipien sind noch nicht durchsetzbar, aber sind gedacht, um Einfluss auf die Art und Weise der Forschung getan wird, sich vorwärts zu bewegen.

Künstliche Intelligenz ist auf den Anbruch einer Goldenen ära, als erlebte durch das Aufkommen von digitalen persönlichen Assistenten wie Siri, Alexa, und Cortana, selbstfahrende Fahrzeuge, und algorithmen, die über menschliche Fähigkeiten auf sinnvolle Weise (in der neuesten Entwicklung, einer KI besiegten die weltweit besten poker-Spieler). Aber im Gegensatz zu vielen anderen tech-Branchen, dieser Bereich der Forschung ist nicht gebunden an formale Sicherheits-Vorschriften oder Normen, was zu Befürchtungen, dass die KI könnte eventuell gehen aus den Schienen und zur Belastung werden, statt ein Vorteil. Gemeinsame ängste gehören AI ersetzen menschliche Arbeiter, Entmachtung uns, und immer eine Bedrohung für unsere Existenz.

Warum Asimovs Drei Gesetze Der Robotik Kann Uns nicht Schützen

Warum Asimovs Drei Gesetze Der Robotik Kann Uns nicht Schützen

Warum Asimovs Drei Gesetze Der Robotik nicht Schützen Können…

Es ist schon 50 Jahre her, seit Isaac Asimov entwickelte seinen berühmten Drei Gesetze der Robotik — eine Reihe von…

Lesen Sie mehr Lesen Sie mehr

Um diese und andere Fragen, die Zukunft des Lebens-Institut vor kurzem brachte Dutzende von Experten zu kommen mit einer Reihe von grundlegenden Prinzipien zu schubsen AI Entwicklung in positive Richtungen und lenken uns deutlich von Apokalypse-Szenarien. Die Teilnehmer der Konferenz kamen aus den unterschiedlichsten Hintergründen, darunter Ingenieure, Programmierer, gibt auch Robotiker, Physiker, ökonomen, Philosophen, Ethiker und Juristen.

Der 23 Asilomar KI-Prinzipien wurden seither unterstützt von fast 2.300 Menschen, darunter 880 Robotik-und KI-Forscher. Namhafte Unterstützer zählen Physiker Stephen Hawking, SpaceX CEO Elon Musk, futurist Ray Kurzweil, und Skype Mitgründer Jaan Tallinn, unter vielen anderen.

Experten unterhalten sich über ein Essen in der Asilomar-Konferenz. (Bild: FLI)

“Unsere Hoffnung war—und wird nach vorne gehen—mit einem sehr vielfältigen Gruppe von Akteuren, aber auch zu Boden-der Prozess, in dem das Fachwissen der KI-Entwickler, die wirklich zu verstehen, wie Systeme entwickelt werden, was Sie tun können, und wo Sie sein können gehen,” bemerkte Teilnehmer Anthony Aguirre, ein Physiker an der University of California, Santa Cruz.

Werbung

Gesponsert

Die Diskussionen waren oft umstritten, die während der Konferenz, sondern ein hohes Maß an Konsens schließlich entstanden. Um eine hohe Messlatte, die FLI-Organisatoren nur akzeptiert ein Prinzip, wenn mindestens 90 Prozent der Teilnehmer zugestimmt.

Die Grundsätze wurden in drei Abschnitte unterteilt—Fragen der Forschung, Ethik und Werte, und längerfristige Probleme. Unter Forschung, die Grundsätze enthalten, die Notwendigkeit der Schaffung “wirtschaftliche Intelligenz” im Gegensatz zu “ungerichtete Intelligenz” (mehr dazu in nur ein bisschen), und eine Ermahnung für die KI-Entwickler, um eine gesunde Dialog mit Entscheidungsträgern. Ethik und Werte enthalten, die Notwendigkeit der Gewährleistung der Sicherheit auf allen Stufen der KI-Entwicklung, die Vermittlung der menschlichen Werte in einer Maschine Sinn, die Vermeidung einer AI-Wettrüsten, und die Notwendigkeit zum Erhalt der menschlichen Kontrolle. Langfristige überlegungen einbezogen Risikoabschätzung, Kontrollmaßnahmen und die Einhaltung der so genannte “capability Vorsicht”—eine Warnung, dass wir unterschätzen Sie nie die potentielle Energie der advanced AI.

“Zu denken, AI lediglich automatisiert, die menschliche Entscheidungen ist, wie denken Strom ist nur ein Ersatz für die Kerze.”

Patrick Lin, ein Konferenz-Teilnehmer und der Direktor der Ethics + Emerging Sciences Group an der California Polytechnic State University, sagt, dass der Asilomar-KI-Prinzipien entsprungen aus “der perfekte Sturm der Einflüsse” hatte er noch nicht gesehen hatte. “Das war eine standard-Einstellung, die übung in einem Feld, das keine zusammenhängende Identität, so dass die übung sehr viel schwerer”, sagte er Gizmodo.

Werbung

Während eine perfekte Konsens war nicht zu erwarten, alle auf der Konferenz könnte sich damit einverstanden, dass AI wird wirkungsvoll in einer Weise, die wir nie zuvor gesehen haben. “Zu denken, AI lediglich automatisiert, die menschliche Entscheidungen ist, wie denken Strom ist nur ein Ersatz für Kerzen,” Lin sagte. “Angesichts der massiven potential für Störungen und Schäden, sowie Vorteile, macht es Sinn, Sie zu etablieren einige Normen frühzeitig zu helfen Steuern die Forschung in eine gute Richtung, im Gegensatz zu der Vermietung einer Marktwirtschaft, dass die fixiert wird, meist auf Effizienz und Gewinn, um die Form zu AI.”

Asilomar Gruppenfoto. Liste der Teilnehmer finden Sie hier. (Bild: FLI)

Einige der Punkte auf der Liste sind ein bisschen wie ein no-brainer, wie die Notwendigkeit zu vermeiden, eine AI-Wettrüsten und die Sicherheit zu gewährleisten. Aber auch andere Gegenstände, aber einfach gesagt, sind wesentlich komplexer. Nehmen Sie die einstweilige Verfügung zu entwickeln “wirtschaftliche Intelligenz”. Es ist vage, aber Aguirre sagt, das ist’ eine Kraft zu diesem frühen Zeitpunkt.

“Hoffen wir, die Menschen interpretieren es in vielerlei Hinsicht”, sagte er Gizmodo. “Der wichtigste Aspekt dieses Prinzips, wie ich es sehe, ist der Vorteil, dass ein Teil der Gleichung. Das heißt, der KI-Entwickler sind aktiv darüber nachzudenken, was die Konsequenzen der Werkzeuge, die Sie entwickeln könnte, anstatt nur die Werkzeuge, die besser, stärker und schneller.”

Werbung

Werbung

Eine andere komplizierte Frage ist, die man über die Aufrechterhaltung der Kontrolle des Menschen. Nach diesem Prinzip,

Die Menschen entscheiden sollten, ob und wie delegieren Entscheidungen an KI-Systeme, zu vollbringen, die die menschliche gewählten Ziele.

Problem ist, die KI wird immer besser und effizienter zu viele Aufgaben, wodurch Sie uns mehr geneigt, verlagern Sie diese Aufgaben. Heute, zum Beispiel, algorithmen übernommen haben, als unser Lager Händler. Es ist zu befürchten, dass battlefield Roboter wird schließlich “aus der Schleife”und angesichts der Autonomie zu töten feindliche Kämpfer Ihrer eigenen accord. Aguirre sagt, wir werden abtreten, einige Entscheidungen zu AI Systemen, aber wir sollten so tun, mit Sorgfalt.

“Ich habe schon zu hören, um zu Google Maps, zum Beispiel, die hilft, mich zu entscheiden, was route um zu nehmen, durch den Verkehr”, sagte Aguirre. “Aber vor kurzem war ich gefangen in einem Erdrutsch-verursacht Stau für eine Stunde mit null Bewegung, während Google verbissen informiert mich war es einer 48-minütigen Fahrt. Ich schließlich ignoriert die Anweisungen und fuhr nach Hause eine sehr Besondere Weise, die mich gerettet Stunden.” Er sagt, es ist wichtig, dass wir halten unser Auge auf das, was Entscheidungen, die wir delegieren, und welche wir wirklich wollen, zu halten für uns selbst.

Alles, was Sie Wissen Über Künstliche Intelligenz Falsch ist

Alles, was Sie Wissen Über Künstliche Intelligenz Falsch ist

Alles, Was Sie Wissen Über Künstliche Intelligenz…

Es wurde gefeiert als der wichtigste test für die Intelligenz an der Maschine, da Deep Blue besiegt Garry…

Lesen Sie mehr Lesen Sie mehr

Viele der Prinzipien auf die neue Liste in den Herbst “leichter gesagt als getan” – Kategorie. Zum Beispiel gibt es eine einstweilige Verfügung für die KI-Entwickler offen und transparent über Ihre Forschung. Angesichts der hohen Grad an Wettbewerb in der tech-Branche, das scheint wie ein Traum. Aguirre stimmt, es ist ein wichtiges und schwieriges Thema.

Werbung

“Ein positives Zeichen ist die Partnerschaft auf AI, geplant als Teil einer Gruppe erstellen kann, collaborative dynamics, wo der nutzen der teilnehmenden der Zähler zu wettbewerbsfähigen Kosten, den Austausch von Informationen”, sagte er. “Während die großen Fortschritte kommen kann, von scrappy wenig startups mit geringen Ressourcen so weit von der realen Voraus wurde im Kraftpakete wie Google/Deepmind, IBM, Facebook, etc.”

In Bezug auf die erste Entwickler, um die Einhaltung dieser Grundsätze, Lin sagt, dass Menschen dazu neigen, eine harte Zeit haben, das Verständnis der Wert der Normen, was zu Anrufe für die “Giftzähne des Gesetzes”. Verschweigen Sicherheits-Mängel in der KI, zum Beispiel, könnte dazu führen, steif Bußgelder und Strafen.

Werbung

“Auch ohne die Zähne von der gesetzlichen Strafe, Normen sind noch kraftvoller in der Formgebung Verhalten, ob es zu Hause oder in der Klasse oder in internationale Beziehungen,” Lin sagte. “Zum Beispiel, die UNS nicht Unterzeichner der Ottawa-Vertrag verbietet anti-Personen-Minen. Aber wir halten es trotzdem, denn brechen eine so starke norm hat die schwere politische und damit wirtschaftliche Folgen haben. Die Globale Verurteilung Folgen würde, ist genug Abschreckung (so far).”

Aber dies möglicherweise nicht immer der Fall ist, eine strenge—und auch auf internationaler Ebene—Aufsicht. Es ist nicht unmöglich, sich vorzustellen, ein Unternehmen wie Facebook oder Google die Entwicklung einer superintelligenten KI, die gleichzeitig steigert Gewinn in nie gekannte Höhen und stellt eine katastrophale Bedrohung für die Menschheit. Mit steigenden Gewinne, ein großes Unternehmen könnte sich nicht sorgen, über die Verletzung von “Normen” und vor globalen Verurteilung. Erschreckend, wir haben keine Bestimmungen für diese Art der Sache.

Werbung

Ein weiteres Prinzip, das wird schwer, wenn nicht unmöglich, zu implementieren, ist das eine besagt, dass:

KI-Systeme sollten so konzipiert und betrieben werden, so dass es kompatibel mit den idealen der Menschenwürde, der Menschenrechte, der Grundfreiheiten und der kulturellen Vielfalt.

Dieses Konzept, bekannt als “value-Ausrichtung”, ist eine oft zitierte Strategie, um AI sicher, aber es gibt keine allgemein vereinbarte Definition einer “menschlichen Wert.”

Lin ist damit einverstanden, dass value-Ausrichtung ist ein besonders kniffliges problem. “In Asilomar, es gab eine Menge Gerede über die Angleichung der KI mit menschlichen Werten, aber auch wenig Diskussion darüber, was diese menschlichen Werte sind”, sagte er. “Technologen verständlicherweise unangenehm zu konfrontieren, dies vor der Frage, aber es ist ein wesentlicher ein. Wenn Sie ein perfekt ausgerichtetes AI [d.h. eine AI-perfekt ausgerichtet mit menschlichen Werten] aber kalibriert, um die falschen menschlichen Werte, dann haben Sie gerade entfesselt eine schreckliche Technik oder gar Waffen.” Als klassisches (aber extreme) Beispiel, eine KI könnte gesagt werden, dass viele Büroklammern ist gut—und es geht, drehen den gesamten Planeten in die Büroklammern. Als Lin ängste, eine scheinbar Harmlose Wert könnte eine ernsthafte Bedrohung.

“Wenn wir uns vorstellen, eine Zeit, wenn die AIs gibt, die so fähig oder so mehr, als der Klügste Mensch, es wäre absolut naiv zu glauben, dass die Welt nicht grundlegend ändern wird.”

Schließlich gibt es noch das Problem der künstlichen Intelligenz, die als eine existentielle Bedrohung. Zu diesem Thema hat, der Asilomar-Leitlinien sprechen, um die Bedeutung der überwachung von jedem Rechner in der Lage rekursive selbst-Verbesserung (d.h. die Fähigkeit, ein AI, um ständige Verbesserung seiner eigenen source-code, was zu einem möglichen “run away” – Effekt, oder das Programm selbst mit einer Reihe von Funktionen, die im Widerspruch zu den menschlichen Werten). Die Herausforderung wird es sein, in die Umsetzung der notwendigen Schutzmaßnahmen und sicherstellen, dass die Maschine bleibt, “in Grenzen”, wenn es darum geht, bestimmte änderungen. Das ist nicht einfach.

Werbung

Werbung

Ein letzter wichtiger Punkt auf der Liste ist die “Fähigkeit Vorsicht.” Da gibt es keinen Konsens darüber, wie mächtig AI werden könnte, wäre es klug, zu unterlassen, in Sonntagsreden über das maximale Potenzial. In anderen Worten, wir sollten nie, nie unterschätzen die macht der künstlichen superintelligenz.

“Keine aktuelle AI-system auf ‘go ‘ Schurken’ und gefährlich sein, und es ist wichtig, dass die Menschen wissen”, sagte Aguirre. “Zur gleichen Zeit, wenn wir uns vorstellen, eine Zeit, wenn die AIs gibt, die so fähig oder so mehr, als der Klügste Mensch, es wäre absolut naiv zu glauben, dass die Welt nicht grundlegend ändern wird. So wie ernst nehmen wir AI – Chancen und Risiken skaliert werden muss, wie fähig Sie ist, und klare Einschätzungen und Prognosen—ohne die Presse, die Industrie oder die Forschung hype, die oft begleitet Fortschritte—wäre ein guter Ausgangspunkt.”

Für jetzt, diese Liste der Prinzipien ist genau das—eine Liste von Grundsätzen. Es gibt keine Bestimmung, mit der diese Richtlinien umgesetzt oder aktualisiert, noch gibt es keinen Aufruf für institutionelle oder Staatliche Aufsicht. So wie es da steht, kann der Entwickler aus einer Verletzung dieser best-of-breed-Empfehlungen, und Gesicht nicht Folgen.

Werbung

So wird diese 32 Grundsätze halten uns sicher und schützen uns von einem AI-Apokalypse? Wahrscheinlich nicht, aber der Zweck dieser übung war, zu bündeln und gemeinsam die besten Ideen auf, die Angelegenheit in der Hoffnung, inspirierend, etwas konkreter. So unvollkommen und idealistisch, wie diese Prinzipien kann, wir sind besser dran mit Ihnen.

[Future of Life Institute]