Wie Können Wir uns Vorbereiten, Katastrophal Gefährlich, AI—und Warum Wir nicht Warten Können

Wie Können Wir uns Vorbereiten, Katastrophal Gefährlich, AI—und Warum Wir nicht Warten Können

Illustration: Elena Scotti (Gizmodo) George DvorskyToday 10:10amFiled: Künstliche superintelligenceFiled: Künstliche superintelligenz

  • Künstliche superintelligenz
  • künstliche Intelligenz
  • AI
  • Futurismus
  • Wissenschaft
  • Apokalypse

895

  • Bearbeiten
  • Embiggen
  • Senden Sie an die Redaktion
  • Fördern
  • Teilen auf Kinja
  • Verschieben von ad-slots
  • -Änderung im Artikel video

Künstliche Intelligenz in seiner jetzigen form ist meist harmlos, aber das wird nicht lange halten. Maschinen werden immer intelligenter und fähiger, die von minute zu minute, was zu Bedenken, dass die KI wird schließlich entsprechen, und dann überschreiten, menschlichen Niveaus der Intelligenz—eine Aussicht, bekannt als künstliche superintelligenz (ASI).

Als technologischer Perspektive, ASI wird anders als alles, was wir jemals gesehen hatte. Wir haben keine Vorkenntnisse, um uns zu führen, was bedeutet, dass wir gehen zu müssen, um unsere kollektive Köpfe zusammen und mit den Vorbereitungen beginnen. Es ist keine übertreibung, zu sagen, der Existenz der Menschheit steht auf dem Spiel—so schwer das ist, zu hören und gebe—und da gibt es keinen Konsens darüber, Wann wir damit rechnen können, erfüllen unsere neuen digital-overlords, wäre es obliegt uns zu Beginn der Vorbereitung jetzt für diese Möglichkeit, und nicht warten, bis einige beliebige Datum in der Zukunft.

Am Horizont

In der Tat, die Rückkehr von einer AI winter, einer Periode, in der Neuerungen im AI verlangsamen sich merklich, scheint nicht mehr wahrscheinlich. Angeheizt vor allem durch die Kräfte des maschinellen Lernens, haben wir in einem Goldenen Zeitalter der KI-Forschung, und mit keine offensichtliche Ende in Sicht. In den letzten Jahren haben wir erlebt verblüffende Fortschritte in Bereichen wie selbstständiges lernen, vorausschauend, autonome navigation, computer vision, video und gameplay. Computer können jetzt Handel mit Aktien in der Größenordnung von Millisekunden, automatisierte Autos werden zunehmend die auf unseren Straßen und künstlich intelligenten Assistenten haben eingegriffen in unser Zuhause. Die nächsten Jahre werden bezeugen, Weiterentwicklungen, einschließlich AI -, kann lernen durch eigene Erfahrungen, der Anpassung an neuartige Situationen, und verstehen Abstraktionen und Analogien.

“Per definition ASI wird verstehen, dass die Welt und die Menschen besser als wir verstehen es, und es ist nicht offensichtlich, wie könnten wir etwas Steuern.”

Wir wissen nicht, Wann ASI entstehen oder welche form es dauern wird, aber die Zeichen seiner bevorstehenden Ankunft beginnen, zu erscheinen.

Letztes Jahr zum Beispiel, in ein bot-on bot-Go-Turnier, DeepMind ist AlphaGo Null (AGZ), besiegte die regelmäßige AlphaGo mit einem score von 100 Spiele zu null. Unglaublich, AGZ benötigte nur drei Tage, um zu trainieren, sich selbst von Grund, während dieser Zeit erwarb er buchstäblich Tausende von Jahren der menschlichen Gehen, Erfahrung spielend. Als die DeepMind-Forscher festgestellt haben, ist es nun “möglich zu trainieren [Maschinen], um übermenschliche Ebene, ohne menschliche Beispiele oder Anleitungen, da kein wissen über die Domäne über grundlegende Regeln.” Es war eine nachdrückliche Erinnerung daran, dass die Entwicklungen in diesem Bereich sind anfällig für schnelle, unvorhersehbare und dramatische Verbesserungen, und dass wir eingegeben haben, in ein neues Zeitalter—das Zeitalter der superintelligenten Maschinen.

“Nach einigen Schätzungen, Supercomputer können jetzt—oder in Naher Zukunft mehr tun, Elementare Operationen pro Sekunde, als das menschliche Gehirn, so dass wir vielleicht bereits über die notwendige hardware zu konkurrieren, mit einem Gehirn,” sagte Jaan Tallinn, ein computer-Programmierer, Mitgründer von Skype, und co-Gründer des Centre for the Study of Existential Risk, ein Forschungszentrum an der Universität von Cambridge mit betroffenen human extinction-Szenarien. “Auch eine Menge Forschungsarbeit ist jetzt in die ‘meta-lernen’, Entwicklung von AIs, wäre in der Lage zu entwerfen AIs. Daher Fortschritte in der AI vielleicht irgendwann einfach entkoppeln von der menschlichen Geschwindigkeiten und Fristen.”

Diese und andere Entwicklungen führen dürfte auf die Einführung der AGI, sonst bekannt als künstliche Allgemeine Intelligenz. Im Gegensatz zu künstlichen schmalen intelligence (ANI), die ist super gut bei der Lösung von speziellen Aufgaben, wie das spielen Gehen oder erkennen von menschlichen Gesichtern, AGI weisen die Kompetenz auf mehrere domains. Diese kraftvolle form der AI wird mehr menschenähnliche in seine Fähigkeiten, die Anpassung an neue Situationen, lernen eine Vielzahl von Fähigkeiten und das ausführen einer Vielzahl von Aufgaben. Sobald wir erreichen AGI, die den Schritt zur superintelligenz wird kurz sein—vor allem, wenn AGIs gesagt, dass immer bessere Versionen von sich selbst.

“Es ist schwer vorherzusagen, technologischer Fortschritt, aber ein paar Faktoren, die darauf hindeuten, dass AGI und ASI möglich sein könnte, innerhalb der nächsten Jahrzehnte”, sagte Yolanda Lannquist, AI-Politik-Forscher an Der Gesellschaft der Zukunft, einer non-profit-think-tank befasst sich mit den Auswirkungen neuer Technologien. Sie verweist auf Unternehmen, die derzeit arbeiten in Richtung AGI-Entwicklung, einschließlich Google DeepMind, GoodAI, Araya Inc., Erfüllungs -, SingularityNET, unter anderen, auch kleineren teams und Einzelpersonen an Universitäten. Zur gleichen Zeit, Lannquist sagte Forschung auf ANI führen kann, um Durchbrüche in Richtung AGI, mit der Unternehmen wie Facebook, Google, IBM, Microsoft, Amazon, Apple, OpenAI, Tencent, Baidu und Xiaomi unter den großen Unternehmen investiert derzeit stark in die KI-Forschung.

Mit AI zusehends in unser Leben, wir beginnen zu sehen, einzigartigen Probleme entstehen, insbesondere in den Bereichen Datenschutz, Sicherheit, und fairness. AI-Ethik-boards beginnen, sind alltäglich geworden, zum Beispiel, zusammen mit Normen und standards Projekte zur Gewährleistung eines sicheren und ethischen Intelligenz an der Maschine. Blick in die Zukunft, wir gehen zu müssen, um sich mit solchen Entwicklungen wie massive technologische Arbeitslosigkeit, der Anstieg der autonomen Tötungsmaschinen (einschließlich waffenfähige Drohnen), AI-fähigen Hacker und andere Bedrohungen.

Jenseits der menschlichen Ebene das Verständnis und die Kontrolle

Aber dies sind Probleme der Gegenwart und der nahen Zukunft, und die meisten von uns einig, dass Maßnahmen zur Minderung dieser negativen Aspekte von AI. Mehr kontrovers, jedoch ist der Vorschlag, dass wir beginnen, die Vorbereitung für die Einführung der künstlichen superintelligenz—, eingeläutet moment, wenn die Maschinen übertreffen menschlichen Niveaus der Intelligenz um mehrere Größenordnungen. Was macht ASI besonders gefährlich ist, dass es zu betreiben, jenseits der menschlichen Kontrolle und das Verständnis. Aufgrund seiner immensen Reichweite, Geschwindigkeit und rechnerische Kenntnisse, ASI wird in der Lage sein, Erfüllung praktisch nichts es ist so programmiert, oder dafür entscheidet, das zu tun.

Conjuring ASI-inspiriert Weltuntergangs-Szenarien ist tatsächlich ziemlich neben den Punkt, den wir bereits haben es im Rahmen unserer Mittel zu zerstören uns selbst.

Es gibt viele extreme Szenarien, die in den Sinn kommen. Bewaffnet mit übermenschlichen Kräften, ASI zerstören könnte unsere Zivilisation, entweder durch Unfall, misintention, oder der bewussten Gestaltung. Zum Beispiel, es könnte sich unser planet in Schmiere nach einer einfachen Missverständnis seiner Ziele (die allegorische Büroklammer-Szenario ist ein gutes Beispiel), entfernen Sie die Menschheit als eine lästige Plage, oder wischen Sie sich unsere Zivilisation und Infrastruktur, wie es bestrebt ist sich zu verbessern, sich noch weiter die Möglichkeit, einen KI-Theoretiker beziehen sich auf als rekursive selbst-Verbesserung. Sollte die Menschheit sich auf ein KI-Rennen mit anderen rivalisierenden Nationen, ein offensiver ASI könnte außer Kontrolle geraten, entweder im Frieden oder im Krieg. Eine ASI-könnte absichtlich Ende der Menschheit durch die Zerstörung unseres Planeten-Atmosphäre oder Biosphäre mit sich selbst replizierende Nanotechnologie. Oder es könnte starten alle unsere nuklearen Waffen, Funken ein Terminator-Stil robopocalypse, oder lassen Sie einige Kräfte der Physik, die wir gar nicht kennen. Mit Genetik, Kybernetik, Nanotechnologie, oder andere Ihr zur Verfügung stehenden Mitteln, ASI konnte umprogrammiert werden uns in blathering, geistlose Automaten, denken es macht uns eine Art von Gnade in einem Versuch zu beruhigen unsere gewalttätige Naturen. Rival ASIs konnte, Krieg gegen sich selbst im Kampf um Ressourcen, sengenden, den Planeten in den Prozess.

Klar, wir haben keinen Mangel an Ideen, aber zaubern ASI-inspiriert Weltuntergangs-Szenarien ist tatsächlich ziemlich neben den Punkt, den wir bereits haben es im Rahmen unserer Mittel zu zerstören uns selbst, und es wird nicht schwierig sein für ASI zu kommen mit Ihrer eigenen Wege zu Ende mit uns.

Die Aussicht zugegebenermaßen klingt wie science fiction, aber eine wachsende Zahl von prominenten Denkern und betroffenen Bürgern beginnen, nehmen diese Möglichkeit sehr ernst.

Tallinn sagte einmal ASI entsteht, Sie konfrontieren uns mit völlig neuen Arten von Problemen.

“Per definition ASI wird verstehen, dass die Welt und die Menschen besser als wir verstehen es, und es ist nicht offensichtlich, wie könnten wir etwas Steuern”, sagt Tallinn. “Wenn Sie darüber nachdenken, was passiert, Schimpansen nicht mehr zu Ihnen, weil wir Menschen die Kontrolle Ihrer Umwelt, indem Sie mehr intelligent. Wir sollten auf AI Ausrichtung [AI, ist freundlich zu Menschen und menschlichen Interessen] zu vermeiden, ein ähnliches Schicksal.”

Katia Grace, Herausgeberin der AI Schlägt in blog und einer Mitarbeiterin des Machine Intelligence Research Institute (MIRI), sagte ASI-wird die erste Technologie, die möglicherweise übertreffen den Menschen auf jeder dimension. “Bisher haben die Menschen das Monopol auf die Entscheidungsfindung, und hatte deshalb die Kontrolle über alles,” Sie sagte Gizmodo. “Mit künstlicher Intelligenz, diese können am Ende.”

Stuart Russell ist professor für informatik und Experte für künstliche Intelligenz an der University of California, Berkeley, sagte, wir sollten besorgt über das Potenzial für ASI-aus einem einfachen Grund: Intelligenz ist macht.

“Evolution und Geschichte nicht bieten gute Beispiele für eine weniger mächtige Klasse von Entitäten, die macht aufrecht zu erhalten, auf unbestimmte Zeit über eine leistungsstärkere Klasse von Entitäten,” Russell sagte Gizmodo. “Wir wissen noch nicht, wie zu kontrollieren, ASI, weil, traditionell, Kontrolle über andere Personen zu verlangen scheint, die Fähigkeit zu denken und sich-nehmen—und per definition können wir nicht denken-und aus-rechnen ASI. Wir haben, einen Ansatz zu entwerfen, KI-Systeme, irgendwie umgeht das grundlegende problem.”

Vorbereitet werden

Okay, also haben wir unsere Arbeit ausgeschnitten für uns. Aber wir sollten nicht verzweifeln, oder noch schlimmer, nichts zu tun—es gibt Dinge, die wir tun können, im hier-und-jetzt.

Nick Bostrom, der Autor der Superintelligenz: Wege, Gefahren, Strategien und Philosoph an der Oxford Future of Humanity Institute, sagte, dass keine speziellen Protokolle oder tiefgreifende Veränderungen für die Gesellschaft sind heute gefordert, aber er hat zugestimmt, das wir tun können Folgeschäden Forschung in diesem Bereich.

“Vor ein paar Jahren das argument, wir sollten nichts tun kann, haben Sinn gemacht, denn wir hatten keine wirkliche Idee davon, wie wir diese Forschung und machen bedeutende Fortschritte,” Bostrom sagte Gizmodo. “Aber Konzepte und Ideen sind nun vorhanden, und wir können es brechen in Stücke würdig, der Forschung.” Er sagte, dies könnte in form von research papers, think tanks, Seminare, und so weiter. “Die Menschen sind jetzt dabei wichtig, die Forschung in diesem Gebiet zu arbeiten”, sagt Bostrom, “Es ist etwas, das wir hammer Weg und inkrementelle Fortschritte.”

Russell vereinbart ist, zu sagen, wir sollen denken über die Möglichkeiten der Entwicklung und Gestaltung der KI-Systeme, die nachweislich sicher und nutzbringend, unabhängig davon, wie intelligent die Komponenten werden. Er glaubt, dass dies möglich ist, sofern die Komponenten definiert sind, ausgebildet ist, angeschlossen und auf die richtige Weise.

In der Tat, das sollten wir tun bereits. Vor dem Aufkommen von AGI und ASI, wir haben zu kämpfen mit der Bedrohung durch den mehr grundlegenden, engen AI—die Art, die bereits beginnen, erscheinen in unserer Infrastruktur. Durch die Lösung der Probleme, die durch die aktuelle AI, könnten wir lernen, einige wertvolle Lektionen und einige wichtige Präzedenzfälle, die könnte den Weg ebnen, um Gebäude sicherer, aber auch leistungsfähiger AI, in die Zukunft.

Nehmen Sie die Aussicht auf autonome Fahrzeuge, zum Beispiel. Einmal bereitgestellt, en masse, selbst-fahrenden Autos beobachtet werden, und bis zu einem gewissen Ausmaß gesteuert, die von einer zentralen Intelligenz. Diese überwachung “Gehirn” sendet software-Aktualisierungen für Ihren Fuhrpark, beraten die Autos auf die Verkehrssituation, und dienen als übergreifende Netzwerk – Kommunikations-hub. Aber vorstellen, wenn jemand hack in das system und senden Sie bösartige Anweisungen, um die Flotte. Es wäre eine Katastrophe auf einer epischen Skala. So ist die Gefahr von AI.

“Cybersecurity ist für KI-Systeme ist ein großes Loch”, Lannquist sagte Gizmodo. “Autonome Systeme, z.B. autonome Fahrzeuge, personal assistant robots, AI Spielzeug, Drohnen und sogar waffenfähige Systeme unterliegen der cyber-Attacken und hacking, um zu spionieren, stehlen, löschen oder verändern von Informationen oder Daten, anzuhalten oder zu unterbrechen, service, und sogar Entführung”, sagte Sie. “Mittlerweile ist es ein Mangel an Talenten im Bereich cybersecurity zwischen Regierungen und Unternehmen.”

Ein weiteres großes Risiko, nach Lannquist, ist der bias in den Daten-sets verwendet, um Zug-machine-learning-algorithmen. Die resultierenden Modelle sind nicht fit für jedermann, Sie sagte, was zu Problemen der Integration, der Gleichheit, der fairness und auch das Potenzial für physischen Schaden. Ein Autonomes Fahrzeug oder chirurgische Roboter kann nicht ausreichend trainiert, auf genug Bildern zu erkennen, Menschen anderer Hautfarbe oder Größen, zum Beispiel. Skala bis auf die Ebene von ASI, und das problem wird exponentiell schlimmer.

Kommerzielle software für die Gesichtserkennung, zum Beispiel, hat wiederholt gezeigt werden, dass es weniger genau auf Menschen mit dunkler Haut. In der Zwischenzeit, ein predictive-policing-Algorithmus namens PredPol gezeigt wurde, zu Unrecht bestimmte Stadtteile. Und in einer wahrhaft beunruhigenden Fall, der COMPAS-Algorithmus, der vorhersagt, das die Wahrscheinlichkeit des Rückfalls zu führen Verurteilung, wurde festgestellt, rassistisch voreingenommen. Das ist heute passiert—stellen Sie sich das Chaos und den Schaden, den ein ASI konnte zufügen, mit größerer Leistung, den Umfang und die soziale Reichweite.

Es wird auch wichtig sein für die Menschen zu bleiben innerhalb des Verständnis-Schleife, was bedeutet, dass wir halten müssen, um ein Verständnis der AI ‘ s der Entscheidungsfindung Begründung. Das ist schon erweist sich als schwierig, da die KI hält einzugreifen, in übermenschliche Sphären. Dies ist, was bekannt als “black-box” – problem, und es passiert, wenn die Entwickler sind an einem Verlust zu erklären, das Verhalten Ihrer Kreationen. Etwas sicher, wenn wir nicht voll verstehen, wie es funktioniert, ist eine prekäre Angelegenheit am besten. Dementsprechend werden Bemühungen erforderlich sein, um zu erstellen AIs, die in der Lage sind, zu erklären, sich in einer Weise, die wir mickrigen Menschen verstehen können.

Zum Glück, dass ist schon passiert. Letztes Jahr zum Beispiel, DARPA gab 6,5 Millionen Dollar, computer-Wissenschaftler an der Oregon State University, um dieses Problem zu beheben. Die vier-Jahres-Förderung unterstützt die Entwicklung von neuen Methoden entwickelt, damit Forscher besseren Einblick in das digitale Kauderwelsch innen schwarz-Boxen, vor allem durch immer AIs erklären den Menschen, warum Sie erreicht bestimmte Entscheidungen, oder was Ihre Ergebnisse eigentlich bedeuten.

Article preview thumbnail

Würden Sie Sich Sicherer Fühlen, Wenn Ihr Selbst Auto Fahren Könnte Erklären, Selbst?

Mit jedem Durchbruch in der künstlichen Intelligenz, verlangen wir von unseren Maschinen zu machen…

Lesen Sie mehr Lesen

Wir brauchen auch die Veränderung der Unternehmenskultur auf die Entwicklung der KI, besonders im Silicon Valley, wo die vorherrschende Einstellung ist auf “nicht bestanden hart und schnell oder Stirb langsam.” Diese Art von Mentalität wird nicht funktionieren, für starke KI, die erfordert extreme Vorsicht, Rücksicht und Weitsicht. Das schneiden von Ecken und loslassen schlecht durchdacht Systeme könnte in einer Katastrophe enden.

“Durch mehr Zusammenarbeit, wie AGI-Forscher bündeln Ihre Ressourcen zu bilden Konsortien, Industrie-led-Leitlinien und-standards oder technischen standards und Normen, hoffentlich können wir re-konstruieren dieses” race to the bottom “in-Sicherheit-standards, und stattdessen ein “race to the top’”, sagte Lannquist. “In einem ‘race to the top’ – Unternehmen die Zeit nehmen, ethisch korrekt und Sicherheitsstandards. Inzwischen ist auch die Konkurrenz ist vorteilhaft, weil es können schnellere Fortschritte bei der Erreichung sinnvolle Innovationen, wie AI für die UN-Ziele für eine Nachhaltige Entwicklung.”

Zur gleichen Zeit, Unternehmen sollten erwägen, den Austausch von Informationen, insbesondere, wenn ein Forschungslabor hat stolperte über eine besonders Fiese Schwachstelle, wie ein Algorithmus, schleichen Vergangenheit Verschlüsselungsverfahren, verteilt auf Domänen außerhalb einer vorgesehenen Bereich, oder leicht offensiver.

Ändern der Unternehmenskultur wird nicht einfach sein, aber es muss ganz oben beginnen. Um dies zu erleichtern, sollten die Unternehmen erstellen eine neue leitende position, Chief Safety Officer (CSO), oder etwas ähnliches, um zu überwachen, die Entwicklung von dem, was sein könnte, katastrophal gefährlich, AI, unter anderen gefährlichen Technologien.

Regierungen und andere öffentliche Institutionen haben eine Rolle zu spielen. Russell sagte, wir brauchen gut informierte Gruppen, Gremien, Behörden und anderen Institutionen, in den Regierungen, die den Zugang zu top-level-KI-Forscher. Wir müssen auch die Entwicklung von standards für safe-AI-system-design, fügte er hinzu.

“Regierungen können Anreize für die KI-Forschung die Sicherheit, die durch Stipendien, Preise und große Herausforderungen”, fügte Lannquist. “Den privaten Sektor oder in der Wissenschaft beitragen kann oder kooperieren in der Forschung mit AI Organisationen mit Sicherheitsaufgaben. KI-Forscher organisieren kann, ethisch korrekt und sicher AI-Entwicklung von Verfahren und Forschung können Organisationen Prozesse einrichten für whistle-blowing.”

Handeln ist auch erforderlich, auf internationaler Ebene. Die existenziellen Gefahren, die von AI sind potentiell stärker als der Klimawandel, aber wir haben immer noch kein äquivalent zu den International Panel for Climate Change (IPCC). Wie wäre es mit einem Internationalen Panel für Künstliche Intelligenz? Neben der Etablierung und Durchsetzung von Normen und Vorschriften, diese Platte könnte dienen als “safe space” für die KI-Entwickler, die glauben, dass Sie an etwas arbeiten, was besonders gefährlich. Eine gute Faustregel wäre zu stoppen, Entwicklung, und suchen Sie Rat mit diesem panel. Auf einer ähnlichen Anmerkung, und wie manche früheren Entwicklungen in der Biotechnologie haben gezeigt, einige Forschungsergebnisse zu gefährlichen teilen mit der öffentlichkeit (z.B. “gain-of-function” – Studien, in denen Viren sind absichtlich mutiert ist, Menschen zu infizieren). Eine internationale AI-Gremium konnte entscheiden, welche technologischen Durchbrüche sollten geheim bleiben, aus Gründen der internationalen Sicherheit. Umgekehrt, als pro das Grundprinzip des gain-of-function-Studien, die den offenen Austausch von wissen führen könnte, die Entwicklung von proaktiven Sicherheitsmaßnahmen. Angesichts der existentiellen Natur der ASI, aber es ist schwer vorstellbar, dass die Zutaten für unsere doom, herumgereicht zu werden für alle zu sehen. Das wird ein heikles Gebiet zu navigieren.

Auf einer allgemeineren Ebene, wir müssen mehr Leute an dem problem arbeiten, einschließlich Mathematiker, Logiker, Ethiker, ökonomen, Sozialwissenschaftler und Philosophen.

Eine Reihe von Gruppen haben bereits die Adresse des ASI-problem, einschließlich Oxford Future of Humanity Institute, MIRI, UC Berkeley Center for Human-Kompatible AI, OpenAI, und Google-Gehirn. Andere Initiativen sind der Asilomar-Konferenz, die bereits etablierten Richtlinien für die sichere Entwicklung von AI, und der Offene Brief an AI, unterzeichnet von vielen prominenten Denker, darunter auch der Physiker Stephen Hawking, Tesla-und SpaceX-Gründer Elon Musk und andere.

Russell sagte, die Allgemeine öffentlichkeit können sich ebenso beteiligen—aber Sie müssen sich selbst zu erziehen über die Themen.

“Erfahren Sie mehr über einige der neuen Ideen und Lesen Sie einige technische Papiere, die nicht nur Medien Artikel über Moschus—Zuckerberg smackdowns”, sagte er. “Überlegen Sie, wie diese Ideen für Ihre Arbeit. Zum Beispiel, wenn Sie die Arbeit auf die visuelle Klassifikation, was Ziel ist, den Algorithmus zu optimieren? Was ist der Verlust-matrix? Sind Sie sicher, dass misclassifying eine Katze als einen Hund hat die gleichen Kosten wie misclassifying ein Mensch als ein gorilla? Wenn nicht, überlegen Sie, wie zu tun Einstufung lernen mit einer unsicher-Verlust-matrix”.

Letztlich, Russell sagte, es ist wichtig zu vermeiden, dass ein tribalist Denkweise.

“Kann mir nicht vorstellen, dass eine Diskussion von Risiko ‘anti-AI.’ Das ist es nicht. Es ist eine Ergänzung zu AI. Es besagt, ‘AI hat das potential, um Einfluss auf die Welt,’” sagte er. “Genauso, wie die Biologie aufgewachsen und Physik ist erwachsen geworden und akzeptiert, einen Teil der Verantwortung für Ihre Auswirkungen auf die Welt, es ist Zeit für die KI zu wachsen—es sei denn, Sie glauben wirklich, dass die KI nie irgendwelche Auswirkungen und wird nie funktionieren.”

Die ASI-problem wird balanciert, um die gewaltige Herausforderung, die unsere Spezies je erlebt hat, und wir sehr gut scheitern kann. Aber wir müssen es versuchen.

Teilen Sie Diese Geschichte


Date:

by