Stephen Hawking ist es wieder, sagen, es ist eine “Nähe Gewissheit”, dass eine selbstverschuldete Katastrophe widerfahren wird die Menschheit innerhalb der nächsten tausend Jahre oder so. Es ist nicht das erste mal, das weltweit berühmteste Physiker hat alarm schlug, auf die Apokalypse, und er fängt an, ein echter Wermutstropfen. Hier sind einige weitere Male Hawking hat gesagt, das Ende ist nah—und warum er braucht, zu verändern beginnen, seine Botschaft.
Das Radio Mal vor kurzem vor seiner BBC-Reith Vorlesung, Hawking sagte, dass die Laufenden Entwicklungen in Wissenschaft und Technologie sind bereit “zu schaffen, neue Wege, Dinge, die schief gehen können.” Der Wissenschaftler wies der nuklearen Krieg, Globale Erwärmung, und genetisch-engineering Viren, wie einige der schlimmsten übeltäter.
“Obwohl die chance auf eine Katastrophe auf dem Planeten Erde in einem Jahr kann ziemlich niedrig sein, es summiert sich im Laufe der Zeit zu einem in der Nähe von Sicherheit in den nächsten tausend oder zehntausend Jahre”, wurde er zitiert. “Von dieser Zeit sollten wir verteilt haben in den Weltraum, und zu anderen Sternen, so würde es nicht bedeuten das Ende der menschlichen Rasse. Allerdings werden wir nicht schaffen sich selbst tragenden Kolonien in Platz für mindestens die nächsten hundert Jahre, so müssen wir sehr vorsichtig sein, in dieser Zeit.”
Hawking beginnt zu klingen wie eine kaputte Schallplatte. Sicher, er behauptet, ein optimist über die Menschheit Einfallsreichtum in den kommenden up mit Möglichkeiten zur Kontrolle Gefahren. Aber er hat kein problem, kommt mit all diesen seltsamerweise bestimmten, schrecklichen Dinge, die passieren könnte, um uns in die Zukunft. Er ist nicht falsch, um diese zu markieren Risiken—aber in Bezug auf das, was wir eigentlich tun, seine Antworten sind frustrierend simpel und undurchsichtig, in scharfem Kontrast zu seiner Vorhersagen von doom.
Hawkings Warnungen zurück mindestens ein Jahrzehnt. Im Jahr 2006 veröffentlichte er eine Frage, die online-Fragen,
Gesponsert
In einer Welt, die im chaos, politisch, sozial und ökologisch, wie kann die menschliche Rasse sustain weitere 100 Jahre?
Der Kommentar berührt einen Nerv, woraufhin mehr als 25.000 Menschen zu läuten mit Ihren persönlichen Meinungen. Eine Reihe von Menschen äußerten Ihre Enttäuschung mit Hawking für die Nichtbeantwortung seine eigene Frage. Als ein Teilnehmer schrieb: “Es ist sehr schön zu wissen, dass diese Frage wurde von einer der intelligentesten Menschen auf dem Planeten … ohne schon zu wissen, eine klare Antwort.” Um zu klären, Hawking schrieb später, “ich kenne die Antwort nicht. Das ist der Grund, warum ich die Frage gestellt habe.”
Im folgenden Jahr, Hawking, warnte das Publikum auf einer Pressekonferenz in Hong Kong, dass “das Leben auf der Erde ist an der zunehmenden Gefahr, ausgelöscht wird durch eine Katastrophe, wie plötzliche Globale Atomkrieg, ein genetisch verändertes virus oder andere Gefahren, die wir noch nicht gedacht haben.”
Einige von Hawking größten Anliegen zu tun haben, mit AI, die er sagt, “unsere schlimmsten Fehler in der Geschichte.” Im Jahr 2014, Hawking, zusammen mit dem Physiker Max Tegmark und Frank Wilczek, beschrieben die potenziellen Vorteile von AI als riesig, aber sagte, wir können nicht Vorhersagen, was passieren wird, sobald diese Leistung wird vergrößert. Wie die Wissenschaftler schrieb:
Man kann sich vorstellen, eine solche Technik zu überlisten Finanzmärkte, sich zu erfinden, Forschern, aus-Manipulation menschlicher Führer, und die Entwicklung von Waffen, die wir nicht einmal verstehen. In der Erwägung, dass die kurzfristigen Auswirkungen von AI hängt davon ab, wer kontrolliert es, die langfristige Wirkung hängt davon ab, ob es sein kann gesteuert.
Im letzten Jahr Hawking geschoben verantwortlich AI Aufsicht, und er in einem offenen Brief fordern ein Verbot der “offensive autonomen Waffen über sinnvolle menschliche Kontrolle.”
Aber nicht alle Gefahren zitiert von Hawking zu Hause sind gewachsen. Neben riesigen Asteroiden und Kometen, Hawking hat gesagt, wir müssen uns auch Gedanken über eine alien-invasion. Als er erzählte, die Londoner Sunday Times im Jahr 2010:
Wir haben nur auf uns selbst zu schauen, um zu sehen, wie sich intelligentes Leben entwickeln könnte, in etwas, was wir nicht begegnen wollen. Ich kann mir vorstellen Sie vielleicht gibt es in riesigen Schiffe, da die Ressourcen auf Ihrem Heimatplaneten. Solch fortschrittliche aliens würde vielleicht werden die Nomaden auf der Suche zu erobern und zu besiedeln, was auch immer Planeten, die Sie erreichen können….. Wenn es Außerirdische jemals besuchen Sie uns, ich denke, das Ergebnis wäre viel wie bei Christopher Columbus zuerst landete in Amerika, die sich nicht sehr gut für die Native Americans.
Es ist offensichtlich, von diesem und anderen Zitaten, die Hawking hat eine besonders düstere Sicht der Menschheit. In dem Buch von Stephen Hawking: sein Leben und Seine Arbeit, er argumentierte, dass computer-Viren sollte als eine neue form des Lebens: “Vielleicht ist es sagt etwas über die menschliche Natur, dass die einzige form des Lebens, die wir bisher erstellt haben, ist rein destruktiv. Sprechen Sie über das Leben in unserem eigenen Bild.”
Und wie Hawking gerne stress, wir müssen fliehen, das sinkende Schiff. Garantieren unsere langfristige Perspektiven, argumentierte er immer und immer wieder, wir müssen Weg von diesem Planeten, und starten Sie die Kolonisierung von anderen Welten, sagt: “wir haben keine Zukunft, wenn wir nicht in den Raum gehen.”
Um fair zu sein, Hawking ist der weltweit berühmtesten Wissenschaftler, also alles, was er sagt, ist gebunden, um zusätzliche Aufmerksamkeit in den Medien und Kontrolle. Und seine Ideen noch nicht hervorgegangen aus einem Vakuum (oder ein Schwarzes Loch, für diese Angelegenheit). In den letzten 15 Jahren eine wachsende Zahl von europäischen Wissenschaftlern—viele von Ihnen mit Sitz in Großbritannien haben sich besorgt über die sogenannten “existenzielle Risiken.” Während einmal den Gedanken alarmierenden Huhn Littles, das Thema hat nun schlich sich in Wissenschaft und formalen Institutionen.
Der Oxforder Philosoph Nick Bostrom traten Sie alle Weg, im Jahr 2002 mit seiner sehr einflussreiche Papier, “Existenzielle Risiken: die Analyse von Human Extinction-Szenarien.” Bostrom argumentiert, dass die Beschleunigung des technologischen Fortschritts ist die Umstellung unserer Spezies in eine gefährliche und potenziell verheerenden neue phase, mit Bedrohungen, “könnte dazu führen, dass unsere Aussterben oder zerstören das Potenzial der Erde-Ursprung Leben.” Da das Papier Veröffentlichung der Begriff “existenzielle Risiken” stetig kommen in den Allgemeinen Gebrauch.
Sir Martin Rees geben einen TED-talk: Können wir verhindern, dass das Ende der Welt?
Im Jahr 2003, der ANGESEHENE Physiker Sir Martin Rees veröffentlicht ein Buch über das Thema: Unsere Letzte Stunde: Wissenschaftler warnen: Wie terror -, Fehler-und Umwelt-Katastrophen bedrohen die Menschheit, die Zukunft in diesem Jahrhundert-auf der Erde und darüber hinaus. Ein weiteres einflussreiches Buch kam im Jahr 2008, Globalen Katastrophe Risiken, die bearbeitet von Bostrom und Mailand M. Cirkovic.
In Großbritannien, das Potenzial für existenzielle Risiken untersucht wird Philosophen, Wissenschaftler und Futuristen in Oxford die Zukunft der Menschheit-Institut und an der Universität von Cambridge neu geschaffenen Zentrum für die Erforschung der Existenzielle Gefahr. Das Thema hat sich eigentlich nicht viel gewonnen Traktion anderswo, aber es ist ein Anliegen des US-Instituts für Ethik und neuen Technologien.
So Hawking ist nicht alleine klar. Aber er geschieht, zu besetzen, in einer einzigartigen position, von wo aus er kann verkünden seine Warnungen über die Zukunft und möglicherweise Einfluss auf unsere Antwort. Das problem ist, dass wir so eine hoch ANGESEHENE Persönlichkeit ständig Auslauf diese grim Proklamationen, ohne auch bietet praktikable Lösungen. Dadurch, dass er zu verewigen, eine defätistische Haltung, und auch eine gewisse Menschenhass.
Klar, es ist wichtig, sich zu Wort zu melden, bevor es zu spät ist, aber es ist nicht genug, nur werden die überbringer schlechter Nachrichten. Vorwärts, wir hoffen, er kann das Gehirn seine zu kommen mit etwas mehr produktiv.
[Telegraph | BBC]
Bild oben: Darstellung von Jim Cooke, Foto: AP; mittleres Bild: Lwp Kommunikáció
Den Autor E-Mail an george@gizmodo.com und ihm Folgen @dvorsky.