Stephen Hawking er på det igjen, sa det er en “nær sikkerhet” som en selv-påført katastrofe vil ramme menneskeheten i løpet av de neste tusen årene eller så. Det er ikke første gang verdens mest berømte fysikeren har reist alarm på apokalypsen, og han begynner å bli en real nedtur. Her er noen av de andre gangene Hawking har sagt enden er nær—og hvorfor han trenger for å begynne å endre sin melding.
Snakker til Radio Times nylig i forkant av hans BBC Reith Foredrag, Hawking sier at pågående utviklingen innen vitenskap og teknologi er i posisjon til å lage “nye måter ting kan gå galt.” Forskeren peker til kjernefysisk krig, global oppvarming, og genetisk-engineering virus som noen av de mest alvorlige gjerningsmannen.
“Selv om sjansen for en katastrofe på planeten Jorden i et gitt år kan være ganske lav, og det legger opp over tid, og ble en nær sikkerhet i de neste tusen eller ti tusen år,” han var sitert. “Av den tiden vi skulle ha spredt seg ut i rommet, og til andre stjerner, slik at det ikke ville bety slutten på menneskeheten. Vi vil imidlertid ikke å etablere selvdrevet kolonier på plass for minst de neste hundre år, så vi må være veldig forsiktig i denne perioden.”
Hawking er i ferd med å høres ut som en knust rekord. Sikker, han hevder å være en optimist om menneskets oppfinnsomhet i å komme opp med måter å kontrollere farer. Men han har ingen problem å komme opp med alle disse illevarslende bestemt, forferdelige ting som kan skje med oss i fremtiden. Han er ikke feil å fremheve disse risiko—men i forhold til hva vi faktisk skal gjøre om, og hans svar er frustrerende forenklede og ugjennomsiktig, i skarp kontrast til hans dommedagsprofetiene.
Hawking er advarsler gå tilbake i minst et tiår. I 2006, har han lagt ut et spørsmål på nettet å spørre,
Sponset
I en verden som er i kaos politisk, sosialt og miljømessig, hvordan kan den menneskelige rase opprettholde de neste 100 år?
Kommentar rørt en nerve, spørre mer enn 25.000 mennesker til ringeklokken i med sine personlige meninger. En rekke personer uttrykt sin skuffelse med Hawking for å unnlate å besvare sitt eget spørsmål. Som en respondent skrev, “Det er ydmykende å vite at dette spørsmålet ble stilt av en av de mest intelligente menneskene på planeten … uten allerede å kjenne et klart svar.” For å avklare, Hawking skrev senere at “jeg vet ikke svaret. Det er grunnen til at jeg stilte spørsmålet.”
Det følgende året, Hawking advarte publikum på en pressekonferanse i Hong Kong at “livet på Jorda er i stadig fare for å bli utslettet av en katastrofe, som plutselig global kjernefysisk krig, en genmodifisert virus eller andre farer som vi ennå ikke har tenkt på.”
Noen av Hawking største bekymringer har å gjøre med AI, som han sier kan være “våre verste feil i historien.” I 2014, Harking, sammen med fysikere Maks Tegmark og Frank Wilczek, beskrevet de potensielle fordelene av AI som er store, men sa at vi ikke kan forutsi hva som vil skje når denne kraften er forstørret. Som forskere skrev:
En kan tenke seg at slik teknologi overliste finansielle markeder, ut-inventing menneskelige forskere, ut-manipulere menneskelige ledere, og å utvikle våpen vi ikke engang forstår. Mens den kortsiktige virkningen av AI avhenger av hvem som styrer den, den langsiktige virkningen avhenger av om det kan bli kontrollert i det hele tatt.
Siste år, Hawking presset på for ansvarlig AI tilsyn, og han skrev et åpent brev kaller for et forbud mot “støtende autonome våpen utover meningsfylt menneskelig kontroll.”
Men ikke alle farene sitert av Hawking er hjemmelaget. I tillegg til asteroider og gigantiske kometer, Hawking har sagt at vi også trenger å bekymre deg om en invasjon. Som han fortalte London Sunday Times tilbake i 2010:
Vi trenger bare å se på oss selv for å se hvor intelligent liv kan utvikle seg til noe vi ikke ønsker å møte. Jeg kan tenke meg at de kan finnes i enorme skip, etter å ha brukt opp alle ressurser fra deres hjemplanet. Slike avanserte romvesener ville kanskje bli nomader, som ønsker å erobre og kolonisere hva planeter kan de nå….. Hvis aliens noensinne besøker oss, tror jeg resultatet ville være mye som da Christopher Columbus første landet i Amerika, som ikke slår ut veldig bra for de Innfødte Amerikanere.
Det er tydelig fra dette og andre sitater som Hawking har et spesielt dystre syn på menneskeheten. I boken Stephen Hawking: Hans Liv og Arbeid, hevdet han at datavirus bør betraktes som en ny form for liv: “Kanskje det sier noe om den menneskelige natur, at den eneste formen for liv vi har laget så langt er rent destruktive. Snakke om å skape liv i vårt eget bilde.”
Og som Hawking liker å stress, vi trenger å flykte fra det synkende skipet. For å garantere våre langsiktige utsiktene, han har hevdet gang på gang at vi trenger å komme ut av denne planeten og start koloniserende andre verdener, sa: “vi har ingen fremtid hvis vi ikke gå ut i verdensrommet.”
For å være rettferdig, Hawking er verdens mest berømte vitenskapsmann, slik at alt han sier er nødt til å få ekstra oppmerksomhet fra media og gransking. Og hans ideer har ikke blitt dukker opp fra et vakuum (eller et svart hull, for den saks skyld). I løpet av de siste 15 årene, har et økende antall Europeiske forskere—mange av dem er basert i STORBRITANNIA har blitt opptatt av såkalte “eksistensiell risiko.” Mens når drøvtygging av alarmist Kylling Littles, emnet har nå sneket seg inn i akademia og formelle institusjoner.
Oxford filosof Nick Bostrom sparket det hele i 2002 med sin svært betydningsfull for papir, “Eksistensiell Risiko: å Analysere Human Extinction Scenarier.” Bostrom hevdet at akselererende teknologisk utvikling, er skiftende våre arter inn i en farlig og potensielt uoverstigelige—ny fase, med nye trusler som “kan føre til våre utryddelse eller ødelegge potensialet i Jord-stammer liv.” Siden papir publikasjon, begrepet “eksistensiell risiko” har stadig kommet i alminnelig bruk.
Sir Martin Rees å gi en TED talk: Kan vi hindre slutten av verden?
I 2003, anerkjente fysikeren Sir Martin Rees publisert en bok om temaet: Vår Siste Time: En forsker advarsel: Hvordan terror, feil og miljømessig katastrofe truer menneskehetens fremtid i dette århundre-på jorden og utover. En annen innflytelsesrik bok som kom i 2008, Global avverge faren, som ble redigert av Bostrom og Milan M. Cirkovic.
I Storbritannia, potensialet for eksistensiell risiko blir studert av filosofer, vitenskapsmenn, og futurists ved Oxford ‘ s Future of Humanity Institute, og ved University of Cambridge ferske Senter for Studier av Eksistensiell Risiko. Emnet har ikke egentlig fått mye trekkraft andre steder, selv om det er en bekymring for OSS-basert Institutt for Etikk og Framvoksende Teknologier.
Så Hawking er helt klart ikke alene. Men han tilfeldigvis til å innta en unik posisjon hvor han kan forkynne hans advarsler om fremtiden, og som potensielt kan påvirke vår respons. Problemet ligger i å ha slik en høyt respektert skikkelse kontinuerlig tut disse dystre proklamasjoner uten tilbyr også levedyktige løsninger. Ved å gjøre det, han er videreføre en defeatist holdning, og til og med en viss grad av misanthropy.
Det er klart det er viktig å få ord ut før det er for sent, men det er ikke nok å bare være bærer av dårlige nyheter. Vi går videre, la oss håpe han kan bruke den store hjernen hans til å komme opp med noe mer produktivt.
[Telegraph | BBC]
Øverste bilde: Illustrasjon: Jim Cooke, foto av AP, midterste bildet: Lwp Kommunikáció
E-post forfatteren på george@gizmodo.com og følg ham @dvorsky.