Stephen Hawking è di nuovo, dicendo che è una “quasi certezza” che un auto-inflitta disastro colpirà l’umanità entro i prossimi mille anni o giù di lì. Non è la prima volta che il più famoso del mondo fisico ha lanciato l’allarme sull’apocalisse, e lui sta cominciando a diventare un vero e proprio handicap. Qui ci sono alcune altre volte Hawking ha detto che la fine è vicina—e perché ha bisogno di iniziare a cambiare il suo messaggio.
Parlando alla Radio di Volte di recente, prima della sua BBC Reith Lezione, Hawking ha detto che gli sviluppi nella scienza e nella tecnologia, sono pronti a creare nuovi modi le cose possono andare male.” Lo scienziato ha sottolineato la guerra nucleare, il riscaldamento globale, e geneticamente ingegneria virus come alcuni dei più gravi colpevoli.
“Anche se la possibilità di una catastrofe sul pianeta Terra in un dato anno possono essere molto basse, si aggiunge nel corso del tempo, diventando una quasi certezza nei mille o diecimila anni”, egli è stato citato come dicendo. “Che dovrebbero diffondersi nello spazio, e di altre stelle e, quindi, non significa la fine della razza umana. Tuttavia, non possiamo stabilire colonie autosufficienti nello spazio per almeno i prossimi cento anni, quindi dobbiamo essere molto attenti in questo periodo.”
Hawking sta cominciando a suonare come un disco rotto. Certo, lui sostiene di essere un ottimista sull’umanità dell’ingegno a venire con modi per controllare i pericoli. Ma egli non ha alcun problema a venire con tutte queste sinistramente specifico, le cose orribili che potrebbe accadere in futuro. Lui non è sbagliato per evidenziare questi rischi, ma in termini di ciò che siamo in realtà dovrebbe fare, le sue risposte sono eccessivamente semplicistico e opaco, in netto contrasto con le sue previsioni di sventura.
Hawking gli avvertimenti di andare indietro di almeno un decennio. Nel 2006, ha inviato una domanda on-line chiedendo,
Sponsorizzato
In un mondo che è nel caos politico, sociale e ambientale, come la razza umana sostenere altri 100 anni?
Il commento hanno toccato un nervo, spingendo a più di 25.000 persone a suonare con le loro opinioni personali. Un certo numero di persone hanno espresso la loro delusione con Hawking per non aver risposto alla sua domanda. Come un partecipante ha scritto: “è umiliante sapere che questa domanda è stato chiesto da uno dei più intelligenti esseri umani sul pianeta … senza sapere già una risposta chiara.” Per chiarire, Hawking, scrisse: “io non so la risposta. Che è la ragione della mia domanda.”
L’anno seguente, Hawking ha avvertito il pubblico in una conferenza stampa a Hong Kong, che “la vita sulla Terra è al crescente rischio di essere spazzata via da una catastrofe, come improvviso guerra mondiale nucleare, un geneticamente virus o altri pericoli non abbiamo ancora pensato.”
Alcuni di Hawking più grandi preoccupazioni hanno a che fare con l’AI, che dice potrebbe essere “il nostro errore più grave nella storia”. Nel 2014, Hawking, insieme con i fisici di Max Tegmark e Frank Wilczek, descritti i potenziali benefici di IA come essere enorme, ma ha detto che non possiamo prevedere cosa accadrà una volta che questo potere viene ingrandita. Come gli scienziati ha scritto:
Si può immaginare come la tecnologia di essere più furbo di mercati finanziari, di inventare umani, i ricercatori, la manipolazione umana leader, e lo sviluppo di armi non riusciamo nemmeno a capire. Considerando che l’impatto di breve termine AI dipende da chi la controlla, l’impatto a lungo termine dipende dal fatto che può essere controllato.
L’anno scorso, Hawking ha spinto per responsabile AI controlli, e ha firmato una lettera aperta, chiedendo il divieto di “offensivo autonoma armi significativo al di là del controllo umano.”
Ma non tutti i pericoli citati da Hawking sono coltivate in casa. Oltre agli asteroidi giganti e comete, Hawking ha detto che abbiamo anche bisogno di preoccuparsi di un’invasione aliena. Come ha detto a Londra il Sunday Times nel 2010:
Noi dobbiamo solo guardare a noi stessi per vedere come la vita intelligente potrebbe svilupparsi in qualcosa che non si desidera incontrare. Immagino che possa esistere in massicce navi, avendo utilizzato tutte le risorse dal loro pianeta di origine. Così avanzate alieni sarebbe diventato forse nomadi, cercando di conquistare e colonizzare qualunque pianeti possono raggiungere….. Se gli alieni mai a trovarci, penso che il risultato sarebbe molto, come quando Cristoforo Colombo sbarcò in America, che non sono andate molto bene per i Nativi Americani.
È evidente da questa e altre citazioni che Hawking ha particolarmente truce visione dell’umanità. Nel libro di Stephen Hawking: la Sua Vita e di Lavoro, ha sostenuto che i virus dovrebbe essere considerata una nuova forma di vita: “Forse dice qualcosa sulla natura umana, che l’unica forma di vita che abbiamo creato finora è puramente distruttivo. Parlare di creazione di vita nella nostra immagine”.
E come Hawking piace stress, abbiamo bisogno di fuggire dalla nave che affonda. Per garantire le nostre prospettive a lungo termine, ha sostenuto di volta in volta che abbiamo bisogno di ottenere fuori di questo pianeta e iniziare a colonizzare altri mondi, dicendo: “non abbiamo futuro se non andiamo nello spazio.”
Per essere onesti, Hawking è il più famoso scienziato, quindi tutto ciò che dice è vincolato per avere più l’attenzione dei media e di controllo. E le sue idee non sono state emergenti da un vuoto (o un buco nero, per quella materia). Negli ultimi 15 anni, un numero crescente di scienziati Europei, molti di essi sono basati nel regno UNITO—sono preoccupata per i cosiddetti “esistenziale rischi.” Mentre una volta le elucubrazioni di allarmistici Littles Pollo, il soggetto è ormai insinuato nel mondo accademico e delle istituzioni formali.
Oxford filosofo Nick Bostrom a calci nel 2002 con il suo influente libro, “Esistenziale Rischi: Analisi Estinzione Umana Scenari”. Bostrom ha sostenuto che accelerare il progresso tecnologico è cambiata la nostra specie in un pericoloso e potenzialmente insormontabili nuova fase, con le minacce emergenti che “potrebbe causare l’estinzione della nostra o distruggere il potenziale di Terra originari vita.” Poiché la carta di pubblicazione, il termine “esistenziale rischi” ha costantemente venire in uso generale.
Sir Martin Rees dare un TED talk: si Può evitare la fine del mondo?
Nel 2003, stimato fisico Sir Martin Rees ha pubblicato un libro sull’argomento: la Nostra ultima Ora: Uno scienziato attenzione: Come il terrore, di errore e di disastro ambientale minacciano il futuro dell’umanità in questo secolo-sulla terra e oltre. Un altro autorevole libro è arrivato nel 2008, Globale, Rischi Catastrofici, che è stato curato da Bostrom e Milano M. Cirkovic.
In gran Bretagna, il potenziale esistenziale rischi è in fase di studio da parte di filosofi, scienziati, e futuristi a Oxford Future of Humanity Institute e dell’Università di Cambridge, di nuovo conio Centro per lo Studio del Rischio Esistenziale. Il soggetto non ha davvero guadagnato molto in trazione altrove, se è un problema di Istituto per l’Etica e Tecnologie Emergenti.
Così Hawking è chiaramente di non essere solo. Ma gli capita di occupare una posizione unica, da dove si può annunciare il suo avvertimento sul futuro e potenzialmente influenzare la nostra risposta. Il problema è in possesso di tali rispettata figura continuamente erogatore questi grim proclami, senza offrire anche soluzioni praticabili. Così facendo, ha perpetuare un atteggiamento disfattista, e anche un certo grado di misantropia.
Chiaramente, è importante per ottenere la parola fuori prima che sia troppo tardi, ma non basta essere il portatore di cattive notizie. Andando avanti, speriamo, può utilizzare questa grande cervello di suo a venire con qualcosa di più produttivo.
[Telegraph | BBC]
Immagine in alto: Illustrazione di Jim Cooke, foto di AP; immagine centrale: Lwp Kommunikáció
E-mail all’autore george@gizmodo.com e a seguirlo @dvorsky.