威脅人類生存的五大事件(組圖)
可能會毀滅整個人類的重大危機……
威脅人類生存的五大事件胡德良 譯
當今,在人類每天所面臨的各種「危機」中,我們忘記了希望世世代代要繁衍生息下去。這裡的「世世代代」不是指200年之後繼續生存的人們,而是指1,000年或10,000年之後仍將繼續生存的人們。在這裡使用「希望」這個詞,是因為我們面臨著風險,被稱為「生存威脅」的風險——有可能毀滅整個人類的風險。這些風險不僅僅是指大型災難,也指那些可能終結歷史的災難。
然而,不是每個人都忽略了久遠的未來。像諾斯特拉德馬斯那樣的神秘主義者一直都在試圖計算出世界的末日何時到來。在著名的《時間機器》一書中,H·G·威爾斯企圖開闢一種預測科學,其中描繪了人類在久遠的未來會是什麼命運。其他作家描述了別樣的遙遠未來,有的是對人類的警告、有的是為人類提供娛樂、還有的只是一種推測。
但是,如果沒有這些先驅們或未來學家們對人類未來的思考,就不會改變人類的結局。在他們那個時代,沒有多少可以採取的措施,無法拯救我們脫離生存危機,甚至還會引起危機。
當今,我們處於得天獨厚的地位,人類的活動正在塑造著地球的未來。儘管我們還遠遠無法控制自然災害,但我們正在開發的技術會有助於減輕自然災害,或者說至少可以對其採取應對策略。
並不完美的未來
然而,我們對這些風險的研究仍然不充分,對於這類風險總是有一種無能為力和聽天由命的感覺。幾千年來,人們一直在談論世界末日,但是很少有人努力去避免世界末日的發生。此外,人類並不擅長應對那些到目前為止沒有發生過的事情,部分原因是人類習慣於可得性啟發法——對於所了解的事件,人們往往會過高估計類似事件的發生概率,而對於那些不易記起的事件,人們往往會過低估計其發生的概率。
如果人類滅絕的話,最起碼的損失相當於失去了所有活著的人,他們的目標也無法實現了。然而,這個損失可能遠遠不至於此。人類滅絕意味著過去的祖祖輩輩所創造的價值不復存在,未來所有的世世代代將要誕生的生命(其數量可能是個天文數字)以及這些生命可能創造的所有價值都會損失掉。如果失去了意識和智慧,那就意味著價值本身就會在宇宙中變得蕩然無存。因此,我們在道義上擁有充分的理由去努力避免生存威脅的產生,在追求這一目標的過程中,甚至連一次失敗都不允許。
考慮到這一點,我選擇了我認為對人類生存威脅最大的五種事件。但是,只要有警告就要謹記在心,因為該列單上的事件不是最終的定論。
在過去的那個世紀中,我們發現或創造了新的生存風險:超級火山是在20世紀70年代初期發現的;在曼哈頓計劃之前,核戰爭是不可能發生的。因此,應該料到會有其他的風險出現。此外,隨著我們對情況了解得越來越多,一些當今看起來很大的風險有可能會消失。有時,由於我們關注了這些風險,確定了這些風險是什麼,風險發生的概率也會隨著時間的推移而發生變化。
最終還要說明一點:如果某個事件有可能發生,而且具有潛在的危害性,這並不意味著該事件就值得我們去擔憂。對於有些風險,我們是完全無計可施的,如:星系中爆炸事件所產生的伽馬射線暴。但是,如果我們了解到是可以採取措施的,那麼我們優先考慮的事情就會改變。例如:有了衛生設備、疫苗和抗生素,我們就知道瘟疫流行並不是上天的旨意,而是公共衛生差造成的。
1. 核戰爭
儘管到目前為止在戰爭中運用核武器的情況只有兩次(二戰期間投放到廣島和長崎的原子彈),而且核武器的儲備比冷戰時的高峰期有所下降,但是如果認為核戰爭是不可能發生的,那是錯誤的。事實上,核戰爭並非不可能發生。
古巴導彈危機差一點變成核戰爭。假如這樣的事件每69年發生一次,每三起這樣的事件中有一起會一直惡化下去變成核戰爭,那麼發生這種災難的幾率就會上升到大約每二百年一次。
更糟糕的是,古巴導彈危機只是一個最著名的事例,美蘇之間核威懾的歷史充滿了千鈞一髮的危機時刻和危險的錯誤舉措。由於國際緊張局勢的變化,核戰爭的實際概率已經發生了變化。但是,如果說核戰爭的概率遠遠不到每千年一次,那似乎是令人難以置信的。
大國之間全面的核戰爭將會直接地或通過隨後的餘波把數以億計的人置於死地——那是一場難以想像的災難。但是,這仍不足以使其成為一種生存威脅。
同樣,放射塵的危害也常常被誇大,它在局部擁有潛在的致命性,但是從全球來講所造成的危害相對有限。有人曾經提出,鈷彈這種武器可以導致假設中的世界末日,其放射塵可以殺死任何人。然而實際上,這種武器製造起來是很困難、很昂貴的,從物理上來講幾乎不可能做到。
真正的威脅是核冬天的到來:也就是,煙灰進入平流層,造成世界上多年的低溫期和乾燥期。現代的氣候模擬顯示,核冬天會使全世界絕大部分地區在多年的時間裡無法進行農耕。如果這種情況發生的話,數十億的人將會餓死,只剩下七零八落倖存者,他們還可能會遭受其他威脅,如疾病。主要不能確定的是煙灰會表現出怎樣的性質,煙灰的種類不同,結果可能也會大不相同,目前我們沒有什麼好辦法對此作出估計。
2. 生物工程流行病
自然流行病比戰爭具有更大的殺傷力。然而,自然流行病不大可能成為生存威脅:總會有些人對病原體有抗性,倖存者的後代們將會擁有更強的抗性。從進化的角度來講,也不支持寄生物種將它們的寄主全部消滅,這一點可以解釋為什麼隨著梅毒在歐洲的傳播,它從一種致命的殺手卻轉化為一種慢性病。
遺憾的是,我們現在可以使疾病變得更加嚴重。比較著名的例子之一就是,往鼠痘(老鼠的天花病毒)中加入一種額外的基因,鼠痘的致命性就增強了許多,可以感染接種過疫苗的個體。最近對禽流感的研究表明,一種疾病的傳染性可以人為地得到加強。
目前,有人故意釋放毀滅性東西的風險不大。但是,隨著生物技術越來越高、費用也越來越低,更多的團體將能夠使疾病惡化。
對生物武器的研究大都是由政府進行的,政府所尋求的是可控制的殺傷力,因為消滅全人類在軍事上是沒有任何意義的。但是,總有一些人想做某些事情,僅僅是因為他們有能力可以做到。一些其他人擁有更高的目標:例如,日本奧姆真理教的狂熱分子企圖加速世界末日的到來,他們除了使用更加有威力的神經毒氣進行攻擊之外,還使用生物武器。還有些人認為:如果沒有人類的話,地球上的情況將會更加美好,等等。
由於生物武器的襲擊和流行病爆發而死亡的人數看起來好像是呈冪律分布的——絕大多數的襲擊和爆發所傷害的人數極少,而極少數的襲擊和爆發所傷害的人卻極多。考慮到當前掌握的數據,由生物恐怖活動造成全球流行病的風險似乎是很小的。但是比起恐怖分子,政府使用生物武器所殺的人要多得多——二戰期間,可能有多達400,000人死於日本的生物戰爭計劃——這恰恰也屬於生物恐怖活動。隨著未來技術的威力越來越強大,殺傷力更強的病原體也就更加容易設計了。
3. 超級智能
智慧是非常具有威力的。在解決問題的能力方面以及在團體協作方面,我們略高一籌,這使得其他猿類動物望塵莫及。現在,其他猿類動物是否能夠繼續存在,要靠人類的決定,而不是靠它們自己怎麼做。對於人類和團體組織來說,擁有智慧的確是一種優勢。因此,我們想方設法提高個人智慧和集體智慧,從提高認知能力的藥物到人工智慧軟體,我們做出了很多努力。
問題是:有智慧的實體善於實現自己的目標;但如果目標設置不當,它們可以利用自己的威力輕而易舉地實現災難性的目標。如果認為智能本身會使某個事物表現得良好而又符合道德規範,那是沒有道理的。實際上,有可能證實這一點:某種超級智能系統可能會不去遵守道德規則,即使這些規則是正確的。
更加令人擔憂的是,在企圖向人工智慧解釋情況的時候,我們遇到了深奧的實際問題和哲學問題。人的價值都是些寬泛、複雜的概念,都是些不易表達的東西。即使能夠表達出來,我們可能也不會明白是否傳達了我們所希望表達的所有含義。
基於軟體的智能可能會很快從不如人類到變得異常強大,令人畏懼。原因在於,這種智能跟生物智能的分級方式有所不同:它在較快的計算機上運行得也會較快,各部件可以安裝在更多的計算機上,不同的版本在運行之中便可以得到測試和升級,所編入的新演算法能夠使之在性能上產生飛躍。
有人曾經提出,當軟體的性能足夠卓越、其本身能夠製造出更好的軟體時,「智能爆炸」就成為可能。如果能夠發生這種飛躍的話,那麼智能體系和世界其他體系之間的潛在能力將會存在巨大的差異。很明顯,如果目標設置不當,就有可能造成災難。
有關超級智能,一件不同尋常的事情是:我們不知道迅速而強有力的智能爆炸是否有可能發生,或許我們目前的文明作為一個整體正在以最快的速度實施自我改善。但是,我們有充分的理由相信:一些技術可能會加速事態的發展,發展速度可能會遠遠超出預期,使當前社會各界根本無法對付。同樣,我們也沒有很好地掌握不同形式的超級智能所造成的危險性到底有多大,什麼樣的減災策略能夠真正地起作用。對於我們尚不掌握的未來技術,或者對於比我們本身更加強大的智能,我們很難推知情況到底會如何。在這份威脅列單中,這個威脅最有可能是要麼規模巨大,要麼僅僅是虛幻的威脅而已。
這是一個在研究上特別欠缺的領域。甚至在20世紀50年代和60年代的時候,人們對於「在一代人的時間之內」實現超級智能極有信心,但他們沒有太多地關注安全問題。也許人們當時沒有重視那個預測,然而人們更有可能把超級智能當成了一個遙遠未來的問題。
4. 納米技術
納米技術利用原子或分子的精度來控制物質。納米技術本身並不危險,相反該技術對於絕大多數應用領域來說是一則極好的消息。問題是,就像生物技術一樣,威力的提高也增加了濫用的可能性,這些都是難以防範的。
一個重大的問題是,這不像邪惡的「灰色粘質」——可以吞噬一切的、能夠自我複製的納米機器。要想達到吞噬一切的目的,這種機器本身也將需要精巧的設計。讓機器進行自我複製是很難的,但是生物在默認的狀態下對於自我複製要擅長得多。或許會有某個瘋狂之人最終能夠成功地製造出這樣的機器,但是在研究這項破壞性技術的過程中,也會產生許多輕而易舉就可獲得的成果。
最明顯的風險就是精密到原子級的製造技術,這種技術對於快速、低成本地製造武器之類的東西是很理想的。如果任何政府都能夠「列印」大量的自動式或半自動式武器(包括能夠通過「列印」更多製造武器的設備),那麼在這樣的一個世界中,軍備競賽將會變得異常迅猛,因而也就增加了不穩定的因素,因為在敵人還沒有獲得巨大優勢之前而先發制敵可能會極具誘惑力。
武器可也以成為很小、很精密的東西:「智能毒物」的作用就像神經毒氣,但是可以找出侵害目標;或者,無處不在的「昆蟲機器人」監視系統讓人們乖乖地順從……這些好像都是完全有可能實現的。此外,或許也有辦法讓任何人掌握核擴散技術和氣候工程技術,無論誰想掌握都是可以做到的。
對於未來納米技術所帶來的生存威脅,我們無法判斷其可能性的大小。但是,看來這種技術是具有潛在破壞性的,因為它能夠為我們提供我們希望得到的一切。
5. 尚未了解的未知事項
最令人不安的可能性是:有個非常致命的事物就存在於某處,而我們對其沒有掌握任何線索。
寂靜的天空可能就是此類事件的證據。找不到外星人的原因是由於生命或智能極其稀少嗎?或者是由於智能生命往往會被徹底消滅嗎?如果真的存在一個未來的「大過濾器」,那麼其他的文明肯定也注意到了。即便如此,也於事無補。
不管這種威脅是什麼,一旦人們認識到它的存在時,那麼就一定是幾乎不可避免的,不管你是誰,也不管你是做什麼的,都無回天之力。我們還不了解任何這樣的威脅,列表中的其他威脅都不是像這樣運行的,但是這種威脅或許是存在的。
請注意,我們對某個威脅尚不了解,並不意味著我們對此無法推知。在一篇引起廣泛關注的論文中,馬克斯·泰格馬克和尼克·博斯特羅姆根據地球的相對年齡證實,發生某種系列風險的幾率肯定不到每十億年一次。
你會感到納悶:為何氣候變化和流星撞擊沒有進入這個列單呢?無論多麼可怕的氣候變化,都不可能使得整個地球成為無法居住的地方。但是如果我們的防禦措施失利的話,那麼氣候變化還會加劇其他的威脅。流星肯定有可能徹底摧毀我們,但是那一定是在我們極其不幸的情況下發生的。普通的哺乳動物物種生存了大約一百萬年,因此其自然背景滅絕率大約為每年百萬分之一。這比核戰爭的威脅要低得多,而核戰爭在70年之後仍然是人類繼續生存的最大威脅。
可得性啟發法使我們過高地估計了通常出現於媒體中的風險,而對於史無前例的風險則產生了低估。如果人類要想在一百萬年以後仍然生活在地球上,那麼我們就要糾正這些錯誤的估計。
譯自:美國《大眾科學》雜誌(05.29.2014 at 11:00 am)
原著:Anders Sandberg
作者簡介:安德斯·桑德伯格出生於1972年7月,獲斯德哥爾摩大學計算神經科學博士學位,現任牛津大學人類未來研究所研究員,是一位科學辯論家、未來學家、人類提高學家兼作家。他在人類未來研究所的研究工作集中於低概率高衝擊的風險管理、圍繞人類提高和新技術所產生的社會和倫理問題、以及對未來技術能力的評估等領域。桑德伯格博士特別感興趣的課題涉及全球性的災難風險、認知偏差、認知提高、集體智慧、神經倫理學和公共政策等領域。
推薦閱讀:
※2013年學術「爭鳴」大事件盤點
※漫畫版·2017世界十大事件
※幼教大事件:2016版《幼兒園工作規程》頒布了!
※春節假期里,安全圈發生的十大事件
※唐駁虎:大事件——朝鮮核試驗五次 終於真正成功