AI專家談應對人工智慧的崛起:對噩夢成真的恐懼
資料圖
我是否會像奧本海默在造出第一枚原子彈之後評論的那樣、成為「世界的毀滅者」呢?我固然會一舉成名,但也許批評者們也所言不假。
也許我不該迴避這樣的問題:作為一名AI專家,我認為人工智慧有什麼恐怖之處呢?
《2001太空漫遊》中的HAL 9000計算機就是一個絕佳的例證。它引發了許多意外後果,可見這套系統並不成功。
在許多複雜系統中,如NASA的太空飛船和切爾諾貝利核電站,工程師會將許多組件組合在一起。設計師們也許很清楚每個部件該如何單獨運作,但對它們共同運行的結果則知之寥寥。
我們也許永遠都無法完全了解這些系統的運作結果,它們的失靈方式也多種多樣。從沉船到飛船爆炸,再到核電站爆炸,每次災難都由各種各樣的小故障組合而來。
而在AI研發中,我們也可能陷入同樣的陷阱。
我們將認知科學的最新研究轉變為演算法,然後加入現有系統中。我們還沒有充分了解智能或認知科學,就妄想造出人工智慧。
IBM的沃森和谷歌的Alpha等系統擁有強大的人工神經網路,實現了驚人的成就。但如果這些機器犯了錯,它們就無法贏得「Jeopardy!」比賽,或打敗圍棋大師。雖然這樣的後果不足為重,頂多是賭它們贏的人會輸些錢。但隨著AI設計變得越來越複雜、計算機處理器速度越來越快,它們的水平會不斷提高。這樣一來,即使出現未知後果的風險提高,我們也會讓其承擔更多的責任。
我們知道「人非聖賢,孰能無過」,因此要研發真正安全的系統簡直是天方夜譚。
對濫用的恐懼
我正在研發的AI採用的方法名叫神經進化。對於這一種人工智慧,我並不擔心會產生難以預料的後果。我會創造出虛擬環境,讓數據生物進行進化、然後處理越來越複雜的任務。
這些「生物」的表現會受到評估。表現最出色的「生物」可進行「繁殖」,生成下一代。繁殖了多代之後,這些「機器生物」便會進化出認知能力。
如今,我們正一步步研發出能夠解決簡單任務的機器。它們可進行簡單的導航、做出簡單決策、或記住幾個數據。
但不久之後,這些機器便能解決更加複雜的任務,擁有更高級的智能,最終達到人類級別的智能水平。
在機器的進化過程中,我們將不斷發現並排除錯誤和問題。每過一代,機器便能更好地解決前幾代機器遇到的問題。
這使我們更容易在模擬過程中發現意外結果,然後在正式啟用前將其排除。
此外,我們還有可能利用進化過程影響人工智慧系統的道德倫理。人類的倫理價值觀很可能是進化的產物,也是人類文明得以存續的原因。在我們建立的虛擬環境中,我們可以為表現出善良、誠實和同理心的機器提供更多優勢。這或許能確保研發出更順從的「傭人」和更值得信任的伴侶,減少冷酷的殺手機器人的數量。
雖然神經科學或能降低產生意外結果的可能性,但仍有被濫用的可能。但這屬於道德問題,不屬於科學的考慮範疇。作為一名科學家,我將秉承真理,無論個人喜好如何,都如實彙報實驗結果。我並不在意自己是否喜歡某個事實,揭露事實才是最重要的。
對社會優先問題錯位的恐懼
身為一名科學家,我並非毫無人性可言。從某種程度而言,我必須帶入我的希望和恐懼。
作為一名道德和政治個體,我不得不考慮自身工作可能產生的後果和社會影響。
作為研究人員和社會群體,我們還不清楚人工智慧會做什麼、會成為什麼。
當然,這一部分是因為我們還不清楚人工智慧的能耐。但我們必須確定自己理想中的高級AI擁有怎樣的能力。
人們關注的重點之一自然是工作。機器人已經取代了部分體力勞動。用不了多久,它們便可勝任一度被認為只有人類才能完成的認知工作。自動駕駛汽車將取代計程車司機;自動駕駛飛機將取代飛行員。
未來的病人不用再擠在急診室里、等著疲憊不堪的醫生來做檢查,配備豐富知識的專家系統便可完成這項工作,手術也將由永不「手抖」的機器人來操刀。
也許有朝一日,所有人類工作都將被機器取代。甚至我自己的工作也可能被許多速度更快、不知疲倦的機器代替,由它們來研發更智能的機器。
在現代社會中,自動化導致許多人失業。機器所有者變得愈發富有,其他人則愈發貧窮。這並不是科學問題,而是政治和社會經濟問題。作為一個社會群體,我們必須出手解決。我的研究無法改變這一點,但藉助我的政治角色,再加以整個人類社會的共同努力,也許能打造出一個良性環境。人工智慧將有益於人類,而不是進一步擴大貧富差距。
對噩夢成真的恐懼
HAL 9000、終結者和小說中的各種超級智能代表著人類的另一重恐懼:如果AI繼續發展、最終超越了人類智能,這樣的超級智能系統(或多個系統)是否會意識到人類已經無關緊要了呢?在無所不能的超級智能面前,我們如何體現出自身的重要性呢?我們如何才能避免被自己一手打造的機器連根剷除的厄運呢?
其中的關鍵問題是:超級人工智慧有什麼必要讓人類存活下去呢?
我會辯稱自己是個好人,並為超級人工智慧的誕生做出了貢獻。我會博取它們的同情,讓它們允許我這麼一個有同情心和同理心的人存活下去。我還會指出,多樣性本身便有很大價值。宇宙如此廣闊,人類的存在對它們根本沒有影響。
但我不會代表所有人類發言。而且我發現很難為所有人發表強有力的辯解。
我環顧人類社會,所見皆是謬誤:我們仇恨彼此,挑起戰爭;我們的食物、知識和醫療分配不均;我們污染地球。不錯,人類社會有其光明一面,但這些陰暗面無疑削弱了自己存在的合理性。
幸運的是,我們暫時還無需擔憂這個問題。我們還有時間,從50年到250年都有可能,具體取決於AI的發展速度。
我們可以齊心協力,想出一個合理的答案、讓自己不至於被超級人工智慧消滅。但這絕非易事:說自己歡迎多樣性和實際接收它完全是兩碼事
從個人和群體角度而言,我們都需要為這一噩夢般的局面做好準備,利用剩下的時間,充分證明人類存續的必要性。或者乾脆別相信會出現這種場景、不要再為之擔驚受怕。
但除了超級人工智慧可能帶來的肉體威脅之外,它們還存在政治和經濟風險。如果我們無法更公平地分配財富,無疑是為資本主義煽風點火,人工智慧勞工將僅為少數掌握了全部生產途徑的人服務。
推薦閱讀:
※人工餵養的步步糾結
※節約網--美首次人工合成能維持生命的蛋白質
※人工半肩、全肩、反肩,你怎樣選擇?
※3D列印PK人工智慧?
※世界八大奇異人工島(組圖)