把「AI威脅論」觀念植入馬斯克大腦的那個人,現在「反水」了

唐旭 發自 凹非寺n量子位 報道 | 公眾號 QbitAI

如何把一個想法植入富豪的大腦?要麼來一套「盜夢空間」,要麼寫一本書。

Nick Bostrom(尼克·波斯特洛姆),牛津大學人類未來研究院院長、教授、哲學家,暢銷書《超級智能》的作者——比爾·蓋茨和馬斯克都將他的書列為必讀推薦,馬斯克甚至出資100萬英鎊支持他的機構繼續自己的研究。

Bostrom被認為是在很大程度上影響了馬斯克對於AI態度的人。

2014年8月,剛剛讀完《超級智能》的馬斯克難掩內心澎拜,並在推特上第一次呼籲人們警惕人工智慧的威脅,從此一發而不可收。

「我們必須對AI保持警惕。它們可能比核武器更加危險。」

在書中,Bostrom將超越人類的通用機器智能視作人類「滅亡性的威脅」(existential risk),上周末在羅德島的美國全國州長協會(NGA)夏季會議上,馬斯克談及人工智慧時,使用的是相同的表述;除此之外,去年六月,馬斯克在Code大會上曾經聲稱我們活在電腦模擬出來的虛擬世界中,其來源其實也是Bostrom在2003年提出的觀點。

然而,在對AI的態度上,馬斯克顯然已經比他的「導師」更為激進,以至於最近Bostrom都坐不住了。

「幾年前我寫了一本探討AI長期影響的書,給一些人留下了點印象。我想借這個機會說一句,我對此其實並沒有那麼悲觀。」Bostrom在今年USI的演講上說。

「我花了好多頁去論述,一旦超級智能實現之後,哪些糟糕的事情將可能會發生——但那是因為對於寫一本書來言,將細節、紋理描繪出來更為重要,這樣才能讓人們看清其中的隱患在哪並更好地避開它們。」

「但花了這麼多篇幅描繪悲觀的一面,並不意味著我認為這種悲觀的情況是更有可能發生的。」

Bostrom說出上述這番話的時間是今年的6月19日,比馬斯克最近一次發出警告的時間早了近一個月。

他當然沒聽進去。事實上這也僅僅是個開始。

這不是馬斯克第一次公開呼籲人們注意、警惕乃至管控AI。不管他把AI比作核武器還是惡魔,前幾次,反對者們其實也就是一笑了之,畢竟這麼想的也不只他一個;但這回全美國的州長面前再次重複了一遍自己的觀點之後,馬斯克被懟慘了。

「想像一下,你有機會告訴全美國最有權勢的50位政客,自己認為需要政府立即行動的、最急迫的問題是什麼。過去的這個周末馬斯克就有這樣的機會。結果他選擇提醒這些州長對人工智慧保持警惕,以免其消滅人類。」

馬斯克發出警告兩天之後,《MIT科技評論》在舊金山的總編輯Tom Simonite發表了一篇題為《不去解決真正的AI問題,馬斯克已經被殺手機器人嚇尿了》的文章,批評馬斯克總在異想天開,不切實際。

一位華盛頓大學機器學習方面的教授Pedro Domingos在文中稱:「我們中的許多人都在試圖教會他以及其他一些像他這樣的人,在AI的危險性上什麼是真實的,什麼是虛幻的,但顯然沒人能打動他。」

Yann LeCun後來也轉推了這篇文章。

沒完。轉天,《發現》雜誌乾脆直接了聯繫了幾位計算機科學和未來學領域的大牛,正面對馬斯克的觀點進行回應。

量子位將其中一些回應節選如下:

Oren Etzioni(華盛頓大學計算機科學教授、艾倫人工智慧研究所CEO):「伊隆·馬斯克對於將AI視作人類根本存在性威脅的執拗讓他心煩意亂,而他真正應該關心的問題是AI對於工作和武器系統這些東西的影響。公眾真正需要的是能夠說明AI積極和消極兩種影響的、有價值的信息。我們需要分清科學和科幻。在科幻中,AI經常被刻畫成陰謀奪取世界的壞人,但在現實中,AI只是一種工具。」

Toby Walsh(新南威爾士大學人工智慧教授):「伊隆·馬斯克的言論危言聳聽了。我最近對300名領先的AI研究者做了一次調查( 論文在這兒:arxiv.org/abs/1706.0690 ),他們中的絕大部分都認為,要讓機器變得和人一樣聰明至少還需要50年時間。因此這不是一個需要立即注意的問題。」

「不過伊隆在一件事上說對了:我們需要政府現在就開始對AI進行管控。然而,需要開始管控的是今天我們所用的傻瓜人工智慧,比如帶有偏見的演算法、開發「殺手機器人」的軍備競賽、科技公司對於個人、醫療數據隱私的威脅。」

李飛飛(斯坦福人工智慧實驗室主任):「獨立的機器價值觀並不存在,機器價值觀就是人類的價值觀。如果人類真的擔心一種技術會對未來造成的影響,AI、能源或是其它什麼東西,那就讓各行各業都參與到這項技術的開發和應用中來。

馬斯克在NGA大會上

「不管是斯坦福、谷歌還是特斯拉,每個技術專家都有責任去開發那些『善意』的技術,來讓我們的社會變得更好。作為一名AI教育者和技術專家,我最大的願望就是能在這個領域看到更多的多元性和內涵,不管是在AI的發展上,還是在AI觀點的傳播上。」

機器人領域的知名大牛、MIT計算機科學與人工智慧實驗室的創始主任Rodney Brooks,在接受TechCrunch採訪時同樣談到了這個問題。

「有很多人都聲稱AI是人類存在的威脅:斯蒂芬·霍金、馬丁·里斯爵士……在沒有親身在AI領域工作的情況下,這樣的想法很普遍。我們能夠理解,對於那些不在AI領域工作的人,要通過產品級別的東西來弄明白一些問題有多麼困難。」

這就是包括伊隆在內的那些人所犯的錯誤。當看見一個人把某件任務完成得很好,我們能夠理解這其中所需的能力——我認為,他們把機器學習當成了同樣的模式。當人們看到DeepMind開發的AlphaGo接連戰勝韓國和中國的冠軍時,他們會想,『哦天啊,機器太聰明了,它幾乎能做任何事情!』但三周之間我就在DeepMind位於倫敦的總部,他們自己都承認,人們很容易就會對這件事產生誤解。」

對於馬斯克提到的監管問題,Brooks接著懟道:「如果你現在要有一個監管措施,要麼它會被用到什麼東西上改變一些事情,要麼它根本用不到任何東西上。如果它用不到任何東西上面,你要這監管有毛用?告訴我,你到底想改變什麼行為,伊隆?順便,我們還是談談對特斯拉無人車的監管吧,這才是真正的問題。」

當然,也不是完全沒人同意馬斯克的看法。美軍空軍四星上將Paul Selva在回答關於美國國防部一道指令的相關問題時,就表達了對馬斯克的支持。這道指令要求,當自動機器能夠殺死敵軍士兵時,人類操控者必須介入這一決策過程。將軍說,在戰爭中,軍隊在恰當的位置堅守道德準則非常重要,否則我們可能會同胞放出了一群自己控制不了的機器人。

對於馬斯克的觀點,Selva說:「在真正看到機器人到街上殺人之前,人們都不會知道怎麼應對。因為它看上去太虛無縹緲了。」

「在我看來AI就屬於這種非常罕見的情況,我們需要主動、提前去監管,而不是被動地去反應。在我們需要對AI的監管進行反應時,已經太晚了。」

馬斯克還是那個馬斯克。無論是支持還是反對,對這些言論,他沒有做出任何回應——在最近的推特上,他宣布自己剛剛拿到了政府對於在地下建造連接紐約、費城、巴爾的摩與華盛頓的超級高鐵Hyperloop的口頭許可。

實現之後,從紐約到華府只需要29分鐘。

【完】

歡迎大家關注我們的專欄:量子位 - 知乎專欄

推薦閱讀:

周志華:嚴肅的研究者就不該去觸碰強人工智慧 | 觀點
9評大公司-我看今日頭條
Slack CEO:如何利用AI降低信息過載
貝葉斯眼裡的正則化
如何評價賈尼?

TAG:伊隆·马斯克ElonMusk | 人工智能 | 未来学 |