智能爆炸不會發生,AI將線性發展:Keras作者Fran?ois Chollet熱文
選自Medium
作者:Fran?ois Chollet
機器之心編譯
在 Keras 作者 Fran?ois Chollet 的眼中,無論是庫茲韋爾的「奇點」還是《三體》中的「技術爆炸」都不會發生在人類社會、以及未來 AI 技術的發展中。這位著名谷歌工程師最近撰文指出,即使是「超級人工智慧」也只能遵循線性的智力發展速度。本文發表僅數小時便迅速在社交網路中引發大量關注。
超驗駭客(一部 2014 年的科幻電影)
1965 年,I.J. 古德(譯者注: I.J. Good,英裔數學家、密碼學家)首次描述了「智能爆炸」(intelligence explosion)這一與人工智慧(AI)密切相關的概念:
假設有一台超級智能機器,在智能上遠超所有人,不管人有多聰明。機器設計是一種智能行為,從而超級智能機器可設計出更好的機器;無疑這會帶來一場「智能爆炸」,人類智能望塵莫及。因此,第一個超級智能機器將是人類的最後一項發明,只要機器足夠馴服,告訴我們如何控制它。
數十年之後,「智能爆炸」的概念——它導致過「超級智能」的異軍突起以及人類軍備競賽的嘎然而止——已牢牢成為人工智慧社區的一部分。一些著名的商業領袖將其看作一個巨大威脅,遠超核武器或者氣候變化。2015 年一項針對人工智慧研究者的郵件調研中,29% 的人認為智能爆炸「有可能」或「很有可能」,另外有 21% 的人認為存在這種可能性。
基本前提是,在不遠的將來,首個「種子 AI」出現,具備稍微超越人類的通用性問題解決能力。這個「種子 AI」開始設計更好的 AI,啟動一個遞歸的自我進化之環,頃刻間把人類遠甩身後,兩者智能的差距更是數量級的。這一理論的擁護者同樣把智能看作一種超自然的力量,賦予其改變生存環境的能力,正如在科幻電影《超驗駭客》看到的一樣。因此超級智能意味著幾乎無所不能,從而威脅人類生存。
這部科幻小說中的故事持續而危險地誤導著當前關於人工智慧的威脅與監管的公共輿論。在本文中,我提出了「智能爆炸」不可能的觀點:這一概念源自對智能的本質和遞歸自我增強系統(recursively self-augmenting system)行為的深刻誤解。我會根據智能和遞歸系統的具體觀察來論證我的觀點。
一個源自誤解智能的有缺陷的推理
正如 1960 和 1970 年代興起的諸多人工智慧早期理論,智能爆炸背後的推理也同樣詭異:它以一種完全抽象的方式思考「智能」,徹底脫離語境,並忽視有關智能系統和遞歸自我完善系統的可用證據。實際上並非一定如此。畢竟我們在一個充滿智能系統(包括人類)和自我完善系統的星球上,因此我們可以簡單地觀察,並從中找到問題的答案,而不是使用拋棄證據的循環推理。
為了探討智能及其可能的自我完善屬性,我們首先應該介紹一些必要的背景信息。當我們在討論智能時我們到底在說什麼?精確地定義智能本身就是一個挑戰。智能爆炸中的智能是指由獨立智能體展現出來的具備通用性問題解決能力的智能,不管是來自當前的人腦,還是未來的電子腦。這不是全部,定義只是一個起點,讓我們繼續。
智能是情境式的
我認為智能爆炸理論的第一個問題是未能意識到智能是在一個更廣闊的系統中的必要組成,從而「缸中之腦」版本的智能可以獲得任意的獨立於情境的智能是錯的。一個大腦僅僅是一塊生物組織,不具備任何真正意義上的智能。在大腦之外,身體和感覺都是意識的基本組成,環境是意識的基本組成,人類文化是意識的基本組成,這些事物是你所有思想的來源。你不能割裂智能和表達智能自身的環境之間的關係。
特別是,我認為並不存在「通用」智能這種東西。從抽象層次上說,這是從「沒有免費午餐」定理中得出來的結果。該理論指出,沒有任何問題解決演算法能夠比純隨機搜索演算法更優。如果智能是一個問題解決演算法,那麼它只能被應用於一個具體的問題。具體的說,我們根據經驗可知所有的智能系統都是高度專業化的。我們今天構建的 AI 智能高度專一於極端狹隘的任務,比如下圍棋或將圖像分成 10000 個類。章魚的智能只能專用於章魚的問題。人類的智能只能專用於人類的問題。
假如我們將一個新構造的人類大腦放入章魚的身體,並將章魚放在海底深處生活,會發生什麼呢?它還能學習使用它的八腳身軀嗎?還能存活幾天的時間嗎?我們還沒辦法做這樣的實驗,但這啟發我們想到,我們的最基本行為和早期學習模式都是硬編碼的,很有可能這個章魚中的人類大腦將不具備任何智能行為,且會迅速死亡。
假如我們將一個人類(包括大腦和身體)放入一個不存在任何已知的人類文化特徵的環境中,會發生什麼呢?被一群狼養大的人類小孩毛克利(電影《奇幻森林》),長大後會獲得比其他狼更高的智能嗎?和我們一樣的智能?假如我們將嬰兒毛克利換成嬰兒愛因斯坦,他最終能通過自我教育而發展出宇宙的宏觀理論嗎?雖然經驗證據相對缺乏,但從這些例子可以看出,在人類文化環境之外培育出來的兒童不可能發展出任何超越基本的動物生存行為的智能。長大成人之後,他們也沒有語言能力。
如果智能基本地關聯於特定的感覺運動形式、特定的環境、特定的培養方式和特定的實際問題,那麼我們就不該期望僅僅通過調整大腦就能任意增長一個智能體的智能,這和企圖將傳輸帶加速以增加流水線的生產量是一回事。智能爆炸只能伴隨意識、感覺運動形式和環境的聯合演化。如果大腦機制決定了問題解決的能力,那麼那些擁有超出常人 IQ 的少數人將獲得比常人的視野寬廣得多的生活,將解決之前無法解決的問題,並將統治世界(這正是人們懼怕的比人類聰明的 AI 會做的事情)。實際上,擁有高超認知能力的天才們通常過著很乏味的生活,其中只有很少一部分人取得了令人矚目的成就。而那些曾經嘗試統治世界的人,幾乎沒有哪個擁有高超的智能。
在困難問題上最終取得突破的人,一般會通過情景、性格、教育和智力等特性的結合,在自己對前人工作逐步完善的基礎上取得突破。成功就代表智慧和足夠能力以在正確的時間遇上大問題。這些重大問題的解決者大多都不甚聰明,他們的技能好像專門為特定領域所準備的,他們也不會在自己領域外展現出超常的能力。而有一些取得成功是因為他們是更好的團隊成員,或者有更多的決心、職業道德或想像力。還有一些是因為恰好在正確的環境中、正確的時間上進行正確的對話。智能總是基於不同的情景的。
我們的環境嚴重限制著我們的個體智能
智能不是一種超力。傑出的智能本身無法成比例地使你擁有掌控環境的能力。然而,一個有據可查的事實是 IQ 層面的智能確實與個人成就相關。據統計,一個 IQ 130 的人其人生成功率要遠高於 IQ 70 的人——儘管這在個體層面永遠無法保證——但是某一點之後,這種相關性會下降。相比於 IQ 130 的人,沒有證據表明一個 IQ 200 的人在其領域更有可能產生較大的影響力。為什麼會這樣?
這指出了一個非常直觀的事實:高成就需要足夠的認知能力——超出一些閾值——但是解決問題、表達智能的當前瓶頸不是潛在的認知能力本身。瓶頸是我們的境況。我們的環境決定著我們的智能如何表現自身,從而嚴格限制著大腦的用處——我們如何成長為多麼地智能,我們能夠多麼有效地利用智能,以及我們能夠解決什麼問題。所有證據都指向這一事實:我們當前的環境——它與過去 20 萬年前的人類歷史和史前環境很像——並不允許高智能個體充分發展和利用其認知潛力。一個 1 萬年前的高潛力的人類已經成長在一個低複雜度的環境中,比如說少於 5000 詞的單語種,但是他永遠不會被教讀或寫,只接觸到有限的知識和極少的認知挑戰。對現代人來說情況稍微好轉,但沒有跡象表明目前我們的環境機會超過了我們的認知潛力。
不知怎麼地,相較於愛因斯坦大腦的重量和卷積,我幾乎肯定地對在棉田和血汗工廠里勞作而死的天資等同之人更感興趣。——Stephen Jay Gould
一個聰明的人在叢林中長大,只不過是一個沒有毛的猿類。同樣在現實世界中若將超腦智能嵌入一個人類的大腦,那也不會比一個聰明的當代人發展出更大的能力。如果可能的話,那麼特別高智商的人類就已經顯示出個人學識水平的超高水準。他們會在控制周圍環境的能力中展現很高的水平,並用其解決主要突出的問題,也許這些問題並不實用。
我們的智能主要不在大腦,而是外顯為文明
決定人腦智能的因素不只是身體、感覺和環境,人腦只是我們整體智能的一小部分。我們周圍有很多「認知假肢」影響我們的大腦,增強其問題解決能力。智能手機、手提電腦、谷歌搜索、學校教的認知工具、書、其他人、數學符號、編程,所有這些認知假肢中最基礎的部分當然是語言,語言本質上是一個用於認知的操作系統,沒有它我們就無法進行深刻思考。這些事物不只是輸送到大腦、由大腦使用的知識,它們也是外部認知過程,以一種非生物的方式運行無數思緒和問題解決演算法,跨越時間、空間,更重要的是跨越個體。這些認知假肢不是我們的大腦,而是我們的認知能力的關鍵所在。
我們即是工具。個人本身沒有什麼意義,再次強調,人類只是兩足人猿。而數千年來知識的不斷累積、外部系統的不斷發展,我們稱之為「文明」,正是這些使我們超越動物性。當科學家取得突破的時候,大腦中的思考過程只是一小部分,科學家還將大量問題解決過程交給了計算機、其他研究者、論文筆記、數學符號等等。他們能夠取得成功,是因為他們站在巨人的肩膀上。他們自己的研究是幾十、幾千個人問題解決過程的最後一個子程序。他們自己的認知工作對整個過程的作用可能就像晶元上的一個晶體管。
個人大腦無法實現遞歸性的智能增強
大量證據表明:人腦本身無法設計比它更強的智力。這是純粹的經驗性論斷:這個世界存在過數十億個人腦,沒有一個做到的。很明顯,憑藉單個人的智力,窮其一生也無法設計智力。否則,這件事早就發生了。
但是,數十億人腦、數千年間累積的知識和開發的外部智力過程實現了一個系統——文明,這或許最終將帶來比單個人腦智力更強的虛擬大腦。創造超人類 AI 的會是文明,而不是你,不是我,也不會是任何其他人。這個過程包括無數人的努力,其中的時間尺度是我們無法理解的。它也是一個外部智力(書、計算機、數學、科學、互聯網)比生物智力發揮更大作用的過程。從個人角度來看,我們都只是文明的向量,建立在之前的研究上,然後創造我們自己的發現。我們只是暫時的晶體管,文明的問題解決演算法就在我們身上運行。
經過數個世紀的發展,未來的超人類 AI 會開發出比它們自己更強大的 AI 嗎?不,它們在這方面的能力不會比人類更強。回答「是」就是罔顧我們已知的事實——請再次記住沒有人類,任何智能體都無法開發出比它們自己更強的智能。我們要做的就是一起逐步構建比我們強大的外部問題解決系統。
但是,未來酷似人類的 AI 和我們目前生產的其他智能系統都將對我們的文明作出貢獻,而文明也會利用它們不斷擴展 AI 的能力。從這個層面上,AI 和計算機、書、語言並無不同:它是一種為文化賦能的技術。因此,超人類 AI 的到來和計算機、書或語言一樣不會帶來奇點。文明將促進 AI 發展。文明將最終超越現在的我們,正如它超越了一萬年前的人類一樣。這是一個循序漸進的過程,不是突然的轉變。
智能爆炸的基礎前提是:「具備比人類強大的問題解決能力的「種子 AI」將出現,導致突然失控的智能增強循環」的想法是錯誤的。我們的問題解決能力(尤其是設計 AI 的能力)一直在提升,因為這些能力主要不是因為生物大腦,而是由於外部的、集成的工具。這種遞歸循環已經存在很長時間了,和之前的智能增強技術一樣,「更好的大腦」的出現也無法從根本上動搖它。人腦本身不是 AI 設計過程中的瓶頸。
在這種情況下,你可能會問「文明自身難道不是一種失控的自我提升的大腦嗎?」我們的文明智能正在爆炸嗎?不。關鍵在於,文明級別的智能提升循環只能帶來我們問題解決能力的時間線性發展。這不是爆炸。但是為什麼呢?數學上遞歸地改善 X 不是會導致 X 的指數增長嗎?不會,簡言之,沒有一個複雜的現實世界系統可以被建模為 X(t + 1) = X(t) * a, a > 1。沒有系統是存在於真空中的,尤其智能和人類文明。
我們所知的遞歸自我改進系統
當智能系統開始優化自己的智能時,我們不必猜測它是否會發生「爆炸」。實際上,生活中大多數系統都是遞歸自我改進的,我們被這些系統包圍著,所以想要理解它們的運行方式非常簡單——在各種環境和各種時間尺度上。人類自己就是一個遞歸自我改進系統:通過自學變得聰明,再通過已有知識不斷提高自學效率。同樣,人類文明也是遞歸自我改進的——在更大的時間尺度上。機電一體化是遞歸自我改進的——好的機器人可以再產出更好的機器人。軍事帝國是遞歸自我擴張的——越大的帝國擁有越多的軍力,可以擴張到更遠處。個人投資也是遞歸自我改進的——你有越多的錢,就能賺到更多的錢。這樣的例子比比皆是。
思考一下計算機軟體。編寫軟體顯然可以讓編寫軟體的過程更加便捷:首先,我們製造編譯器,可以執行「自動編程」,然後我們使用編譯器開發實現更強大編程範式的新語言。我們再使用這些語言開發先進的開發工具——Debugger、IDE、Linter、Bug 預測器。在未來,軟體甚至可以自己編寫軟體。
這個遞歸自我改進過程的最終結果是什麼?今年這個軟體能夠比去年快兩倍嗎?明年能再快兩倍嗎?可以說,在我們投入巨大精力開發軟體的情形下,軟體的可用性呈現線性增長的速度。近幾十年來,軟體開發者的數量呈指數級增長,我們運行軟體的晶體管數量也在迅速增長,遵循摩爾定律。但是,人類計算機的可用程度增長速度卻沒有這麼快。
但為什麼?首先,因為軟體的可用性本質上受到應用環境的限制——這很像智能被其表達者所定義和限制。軟體僅僅是更大過程中的一個小小齒輪——我們的經濟、我們的生活的很小一部分——就像大腦只是更大過程中的小齒輪一樣——人類文明的很小一部分。這樣的情況嚴格限制了軟體的最大可用潛力,這就像我們的環境嚴格限制了個體智慧可以做到的事情一樣——即使擁有超級智慧的個人也無法改變這個狀態。
除了環境的硬性限制之外,即使系統的一部分具有遞歸自我提升的能力,系統的其他部分也不可避免地會成為瓶頸。在遞歸自我完善過程中,對抗過程也將越來越明顯地展露出來——在軟體中,它是資源消耗、功能蔓延(feature creep)、用戶體驗問題。當談到個人投資時,你花錢的速度也是一種對抗過程——你有越多的錢,你就會花掉越多的錢。而在智能上,系統間的溝通是對基礎模塊進行改進時的一個制約因素——一個智能組件形成的大腦在協調各部分時會遇到越來越多的麻煩。一個聰明的個人組成的社會需要在交流和溝通等方面進行更多的投入。智商非常高的人更可能患有某些精神疾病——這應該不是巧合。古代的軍事帝國在發展到一定規模時就會分崩離析,這或許也不是偶發事件。指數性發展,會遇到指數性的阻力。
值得關注的一個具體例子是人類科學的發展,它在概念上與智能本身非常接近——作為一個解決問題的系統,科學非常接近失控的超級 AI。科學當然是一個遞歸的自我完善的系統,因為科學的進步,我們有了更多的工具來加速科學的發展——無論是實驗中的硬體(如量子物理催生出了激光,從而引出了大量新的量子物理實驗)、概念工具(如新定理、新理論)、認知工具(如數學符號)、軟體工具,以及能夠讓科學家們互相配合的通信協議(如網路)……
然而,現代科學的發展速度是一個可衡量的線性過程。我在 2012 年一篇名為《奇點不會來到》的文章中詳細解釋了這件事。我們在 1950 年-2000 年的物理學進展速度並沒有超過 1900 年-1950 年。現代數學的發展速度也不如 1920 年我們做到的更快。近幾十年來,人類在醫學科學領域的發展在各種層面的考量中均呈線性。而這個速度還是在人類投入越來越多精力的情況下達成的——我們的研究人員數量每隔十五到二十年就要翻一番,同時這些研究人員也在使用著越來越快、計算速度呈指數發展的計算機。
這將如何做到?哪些瓶頸和對抗反作用拖慢了科學遞歸自我提升系統發展的速度?有太多因素了,讓我們列舉其中的一部分。重要的是,其中的每個因素都同時適用於遞歸自我改善 AI 系統。
- 在給定領域進行科學研究的難度會隨著時間推移而增加——該領域的創始人會先摘下低處的果實,而實現相同的進展則需要後來者做出更多的努力。在資訊理論上,再也不會有人能夠達成香農 1948 年論文《通信的數學原理》那樣的突破了。
- 研究人員之間的分享與合作會隨著領域的擴大而呈指數級增長,其結果會導致緊跟最新論文的發展愈發困難。請記住,N 個節點的網路就有 N×(N-1)/2 個邊。
- 隨著人類科學知識體系的不斷膨脹,我們在教育培訓上投入的時間和精力正在不斷增多,對於每個研究者來說,可以探索的方向卻也變得越來越狹窄了。
在實踐中,系統瓶頸、收益遞減和對抗反應最終會壓縮我們周圍所有遞歸過程的自我改進。自我提升確實會帶來進步,但這種過程往往是線性的,或者充其量是 S 形的。你種下的第一顆種子通常並不會突然變成森林;取而代之的是,投資回報的增長和與之相關的成本會讓你的財富隨著時間線性增長。而這是一個比自我改善意識簡單得多的系統。
同樣,第一個超級 AI 將僅僅相比我們的現有智力再上一個台階,而人類攀登的過程已經持續很久了。
結論
智能的進步來源於(生物學或數字)大腦、感知運動功能、環境和文化的共同進化,並不能通過簡單地調整缸中大腦的幾個齒輪來獨立完成。這種共同進化已經經過了無數時間,並將會隨著智能轉向數字化而繼續。「智能爆炸」不會發生,因為這個過程將以接近線性的速度前進。
- 智能是基於環境的——不存在通用智能這樣的東西。你的大腦是更廣泛系統的一部分,後者包括你的身體、你所處的環境、其他人,以及整個環境。
- 不存在憑空出現的系統,任何單獨的智能都會被其所處環境所定義或限制。目前,我們的環境——並非我們的大腦——是智能發展的瓶頸。
- 人類智慧很大程度上是客體化的,它並不存在於大腦之中,而是存在於整個文明當中。我們是自己的工具——我們的大腦是比我們大得多的認知系統中小小的模塊。這個系統千百年來一直在自我進化的過程中。
- 遞歸自我完善系統因為存在瓶頸、收益遞減和其他因所處環境而產生的負反饋,在真實環境下並不能以指數形式向前發展。經驗上看,它趨向於 S 型曲線,或者線性。事實上,科學進步尤其如此——科學可能是我們能夠觀察到的最接近遞歸自我完善 AI 的系統了。
- 遞歸智能膨脹已經在人類文明層面上發生了。在人工智慧時代,這一發展還將繼續,而且速度仍然將是線性的。
原文鏈接:https://medium.com/@francois.chollet/the-impossibility-of-intelligence-explosion-5be4a9eda6ec
推薦閱讀:
※9種辦法獲得深度學習方面的幫助
※一次關於嚴重侵犯著作權的事件
※Keras,Theano,pytorch,caffe2 哪個更好一些,應該怎麼嘗試學習?
※Esquirrel 的 Live -- 小白跨界入門深度學習的那些事
TAG:Keras |