這個睡前故事一點都不溫馨
———— 擴展貓糧 ————
本貓糧授權轉載自「得到APP」之 王爍專欄
未經允許嚴禁轉載
第一個思想實驗:圖靈測試
先來講第一個,圖靈測試。
很多年前,現代計算機之父圖靈(Alan Turing)構造出圖靈機也就是計算機的基本概念,他知道猛獸即將出柙。圖靈機本身只是個思想實驗,什麼是思想實驗呢?
科學家理解世界的辦法主要是觀察和做實驗,而思想實驗在現實中也沒法實驗,就用你的想像去構造的實驗。
圖靈機就是這樣一個想像中的抽象計算機模型,但今天最複雜的計算機仍沒有超過當初寫在紙上的圖靈機理論上能達到的能力範圍。
圖靈思考的下一個問題:機器能達到多高的智慧?
他又構造了一個思想實驗,對機器智慧的終極測試——圖靈測試。想像這樣一個場景:人類與另一方交流,彼此隔離,另一方對於人類來說是個黑盒子,你對他一無所知。交流僅通過「鍵盤—屏幕」進行,人類通過鍵盤輸入,對方通過屏幕回應。如果人類無法通過交流辨別對方是人類還是機器,那麼就可以說機器通過了測試,擁有與人等價的智能。
圖靈自己只關心機器是否擁有智能(thinking),並未涉及機器能否像人一樣獲得「意向(intentionality)」、「意識(consciousness)」乃至「意志( will)」。但哲學家們就關心這些;不僅哲學家們關心,普通人也關心。
人人都關心機器會不會獲得意向、意識、意志。一旦機器獲得了這些東西,人類在地球上的好日子就算過完了。而且,對人類自己的意向、意識和意志,人類自己還不太明白,還想通過與機器智慧相比較,找到理解我們人類自己的線索。
解釋一下,所謂意向(intentionality),就是心智在場(mind)、表達、代表事物的能力;所謂意識(consciousness),就是知道「自我」;所謂意志(will) ,就是自主選擇。
既然圖靈不關心,哲學家出手綁架了圖靈測試。他們認為,與人等價的智能應該包含意向、意識、意志這些內容。沒有它們,認知何來?不能自知,無法自決,談何智慧?
著名哲學家塞爾(John Searle)把擁有意向、意識、意志的機器智能叫作強人工智慧(Strong AI),而沒有這些只會計算、推斷,解決具體問題的機器智能叫作弱人工智慧(Weak AI)。
今天你能聽到的強人工智慧和弱人工智慧,就是始自於一個哲學家的分類。
在圖靈測試的基礎上,哲學家們提出了新問題:假設機器通過了圖靈測試,那麼它是否已經獲得意向、意識、意志,擁有強人工智慧?
這個問題沒法直接回答。到今天也還沒有任何一部機器通過圖靈測試,也沒有一部機器獲得強人工智慧。現有的所有人工智慧都是弱人工智慧,就算阿爾法圍棋這般碾壓人類圍棋手,也一樣是弱人工智慧。
所以現實中無法檢驗,機器能否獲得強人工智慧。 但是現實中無法檢驗這件事,並沒有難倒哲學家。
第二個思想實驗:中文屋子
會做思想實驗的又不止圖靈一個,實際上,哲學家倒是思想實驗的鼻祖,從柏拉圖以來,思想實驗就是他們主要的思想工具。
哲學家塞爾構造了一個精巧的思想實驗,同時也是圖靈測試的一個變形,叫作中文屋子(Chinese room)。
中文屋子的精巧之處在於,塞爾自己充當了圖靈測試中被測的機器這個角色,而他確切知道自己這部機器沒有人類智能,於是難題解決。
具體如下:
想像一間屋子,裡面有一個人,就是塞爾自己,一沓紙,一支筆,一個中英文對照表。
人從門縫裡塞進紙條,上面是用中文提的問題。塞爾用對照表查出與其對應的英文問題,給出英文答案,再用對照表查出對應的中文,抄寫在紙條上塞回門縫。
回答完美無缺,屋外的人無法分辨屋裡的是人還是機器,於是圖靈測試通過。
屋內外通過紙條的整個對話應答過程儘管完美,但不存在理解(understanding)這回事——塞爾自己完全不懂中文。
通過將自己置換到機器人的角色,塞爾看到了機器人的「內心」。測試結束,他穿越回來,恢復哲學家身份,告訴大家那個通過 圖靈測試的機器其實並沒有智慧,因為他自己就是那個機器!
他確切知道自己不理解中文,屋子裡的其他所有東西,紙、筆、對照表,也沒有一樣有「理解力」。中文屋子裡沒有理解力,只有單純的計算(computation)。
塞爾認為,沒有理解就沒有意向,也不會有真正的思維,更沒有意識、意志,這些層層遞進的高級人類智慧。他宣布,中文屋子思想實驗說明,哪怕通過圖靈測試,機器也還是機器,不會擁有與人等價的智慧,最多只是貌似而已。
強人工智慧不可能只通過計算獲得,它有賴於大腦還未揭開的某個特殊機理。
塞爾中文屋子成為當代討論最多的思想實驗。這事的本質是這樣的:哲學家先給圖靈測試增加了一個強人工智慧的靶子,然後宣布擊敗了它。並不太公平,但人們還是普遍長出一口氣,沒有想看到機器成為人上人。
我呢,覺的他高興得太早。再來一個思想實驗。
第三個思想實驗:億年機器人
如果你想親身看到一億年後的地球,現在能想像的惟一辦法是休眠。你爬進休眠艙,然後在一億年後醒來。
可是,問題沒這麼簡單。休眠艙需要經受一億年考驗,要保證能源供給不斷,要能經得起環境災變,萬一受損還得自我修復,數不清的考驗它都得能應付,否則你就再也醒不來了。
你找個最理想的位置,有維繫休眠艙所需的所有資源,然後固定在那裡。行不行?
這不算好辦法,一億年間,地震、海嘯、隕石撞地球,這麼長時段中,想想就知道沒法靠譜地預測風險如何降臨。千年一遇的事情每天都在發生。不然,福島核電站怎麼會出事故?天津港怎麼會發生大爆炸?更別說一億年。
未來無從預測,那怎麼辦?
製造一個能感知環境、迴避風險、尋找資源的機器人,把休眠艙放進去。
說到這裡,你應該明白點了。不動,能動,是從自然界複製而來的兩個策略,前者是植物策略,後者是動物策略。
要求機器擇機而動,你從一開始給它下達了指令,「讓我活著」,然後便沉睡一億年,不再給它臨場指導。你的機器人必須能夠自己制定策略,「知道」如何去尋找資源,如何轉移到安全地帶,如何預判和迴避危險。
這些你既不可能都提前想到,就算想到一部分你也不能事事都提前準備,你準備不起:所需資源太多,太笨重,更不能適應環境變化。
挑戰不止於此。未來一億年不會只有你的那個機器人,可能有許多機器人,彼此競爭、合作。你的機器人得具備合縱連橫的能力,需求層層嵌套。
如果你的機器人最終不辱使命,將你保存到一億年之後,那麼它多半發展出了自運行的能力。你在休眠中,不能實時控制,機器人在保存你生命的最終目標之下,根據環境變遷,會自己衍生出許多次生目標。這是天大的事:衍生就意味著脫離,脫離於當初的目標。
不忘初心,何其之難。允許機器有相機決策自主權,那麼自主決策的進程一定會超越你的預想範圍,這就叫失控。
兩個思想實驗,針鋒相對
講到這裡,你應該多明白一點了。這個故事中的機器人就是人類自己。在演化中,基因創造出人來做它們的機器人,以保護它們在人類身體深處漫漫休眠。人是基因為了自己永生而造出來的機器人,但在基因不得不讓渡的自主決策空間中,人類演化出了自由意志。
我們作為人的利益,與「造物主」基因的利益,走上岔路。從基因不得不賦予人類學習能力,授權自主決策的那一天起,基因失控,人類自立,就成為註定的結果。
一言點醒夢中人。既然人本來是機器,機器何嘗不能是人?
億年機器人這個思想實驗,來自丹尼爾·丹尼特的《直覺泵與其他思維工具》( Intuition Pumps and Other Tools for Thinking )。丹尼特是現代進化論科普大家,也是最具科學家氣質的哲學家。在機器智慧與人類智慧的大辯論中,他的看法與提出「中文屋子」的哲學家塞爾針鋒相對。
他認為,不需要什麼神秘的大腦特殊機理,運算層層嵌套,足以湧現出與人類相當的智慧,因為人類智慧亦不外乎是。
在塞爾的中文屋子裡,塞爾這個人、紙、筆、對照表,沒有一樣「理解」中文,但那也沒關係,「理解」從所有這些東西構成的整體中湧現出來。
塞爾和丹尼特,針鋒相對,現在沒法說哪個看法對。有數據的地方,數據說話;沒有數據的地方,故事說話。
現在沒有數據,只能看你喜歡哪個思想實驗多一點。我自己是更喜歡丹尼特,強烈推薦《直覺泵與其他思維工具》這本書。
直覺泵這個詞就是丹尼特為思想實驗發明的,指在沒有證據、數據的地方,我們從公認的直覺開始做思想實驗,看它將我們帶到何方。丹尼特首創直覺泵這個名詞,又恰是從批評塞爾的中文屋子思想實驗開始。
<完>
關注微信公眾號:薛定餓了么(xuedingeleme)
看完我們三分鐘漏洞百出的科學小視頻,你的生活也並不會變得更好。
推薦閱讀:
※人工智慧時代,該如何與實體經濟緊密結合?
※群分享預告:AI在垂直行業的應用及中美對比
※浪潮:隱形的人工智慧巨頭
※人工智慧or人工增強?特寫 | 人工智慧背後的人
※人工智慧的阿西洛馬23條準則