中文房間思想實驗是什麼?它是否成功地否決了圖靈測試的有效性?

1950年,阿蘭-圖靈提出了著名的」圖靈測試「(Turing Test)作為判斷人工智慧的標準。他認為,如果一台計算機能夠在問答中讓人無法分辨是否是計算機,那麼這台機器就具有了智能。這一測試也成為了檢驗人工智慧的經典標準。

1980年,加州大學伯克利分校的哲學教授John Searle提出了「中文屋」(Chinese Room)思想實驗,並且認為該思想實驗否決了圖靈測試的有效性。即使計算機通過圖靈測試,也不算真正具有智能。

「中文屋」思想實驗究竟是什麼?它是否駁倒了圖靈?到底什麼才是智能的檢驗標準?


說一點技術性的東西。這個回答依舊是進階級別的,主要是一些澄清和擴展。

如果能完全看懂這個回答前兩部分里的每一句話,對這個思想實驗的理解就算是合格了。

(前面回答的人沒有一個真的搞懂了這個思想實驗和 Searle 究竟想通過它論證什麼)

後兩部分有一些個人的想法,也會比較困難一點。

在這個思想實驗中,Searle 實際上採取了兩個預設:

P1 這樣一本 rulebook 存在並且是有限的。

這一點很多人都意識到了。

P1.1 因為是思想實驗,只要是原則上有限就可以了。考慮到人的大腦及其歷史總歸是有限的,接受這裡的有限性假設並非是不合理的。

P1.2 這裡具體採取哪一種演算法是無關緊要的。但是,它必須是大腦實際採取的那種。當然,不同人的情況未必是完全相同的。這裡只需要某個理解中文的人即可,所以,這樣的 rulebook 未必是,甚至肯定不是唯一的。

P1.3 順便一提,這本 rulebook 是沒有存儲區(硬碟)的。情況看上去是這樣的,如果我今天和明天問它同一個問題,它也不會意識到(而一個正常人當然會意識到,Hofstadter 討論過這個問題)。不過通用圖靈機(見後 P2.4) 的內存原則上是可以任意大的。所以我們總可以把所有歷史都直接放到內存或作為輸入序列的一部分,或者這本 rulebook 就必須是即時的。

P1.4 在 rulebook 中所有符號和操作都是離散的,而世界總歸是連續的(考慮到我們問題的量級,這裡不需要考慮量子力學和標準模型)。這裡一個非常合理的假設是自然在被表徵時必然經過了編碼,而後者畢竟是離散的,這個編碼過程必須被排除在意識之外。也就是說,它和 content externalism 是不兼容的。

P2 依據 rulebook 對符號(心理表徵 psychological / mental representations) 的操作對於意識/智能 (consciousness / intelligence) 是完全充分的。

P2.1這裡的充分性不僅僅是本體論的充分性,即例如因果或隨附 (supervenience) 性意義的充分,它還必須包括認識論的充分性,也即解釋 (explanatory) 層面的充分性。否則這個思想實驗就失去了效力。

P2.2 在這個思想實驗中沒有考慮時間因素,中文屋子(及其中的人)對問題的回應速度可能遠慢於一個理解中文的普通人。(Dennett 在 "Fast Thinking" in &<Intentional Stance&> 1987 中就對這個思想實驗給出了這個方面的回應)

P2.3 另一方面,這個思想實驗也不考慮例如大腦中可能存在的大量並行計算過程,由於中文屋子裡只有一個人,所以所有操作必須是串列的(傳統的電腦操作系統(單核)的分時方式本質上也還是串列的)。(Dennett 在 &<Consciousness Explained&> 1991 Ch 14 中就這個方面對 Searle 做出過回應)

P2.4 前面兩條有很深刻的基礎,在於它假設大腦是一台通用圖靈機,根據圖靈的定理,所有這些通用圖靈機具有相同的效力,差別可能存在於效率上。也就是說,這種考慮要求,任何通用圖靈機在進行相同或相似的計算時都具有意識。

那麼同時接受P1和P2的到底是什麼呢?Computational Theory of Mind (CTM)

也就是說,Searle 的靶子是,也僅僅是 CTM。這個思想實驗的全部適用範圍就是攻擊 CTM。只要不接受 CTM,就不會受到這個思想實驗的影響。(順便一提,儘管 Dennett 在很多地方對這個思想實驗做出過很多不同的回應(不止上面提到的兩個),不過 Dennett 也是 CTM 的反對者 (Computational theory of mind 上把 Dennett 歸於 CTM 的支持者是明顯的錯誤))

對此再說幾點

S1 Searle 的批評並非是無的放矢,事實上 CTM 在哲學界的著名主張者包括 Jerry Fodor 和 Zenon Pylyshyn 等等。而其在當時的認知科學中是絕對的主流,即便在今天也有很多支持者,不過它在近幾十年間受到 connectionism、embodied cognition、enactive cognition 等劇烈衝擊。

S2 很多人似乎認為,這本 rulebook 本身就有智能或者意識,然而很遺憾,即使是 CTM 也否認這一點 (這種想法的根本錯誤在於認為,如果意識不在這裡,就必定在那裡)。計算從來都是一個動態過程,必須在它的實現中才可能具有智能。而即便我們談論的是抽象的計算,它也不存在於那本 rulebook 之內。對於到底什麼是計算,尤其是在物理系統中的計算究竟是什麼實際上是一個非常複雜的技術問題。參見 Computation in Physical Systems。

重點澄清一些概念的範圍

(初學心靈哲學會碰到很多主義和理論 (-ism / theory),釐清它們之間的邏輯關係是一個比較困難的問題,也是真正入門的基礎)

2.1 Behaviorism

行為主義可以分為本體論的行為主義 (logical behaviorism) 和方法論的行為主義 (methodological behaviorism)。

本體論的行為主義顯然不會受到這個思想實驗的影響,既然中文屋子可以(在語言方面)如普通人一樣做出回應(如果我們不考慮時間因素或者讓思想實驗中的個體具有非常快的速度等等),那麼它就已經具有了相關意識。在 Searle 看來,真正的理解,如同其他的意識活動是隱藏在行為和行為傾向後面的,並且可以獨立於後者存在。但本體論行為主義者當然不接受這一點。

方法論的行為主義的話,很顯然的一點是,中文屋子(及其中的人)最多只能在語言方面和一個普通人一樣,它不能在其他方面(例如表情、動作等等)和人一樣,僅就在這個意義上,中文屋子論證就已經不能用於攻擊方法論行為主義了。因為後者是把我們所有語言和非語言的行為都歸於其中的。

如果人們真的想要什麼攻擊方法論行為主義,顯然哲學殭屍 (philosophical zombies) 更加適合,其適用範圍也要廣的多(當然嚴格意義上也不能這麼說,因為中文屋子適用於 CTM,而殭屍適用於物理主義,二者僅僅是相交而非包含關係,見2.3)。對此參見這個回答哲學殭屍是什麼?的相關部分。中文屋子和哲學殭屍不是一回事,殭屍必須在所有物理方面和人一樣,而中文屋子明顯做不到這一點。

在此我們可以很清楚的看到,儘管 Searle 使用了 Turing Test 的架子,但這個思想實驗及其適用範圍和 Turing Test 沒有關係。只有在接受 CTM 的條件下這個思想實驗才有效力,然而人工智慧未必必須在 CTM 的假設下才可能實現。順便一提,根據 Strong AI - Wikipedia ,Strong AI 也是一個多義詞,其中一個意思是 CTM,在這種解釋下它確實受到中文屋子論證的攻擊。

Searle 並不想談論我們要如何檢測意識,也即哲學傳統中的他心問題 (problem of other minds)。Searle 一直在討論的都是,也僅僅是 CTM。

2.2 Functionalism

CTM 確實可以視作功能主義的一種,但很顯然,功能主義並不需要預設 P1 和 P2,尤其是 P2 這麼強的預設。當然,當 Putnam 第一次把功能主義這個概念介紹給心靈哲學時,他確實是在說某個版本的 CTM。然而在今天功能主義的範圍要比當初大得多。

既然中文屋子論證僅適用於 CTM,它就不可能在全局意義上攻擊功能主義。

Searle 確實反對功能主義的核心主張,即 multiple realizability 的可能性。Searle 本人關於意識的觀點是 biological naturalism。然而他反對多重可實現性的論點和這個正面觀點並不能從中文屋子論證中得出。

另外值得一提的是 CTM 和 representational theory of mind (RTM) 的關係。在很多時候,二者可以直接互換,但在嚴格意義上 RTM 是功能主義的一種,而 CTM 僅是 RTM 的一種。另外,high-order theories of mind 是 RTM 的一種,其中包括 HOT、HOP和 self-representational / first-order theories of mind。CTM 可以和 HOT 兼容,和其他兩種不兼容(請認真思考為什麼) 。

2.3 Physicalism

至於物理主義。物理主義又不是只有功能主義這一種,更不要說僅僅 CTM 了。中文屋子論證本來就不是用來攻擊物理主義的,何況 Searle 本人也算是物理主義的支持者。

另一方面,CTM,或者更一般的功能主義儘管常常是物理主義的,但並不必然是。CTM 完全可以有基於實體二元論的形式。它也受到中文屋子論證的攻擊。

關於 qualia,這個思想實驗並不涉及到 qualia。儘管 CTM,或者更一般的功能主義一直受到 qualia 問題的攻擊,然而這並非是這個思想實驗所依賴的思路。當然,如果我們接受 cognitive phenomenology 中的 phenomenal intentionality thesis (PIT),認為理解必然依賴(或 be determined by) 於某些現象狀態,這個論證就可以和 qualia 相關聯。但這個思想實驗並未直接依賴這個直覺,在這個意義上,它並不需要依賴 PIT,因此,它和 qualia 沒什麼關係。

關於對這個思想實驗的回應就不在這裡提了。寫一點擴展的東西。

Searle 在介紹他關於這個思想實驗的直覺後,認為這個直覺支持了一個更加廣義的議題,即純粹語法對於語義是不充分的 (syntax by itself is neither constitutive of, nor sufficient for, semantic content)。這個議題實際上是非常有趣的,我們可以簡單看一看 Searle 沒有討論的幾條思路,這樣也有助於理解 Searle 的論證在更大的背景中處於一個怎樣的位置。

3.1 語法對語義的不充分性,很容易讓我們聯想到 Skolem 定理,(有限)公理(隱定義)對於模型的確定是不充分的。在中文屋子論證中,rulebook 上的符號本身是沒有語義內容的,那麼對其的語法操作也不足以產生語義。在數學哲學中也有此議題的一個對應問題,即 Caesar Problem。

當然這些問題都是相對於形式語言 (formal language) ,而中文屋子討論的是日常語言。(Searle 本人從本科到 Phd 一直都在當時的 Oxford 學習,他自己也是日常語言哲學的支持者)。這裡似乎還有一個重要的維度,即語用維度。在 Searle 那裡,當說中文屋子裡的人不理解中文時,語義內容必須是完全固定了的(在一個理解中文的人的心靈中)(請思考為什麼 Searle 必須,或者實際上接受這麼強的議題)。因此在 Searle 看來,語義是可以獨立於語用存在的。在這個問題上,Searle 背叛了對其產生深遠影響的 (later) Wittgenstein 和 J.L.Austin等人。

3.2 CTM 的關鍵即計算和符號操作,這很容易讓我們想到數學的形式主義 (formalism)。因此我們自然就會想到 Brouwer 對形式主義的攻擊。這條線索把我們引向了 Wittgenstein 的 rule following problem。

Kripke 對 Wittgenstein 的解讀也恰恰表明了語義對於語法的非固定性,通過對維特根斯坦的遵守規則悖論的重構,Kripke 給出了一個清晰的論證,並給這個問題提供了一種懷疑論解讀 (skeptical solution: Kripkenstein)。當然,這個論證的結論要比我們這裡的考慮強很多。

不過很容易想到,CTM 的支持者可以選擇 dispositionalism 作為回應 (似乎也僅僅能選擇這種回應)。

不過這條思路並沒有到此為止,它對 CTM 還有一個重要的攻擊,或者更一般的,對 RTM 的攻擊:RTM 無法解釋心理表徵究竟是如何表徵其他事物的。在這裡仿照 Kripke 的方式很容易構造一個無窮後退的歸謬論證 (順帶一提,這種論證方式還適用於對 sense-data 的攻擊)。Fodor 在某些時候似乎很自然的認為,某些心理表徵具有原初的 (primitive) 表徵/意向性。但既然它們僅是一些心理符號,就自然要受到遵守規則問題的攻擊。

更一般的,這個攻擊可以視作 Quine 的 the indeterminacy of the translation thesis 的迴響。

3.3 順著這條思路,我們可以在 Robert Brandom (&<Making It Explicit&> 1994) 借用 rule-following problem 所考慮的問題找到一些相關的東西。Brandom 認為,Wittgenstein 通過對遵守規則問題的討論得到了兩個議題:1.意向性行為(遵守規則)是規範性的,或具有規範性因素;2.這種規範性來源於實踐。正如我們在3.1中所討論的,Searle 並不會接受第二個議題,後者可以用 Wittgenstein 著名的口號「意義即使用」來表達。但是在 Searle 那裡,意義,或者說語義,已經在(理解中文的)人類的心靈中固定了,這正是中文屋子及其中的人無法達到的東西。於是我們僅需要簡單考察下第一個議題。

如果意向性,或者人類的意向性是規範性的,似乎就很難看到中文屋子及其中的人如何達到這種規範性,Searle 很可能會樂於接受這條思路,通過提供一種不同於匹茲堡學派的規範性的概念範圍。對此我在回答的下一部分簡要討論。

一個關鍵在於,在匹茲堡的諸位看來,理解,或者更一般的意向性行為發生在 logical space of reasons 之中,它必須能夠是 reason-giving 的。中文屋子及其中的人儘管能用中文回應中文問題,但卻不能給出相應的理由(用例如英語),它/他不能把這個中文故事的「理解」放入到整個推理的關聯之中,因此它沒有產生相應的必要的意向性。這個要點也很可能正是 Searle 在這個思想實驗中所依賴的關鍵直覺。(Dennettt ibid 1991 中的回應恰恰是在這一點上)。

然而,匹茲堡的諸位未必不能接受 CTM 在本體論意義上的有效性,他們最多,也一定會反對 P2.1:CTM最多只在 subpersonal level 上解釋了意向性的產生,而不是在 personal level 上的,因此,它不可能有完全的解釋效力。很顯然,Searle 藉由這個論證也不能超出此,儘管他實際上走的更遠了。

在上一部分的討論我一直都在試著把 Searle 的論證從理解轉移到更一般的意向性行為上。情況是這樣的,Searle 在論證中的核心要點在於,他區分了 instinct 和 derived intentionality。在他看來,中文屋子最多只能產生 derived intentionality,而智能或者意識則本質的具有或可以具有(產生) instinct intentionality。後者是語義產生的充要條件,在這種意義上語義是在理解中文的人的心靈中完全固定的。正如我們在3.3中討論的,Searle 可以賦予 instinct intentionality 一種本質的規範性,但這未必是匹茲堡們想要的區分。

Kripke 在這一點上和 Searle 站在了同一邊,於是他對 Wittgenstein 的理解只能是懷疑論式的。因此在他看來,Wittgenstein 就不得不在這個問題上選擇懷疑論態度,或者說,逃避問題。

自然,我們已經可以看到一條從 Searle 的論證中逃出的路線,即否認 instinct 和 derived intentionality 的區分(或者明確區分)。很多哲學家都指責 Searle 在這個思想實驗中混淆了 intentionality 和 awareness of intentionality。這個批評是非常關鍵的,在於它具有一種深刻的根本性或說根源性。

當然,這遠不是唯一的出路,還有譬如在 P1.4 中我們提到的內容外部論。

但是,Searle 這個論證的主要對手 Fodor 在這個問題上和 Searle 的觀點是完全一致的,Fodor 也接受兩種意向性的區分。這就使得 Fodor 在這個問題上顯得很矛盾,他一開始接受 robot reply,後來又轉而徹底否認這種回應的有效性,轉而認為圖靈機的示例不能包括一個操作者(中文屋子裡的人)(這種回應方式似乎只有 Fodor 支持過)。在某些時間,Fodor 又似乎轉而支持語義外部論。Fodor 在這個問題上展現出的矛盾性似乎恰恰表明了這個區分在這裡的問題的關鍵位置。

在這個回答中,我有時沒有區分智能和意識,或更一般地說,意向性和意識,但嚴格來說二者並不能混淆,儘管在 Searle 那裡並非不可以。要仔細的區分二者需要比這裡多得多的篇幅,David Chalmers (&<The Conscious Mind&> 1996)認為 Searle 在這二者之間有一個隱藏的 shift,這會使得他的論證無效化。


我個人非常,非常,非常喜歡Chinese Room Argument,儘管它離它的原本想要達到的最終目的還差了一些——駁倒圖靈測試背後的想法,即行為主義或功能主義(Behaviorism/Funtionalism),或者說,一切將心靈現象還原為物理現象的思想流派(Physicalism)。這個任務要等到1986年Frank Jackson寫"What Mary Didn"t Know",提出Knowledge Argument,才更接近完成。我喜歡它的主要原因1.名字里有Chinese 2.簡潔形象好玩兒,展現了哲學命題的力量。

1980年,UCBerkley的哲學教授John Searle發表了一篇題為"Minds, Brains and Programs"的論文。在這篇論文中,Searle旗幟鮮明地反對圖靈:他認為一個計算機程序通過圖靈測試並不意味著它具有智能,而至多只能是對智能的一個模擬。為了論證自己的觀點,Searle提出了一個名為「中文屋」(Chinese Room)的思想實驗。

這個思想實驗的內容大概如下。

想像一個從小說英語但完全不會中文的人被反鎖在一個房間里。房間里有一盒中文字卡片和一本規則書(rulebook)。這本規則用英文寫就,告訴房間里的人一些如何操作漢字卡片的規則,但並沒有告訴這個人任何一個中文字或者中文詞句表示的含義。(注意,這本規則不是漢英字典!只是一個操作特定漢字卡片的規程)這本規則的本質其實是一個程序(任何一個圖靈機上可運行的程序都可以被寫成這樣的一本規則書)。現在,房間外面有人向房間內遞送紙條,紙條上用中文寫了一些問題(輸入)。假設房間內的規則書(程序)寫得如此之好,以至於,房間里的人只要嚴格按照規則書操作,就可以用房間內的中文字卡片組合出一些詞句(輸出)來完美地回答輸入的問題。於是,這個人提供的輸出通過了關於「理解中文」這個心智狀態的圖靈測試。然而,Searle指出,這個人仍然一點不會中文。更進一步,在無論是在這個房間中,還是考慮這個房間整體,都找不到任何理解中文的心智存在(There is no mental state of understanding Chinese in the room)。因此,通過圖靈測試並不意味著擁有智能或者心智。

(是的這張照片就是Searle)

下面是1999年Searle簡寫過的一個版本:

「Imagine a native English speaker who knows no Chinese locked in a room full of boxes of Chinese symbols (a data base) together with a book of instructions for manipulating the symbols (the program). Imagine that people outside the room send in other Chinese symbols which, unknown to the person in the room, are questions in Chinese (the input). And imagine that by following the instructions in the program the man in the room is able to pass out Chinese symbols which are correct answers to the questions (the output). The program enables the person in the room to pass the Turing Test for understanding Chinese but he does not understand a word of Chinese.」

Chinese Room Argument其實比表面上看要複雜。那篇80年的經典論文整整寫了20頁,這個Argument本身只佔了1頁。在後面的十多頁中,Searle做了幾乎所有20世紀歐美哲學家寫論文時候大部分時間在做的事情——考慮可能的反駁,並試圖將其一一消解。在這個時代做哲學,光有一個牛逼的直覺是不夠的,還得擅長以別人信服的方式論證和捍衛自己的觀點。Searle在發表這篇論文前已經在各學校的研討會上和其他哲學家交流過自己的想法,對於各種質疑,Searle也是見得太多了。在文章的後半部分Searle回應了對中文屋實驗的至少六類不同的反駁:系統反駁(System Reply), 機器人反駁(The Robot Reply),大腦模擬器反駁(Brain Simulator Reply),組合反駁(Combination Reply),其他心智反駁(Other Mind Reply),多實現反駁(Many Mansions Reply)等。(這些都不太好翻譯…見笑了)

這六類反駁中,比較符合大部分人直覺的是前兩個,System Reply和Robot Reply。Combination Reply其實是把前兩個組合在一起。另外三個,Searle回應所用的篇幅相對較小,因為他認為這些反駁並沒有駁到點上,對此我也同意。因此在接下來的篇幅中主要討論一下System Reply和Robot Reply。

先來看System Reply。

一個很直覺的想法是,雖然房間里的人不懂中文,房間里的書、卡片也不懂中文,但是,考慮這個房間作為一個整體的話,這個房間似乎可以說是懂了中文的。之前其它答主們的回答都是基於類似的直覺。正如 @張居正 等知友提到,就像人類的腦細胞本身沒有意識,但是大腦作為腦細胞的集合體是有意識的。這就是System Reply了:房間作為一個系統,總體來說具有某種心智狀態。

然而Searle嘿嘿嘿一笑,祭出了下一個更變態的思想實驗。他說,想像房間里的這個人在房間里呆了足夠久,已經把規則書和中文漢字的形狀都牢記在心。於是我們打開房門讓此人走出房間。現在,她走在大街上,自己本身變成了一間行走的中文屋。房間的其他部分,即規則書和漢字卡片,都已經被她內化了。Searle稱此情景為Internalized Room。此時,如果別人傳遞給她中文字條,她還是能對答如流,但是她並不知道任何這些筆談的真正內容!如果我們問她,我送你一朵小紅花吼不吼啊?她說吼啊!但她並不知道我們在談論的任何一個詞,比如「小紅花」、「我」、「你」,「吼」等等的一丁點兒含義。即是她面前有一朵小紅花,她也不會知道我們的句子其實是關於這朵花的。這麼一看,房間整體似乎也還是不懂中文的。

Searle因此指出,通過圖靈測試的中文屋和它背後的程序所達到的只是對於「理解中文」這個心智狀態的模擬,而並不是真正的對中文的理解。(鐵杆的System Reply的支持者會說,內化了規則書和卡片的那位同學雖然本人並不懂中文,但是她大腦中的某個子系統(sub-system)理解中文。這種反駁我個人認為有些勉強。)真正的對語言的理解,乃至任何一個心智狀態的存在,都需要思維主體知道心中所想到底意指何物。這一點在哲學上被稱為Intentionality(是不是翻譯成意向性?但好像和現象學那個意向性不是一個東西)。Searle認為,計算機和程序無法達到意向性,它必須由人腦或者具有人腦類似的生理結構和組成的組織才能達到。我不太同意Searle在這裡的看法,限於篇幅和主題,在這裡暫時先放過。

如果System Reply有問題,Searle的反對者們還有Robot Reply。

有些人認為,意向性完全可以由電腦和機器來達到。既然這個房間作為一個系統不能把漢字元號和它們所對應的物體聯繫在一起,那麼我們想辦法建立這種聯繫即可。把這個房間接上一系列感測器,比如攝像頭、麥克風、觸覺、味覺感測器等,以及一系列運動處理器,簡單來說,把這個房間變成一個機器人的大腦。再修改一下規則書,使得這個房間不僅僅能處理中文文字的輸入輸出,而是可以處理整個機器人身上的聲光電觸熱等感測器所受到的「感覺」信號,並且給出相應的輸出,不僅有文字、聲音甚至還有肢體行動。這個房間可能需要縮小,比如用蟻人的技術縮小後放入機器人腦中;或者不用縮小,我們讓這個房間遠程接收信號。現在,我們面對這個機器人,指著手裡的小紅花,說我送你小紅花吼不吼啊?和System Reply里的姑娘不一樣,機器人不僅僅會回復說吼啊,它的視覺系統就會鎖定小紅花這個物體,並且微微一笑接過花朵。我們是不是可以說這個機器人知道了它所說的漢語句子的含義,從而也真正具有了「理解中文」這樣一種心智能力呢?

Searle依然不肯退縮。他說,還記得機器人腦袋裡的房間里的歪果仁嘛?這個小人兒(Homunculus, 拉丁文homo的小詞,直譯即小人兒)在屋裡收到的來自機器人感測器的信號,完全可能並非是直接的圖像、聲音等,而是一串數字化的數據。比如,機器人的「眼睛」,即攝像頭,看到一朵花時,並不是說房間里有個屏幕上面反映出了小花,而是攝像頭採集到了一串數據傳送到房間里由我們的小人。此時,儘管小人給出了一串輸出數據,引領機器人「說」出了中文的「花」這個詞語,並且「伸手」去採摘,但小人仍然不知道他剛才的操作是關於一朵花兒。意向性似乎依然缺乏,因此真正的理解似乎還是不存在。此為Searle的Homunculus Argument。

對於Homunculus Argument的回應方式之一是將System Reply和Robot Reply結合在一起,即所謂的Combination Reply。雖然屋內小人不理解中文,但機器人作為一個整體似乎真的具有了某種心智理解能力。至少在外觀、行為、功能上,這個機器人不僅可以用中文對答如流,而且處理一切事物似乎與正常中國人無異了。我們似乎沒有理由說這樣完美的機器人不具有智能,就像《西部世界》里的Hosts,或者機械姬:他們看著像人,摸著像人,說話做事兒都跟人一摸一樣了,有什麼理由拒絕承認他們具有心智呢?

關於這點,John Searle給出的回應不是很令我滿意。至少在我看來,他只是反覆強調某些特定的意向性只能由人腦的生理結構給出,但對於這個斷言本身他沒有提供更深層次的理由。大家可以自己把他的論文找來看看,自己得出自己的結論。

至於Chinese Room Argument是否成功否決了圖靈測試的有效性這個問題,和所有哲學問題一樣,其實是見仁見智。我個人的傾向於認為,Searle的大方向是正確的:圖靈測試及其背後的Functionalism是不對的。不過Chinese Room還是離真正的核心問題差了一步。完美執行人類所有功能的機器人仍然可能缺乏真正的意識,不過這裡的理由在Chinese Room Argument里並沒有涉及。如前文所述,意識的真正核心問題,至少在當今大多數哲學家看來,可能是Frank Jackson在1986年的論文中指出的Qualia。然而這又是另一個問題了。挖個坑,以後填。

不管Chinese Room Argument是否駁倒了圖靈,我還是覺得它是一個非常有意思的思想實驗,關於它的討論也集中了許多最優秀的當代哲學家的工作。然而比較諷刺的是,這個叫做中文屋的思想實驗在中國被討論得並不多。在這裡做了一些微小的介紹,希望大家一起討論,多多批評指正。

1/15/2017補充 這幅漫畫的最後一格反映了很多評論中的朋友們的感覺 :P

參考文獻

1. Searle, John. R. (1980) Minds, brains, and programs. Behavioral and Brain Sciences 3 (3): 417-457 這就是那篇著名的論文原文,有免費的pdf在這裡可以找到:

http://cogprints.org/7150/1/10.1.1.83.5248.pdf

2. The Chinese Room Argument Stanford Encyclopedia of Philosophy上關於Chinese Room的介紹,寫得非常好,把主要流行的各大Reply都總結進去了。

3. Block, N., 1978, 『Troubles with Functionalism』, in C. W. Savage (ed.), Perception and Cognition: Issues in the Foundations of Psychology, Minneapolis: University of Minnesota Press. 這是我校老師Ned Block寫的一篇文章,在Searle的文章之前,也談到了類似的想法。圖靈測試背後的想法即是functionalism,而Block這篇文章也是從一些角度指出了functionalism可能存在的問題。巧合的是Block也想到了一個跟中國有關的思想實驗,叫The Chinese Nation。文章很短,而且Ned Block寫東西很好玩,即使為了Chinese Nation也值得一看。

4. Turing, A 1950, 『Computing Machinery and Intelligence』, Mind, 59: 433–460. 圖靈自己對於圖靈測試的闡述。


沒有。首先得證明這個指令表(程序)寫得出來。

-------------------------------------------------------------------

我補充一些東西吧,之前在手機上打字不方便。

首先@Philodoxer已經很好地介紹了塞爾中文屋論證的內容,這裡就不贅述了。

另外我想討論一下圖靈測試的真正意圖(我理解的)。

「如果一台計算機能夠在問答中讓人無法分辨是否是計算機,那麼這台機器就具有了智能。」 圖靈提出這種測試方法,是因為他覺得無法定義"智能「是什麼,這樣,也就無法有一個客觀的方法去判斷一個東西是否符合定義了。在這種情況下,一種根據行為去反推被測試對象是否具有相應的能力的方法,就被提出來了。這裡通過行為去判斷被測對象是否具有這種能力的是,是普遍認可具有「智能」或者「理解」能力的。

我認為這樣一種根據行為反推是否具有某種能力的測試是很合理的,實際上,我們在日常生活中,經常都在使用這種方法。我們其實無法知道別人是否有智能(或其他能力),但是我們從別人的行為中,反推出他們是有智能的(或其他能力)。舉個簡單的例子,比如我們要面試一個工程師,我們想知道他是否掌握了某種能力,我們也只能通過考一下問題,看他的回答(行為)去判斷他是否掌握了這種能力。並沒有一種深入到這種能力的基本機制裡面的判斷方法(比如看他在思考的時候,通過檢查他的大腦神經網路怎麼運行,是否實現了某個演算法,或者檢查是否激活某個特徵單元,就判斷他掌握了這種能力)。圖靈測試只是這種方法(根據行為反推是否具有某種能力)的一個變種,它通過阻止測試和被測直接接觸,避免了一些無關能力上的糾結(機器上不方便實現或勿需要實現的能力,比如吃飯……)。

還有一個需要強調的是,這種問答測試是開放的,也就是基本上你可以問所有的問題,所以你不能只根據幾分鐘或一個較短的時間裡面的問題就去做出判斷,因為在幾分鐘內你問的問題非常有限,根據幾分鐘的回答去判斷隨機性是非常大的。就像上面的面試例子一樣,你不太可能根據幾分鐘的問答就判斷面試者的能力,更何況是一種更開放式的能力——智能。像下面這樣的報道,我覺得是非常不負責任的:

俄羅斯計算機「尤金」成為歷史上第一個通過圖靈測試的人工智慧

而且,居於普通人對圖靈測試的陌生程度,他們無法了解在哪些問題下計算機會比較容易露餡,所以讓研究自然語言處理的相關人員去做測試,會比較有的放矢。這樣也可以避免像上面的「尤金」一樣的程序,通過胡攪蠻纏,把時間耗掉從而讓測試者獲得不了更多的信息。

另外,我覺得智能可以是一個度的問題,而不是一個「有」或者「無」的問題。如果用在「圖靈」測試中堅持的時間(被發現是機器的時間)來衡量這個智能度,可能會更加適當。試圖去定義一種專用能力的圖靈測試,也可能是不太合理的,因為圖靈測試就是要求被測在開放問題下做回答,如果限定了具體能力,就不太有意義了。所以,不應該有「識圖」圖靈測試,或者「圍棋」圖靈測試,這些能力,就還是分別叫「識圖」測試或者「圍棋」測試比較好。

回到塞爾中文屋的問題,我認為塞爾中文屋論證的最大漏洞,就是預設了已經有了這樣一種指令表(程序),可以令人信服的通過以「中文」進行的圖靈測試,如果這樣一種程序並不存在,那塞爾所有的論證都是無意義的

可能有些網友會不同意「如果這樣一種程序並不存在」的說法,認為現在使用神經網路、深度學習等等方法的自然語言處理已經能夠滿足這個程序的條件了。然而並非如此,圖靈測試完全是一種開放式的測試,並非翻譯或者簡單的問答機器人這樣一種專用的程序。圖靈測試可以包括很多的內容,比如對常識的理解,對世界的認識,甚至你可以嘗試教它一些東西,看看它能不能掌握,等等。

人工智慧史上有這麼一句話(大意):只需要再多一條規則,人工智慧就能馬上實現。我認為這句話放在今天,仍然是有效的。即使我們已經不再直接編製規則,而採用數據中自動產生規則的方法,我們仍然在走著老路,只是這句話變成了「只需要更多一組的標記數據」……

理解或者智能是否真的能用經典的機器實現,仍然是一個未知數,或許我們需要對這些能力更多的理解,才能掌握這些知識,我也期盼有這樣一天的到來……


我覺得不能。

這個實驗要求你想像一位只說英語的人身處一個房間之中,這間房間除了門上有一個小窗口以外,全部都是封閉的。他隨身帶著一本寫有中文翻譯程序的書。房間里還有足夠的稿紙、鉛筆和櫥櫃。寫著中文的紙片通過小窗口被送入房間中。房間中的人可以使用他的書來翻譯這些文字並用中文回復。雖然他完全不會中文,房間里的人可以讓任何房間外的人以為他會說流利的中文。

Searle創造了「中文房間」思想實驗來反駁電腦和其他人工智慧能夠真正思考的觀點。房間里的人不會說中文;他不能夠用中文思考。但因為他擁有某些特定的工具,他甚至可以讓以中文為母語的人以為他能流利的說中文。根據Searle,電腦就是這樣工作的。它們無法真正的理解接收到的信息,但它們可以運行一個程序,處理信息,然後給出一個智能的印象。

然而我認為如果有爭議就是這一句上:「房間里的人不會說中文;他不能夠用中文思考。但因為他擁有某些特定的工具,他甚至可以讓以中文為母語的人以為他能流利的說中文。」

事實上,房間里的人類和工具書和紙和筆是構成了一個整體。可以說這個房間里的人類不會中文,但是這個房間「它」會中文。就像大腦的一個細胞不會思考,但整體就會思考。

不然的話我們就連人類自己是不是真的是智能都沒有辦法判斷了。

你看啊,視網膜細胞是不理解它為什麼要轉換光成電信號再傳遞給大腦的細胞,而一個大腦細胞是不知道它傳遞的電信號有什麼用的,所以整個大腦其實是不會思考的。


一個嚴重低估了阿蘭·圖靈的哲學家琢磨出來的思想實驗。

參考:機器中的靈魂會是量子比特么?

即使從歷史角度來看,中文屋也根本沒有超越阿蘭·圖靈的思想,圖靈本人在中文屋提出30年前,就考慮到了「我們其實也無法確定彼此是否有意識」這個因素,並寫道「與其在此糾纏反覆,不若以人間常理度之(instead of arguing continually over this point it is usual to have the polite convention that everyone thinks)」。圖靈測試不過是對機器沿用「人間常理」,如果不能具體解明機器異於人之處究竟為何,質疑它不過是質疑人間常理本身,並無更多新洞察。

圖靈原話的出處:Computing Machinery and Intelligence A.M. Turing

中文屋的死穴,就在於它根本沒有區分機器和人類的能力。固然中文屋裡那種用查找表來回答問題的方式不是人腦的作風,但它也同樣不是足夠優秀的演算法的作風。如果僅因為是「用機器做的」就能將後者等同於不包含任何理解的純檢索,那又為何不能把人腦中的神經活動貶為其同類?實際上,中文屋說明的事情不過是:並沒法保證任何看起來聰明靈活的對象(可以是機器也可以是人類)100%有意識。我完全可以用中文屋的邏輯懷疑任何人並沒有思考能力,因為沒有任何生理學的證據表明他的神經活動不是把現成的反應機械地檢索出來而已,只是這些反應恰好都對應了合理的對答。 任何人如果繼續質疑通過圖靈測試的機器沒有意識,那麼他也有完全同樣強度的理由質疑測試中的人類(「對照組」)沒有意識。如果他決定忽略後者的可能性,那麼這一結論也同樣支持他忽略前者的可能性。在任何一種情況下,圖靈測試的有效性都不減少。

更進一步地,哲學家丹尼爾·丹尼特提出過一個很有趣的反駁:中文屋的思想違背進化論

參考:何不演化成殭屍?

圖靈測試不過是對機器沿用人類辨認同類的習慣而已,所以任何質疑通過測試的機器沒有意識的想法,都相當於質疑其他人類。丹尼特的論述從另一個角度達到了同樣的效果:如果行為表現不能用來檢驗意識,你怎麼保證現實中的其他人不是自然演化出來的殭屍呢?

說明一下:作者的意思是,假如對象可以熟練地和人對話而不理解話的內容,那就說明「理解內容」的能力對生存而言並無用處,真正有用的是前者而非後者。但是仔細想想,人類為什麼會統一進化出對生存毫無用處的性狀呢?唯一能解釋這種進化結果的緣由是:這兩種能力是捆綁在一起的,所以前者總可以用作後者的測試(中文房間自然站不住腳了)。


如果真的存在這樣的卡片序列,那麼擁有智能的是這個卡片序列本身。

我認為計算的本質是把信息流的空間屬性轉換為時間屬性,以節約空間。


非常感謝排名第一的Philodoxer的詳細講解,看完我覺得中文屋思想實驗沒有突破或者否定圖靈測試理論

很明顯,中文屋裡面的這個規則書-rulebook才是人工智慧,裡面不會說中文的人,不是智能。這個人只是擔任中文屋裡面的查詢,以及接收和輸出系統的一部分。把這部分用現代化工具集成在一起,其實就像Google搜索系統。google不能理解你的輸入到底是什麼意思,但他能給你你要的結果,但那明顯不夠智能。

把不會說中文的人,直接用具有接收、查詢和輸出三項功能的簡單程序替代,這個實驗的過程和結果也不會有任何差異。但是要讓對方不能察覺到自己是在和機器對話,並通過圖靈測試,那你無論怎麼改善接收、查詢和輸出這3項都做不到。唯一能讓中文屋實現通過圖靈測試的方法,就是讓rulebook完善到能夠天衣無縫的回應人類的任何中文語句盤問,而不露餡,看起來和中國人一樣。完善到這種程度的rulebook本身就是人工智慧。

所以我們要關注的是規則書,它才是智能。不懂中文的人不是智能,把他用程序代替,討論的時候,就不會混淆進這個人懂不懂的因素了。這樣的rulebook太難了,目前人類還無法編出來,規則書編出來的時候,無疑就是實現人工智慧的時候。

所以我認為中文屋思想實驗應該沒有突破或者否定圖靈測試理論


真正搞AI科研的人會在乎圖靈測試之類的概念么?不會,他們在推公式寫代碼攢論文。

真正搞物理科研的人會在乎薛定諤的貓之類的概念么?不會,他們在推公式寫代碼攢論文。

真正搞博弈論科研的人會在乎黑暗森林法則之類的概念么?不會,他們在推公式寫代碼攢論文。

真正搞數值建模科研的人會在乎蝴蝶效應之類的概念么?不會,他們在推公式寫代碼攢論文。

為什麼你在乎?

因為你只聽得懂這些概念。


不就是圖靈測試中輸入端應不應該加入其它感測器的問題么。。。

如果把輸入端從純語言拓展為語言+圖像信息+音頻信息等等,讓圖靈機能夠把語言和其它感測器信號聯繫起來,不就沒有中文屋的問題了么。。。


什麼是「智能」?

如果一個東西看起來像鴨子,走路像鴨子,叫聲像鴨子,那麼它就是個鴨子——這是程序員和計算機科學家普遍接受的一種思維模式,可以將其理解為一種「實用主義」:既然你分辨不出來兩者有何區別,那把它們當一種東西不就行了,費那麼大力氣去糾結虛無飄渺的」本質「有什麼用嗎?

如果按照這種思維給「智能」下定義,那麼圖靈測試顯然是有效的。肯定有很多人不喜歡這種定義,不過目前我尚未見過其他靠譜的定義,畢竟人類對大腦的研究也就算是個起步階段,怎麼可能搞得清智能的「本質」呢。

可以說目前人類對大腦的研究和人工智慧的研究是完全脫節的,AI領域的研究者不可能停下來等生物學慢慢發展,所以AI的基礎一定是人類腦洞出來的數學模型而非大腦的工作原理。

放一個不知是否恰當的類比:據我所知物理學至今解釋不清楚高溫超導現象,但人們已經合成了許多高溫超導材料,那麼這些材料算超導體嗎?


問題是,這種rule book可能存在么?有沒有一種可能,除非是賈維斯一樣的AI助手,這種靜態的rule book是不可能存在的。從而變相的證明,這個測試和圖靈測試是等效的。

可以這樣設想,如果把這個rule book變成一段可以運行的程序,其實就沒有屋中人什麼事情了。只有這個程序可以通過圖靈測試,中文屋實驗才能成立。

我覺得,作者其實是做了個障眼法或者說是文字遊戲。在這個思想實驗中,屋中人就是魔術中的那塊布,它是用來吸引觀眾的注意力的。這個實驗真正測試的那個rule book(或者是等效的那個程序)是不是具有智能。


人類的細胞也不懂人類的語言和行為啊………


我覺得有意思的地方在於,Chinese room這個例子證偽了「存在智能這個東西」的假設。

我覺得它就是柏拉圖的理想型的延伸。一個在觀察中具有一切馬的特徵卻不是馬的東西,是不是馬?

問題在於,物理世界中根本沒有馬這樣一個東西,馬只存在於人的認知里。

智能也是一樣,物理世界不存在智能這個東西,只是我們構造了一個智能假設,然後去判斷什麼東西具有智能。然後我們拒絕承認符合這個假設的其它東西也具有智能,所以嘗試修改假設。

這可能是一個人類尊嚴問題,或者宗教問題。我們拒絕懷疑我們是獨特的。

我個人覺得這種拒絕是有害的,這會妨礙我們以後跟其他或者叫智能或者不叫智能的東西打交道。


人工智慧存在尚未得知,但中文房間我認為可以反駁的是用圖靈測試造出來的人工智慧.。

圖靈測試:

阿蘭·麥席森·圖靈1950年設計出這個測試,其內容是,如果電腦能在5分鐘內回答由人類測試者提出的一系列問題,且其超過30%的回答讓測試者誤認為是人類所答,則電腦通過測試.

那麼問題來了,對人工智慧的定義是什麼?它是可以假裝思考就算人工智慧呢?還是它確實有自己的思想?

圖靈測試給出的答案是:假裝會思考就算人工智慧.

當然我作為一名程序員並不苟同這個觀點.

這就如同1+1=2一樣,你在電腦中預留答案:每當有人輸入1+1=則自動彈出2

和電腦通過相加得出1+1=2從結果來看是一模一樣的,但要是輸入232343+324234=呢?

那麼第一種情況如果你沒有預留答案的話,它就不會出來,而第二種已經掌握了計算規則自然可以出來答案.

我認為,真正的人工智慧是編寫一套思維方式留於機器中,而不是把所有的答案告訴它然後對題而答.

綜上,個人觀點.若有異議,請理性討論


人工智慧課上討論了Chinese Room理論,自己在上知乎之前先思考了一下,結論是自己對John Searle的結論有異議。在知乎上發現張居正和我的觀點如出一轍,備受鼓舞哈哈~

John Searle認為,房外人所扮演的角色相當於程序員,房中人相當於計算機,而手冊則相當於計算機程序。因為房間里的人不會說中文,故不可能會用中文思考。因而計算機不能像人一樣思考。

但我認為贊同這一觀點的大多數人其實對「思考」這個過程的認識並不理性。人接收信息(看到聽到)到輸出信息(做出反應如駁斥或贊同等等),中間的「思考」過程是怎樣的。以我目前有限的科學知識來看,應當是人調用自己的記憶,並通過大腦中極為複雜的神經元網路,反覆對信息進行處理(神經突觸受到的刺激達到閾值把刺激傳給下一個神經元),最終輸出一系列的結果。我想思考就該是這樣一個過程,只是因為在人類大腦中的這種運算過程過於複雜,讓人感覺思考是一種超自然一般的存在,其實只要計算機能夠達到這樣的複雜程度,其思考能力會等同於人類的思考能力。

簡而言之,房間里的人不會思考,我是同意的。但房間里的人擁有了這本神奇的手冊,而且奇蹟般的能夠使用這本手冊,就等同於人類擁有知識存儲並學會調用知識處理知識,那麼(房間里的人-手冊-使用手冊的方法)這個整體就構成了一個會思考的人。


個人覺得中文屋實驗是在試圖回答一個不可能回答的問題。這裡的關鍵不在於如何證明或證偽人工智慧是否真正具有智能,而是在於我們有沒有能力證明或證偽這個命題。用康德的話說,就是在認識事物之前先考量我們認識事物的能力,如果我們試圖認識的事物超出了我們認識這個事物的能力,就必將陷入自我矛盾

雖然康德對時間、空間和無限可分性的二律背反在邏輯上不是完美的,但至少現在這種哲學態度還在影響著我們科學的發展。比如不論是經典物理學還是相對論,它們可以用數學方法描述時間和空間的原理,但卻不能否定時間和空間的存在。同樣,大爆炸理論可以還原到宇宙誕生前0.0000001秒,但不能言說大爆炸以前的世界,因為脫離了時間與空間假設的世界是不可言說的。這是因為經驗的認知不能否認先驗事物的存在,因為先驗是經驗的基礎,是假設,是前提。

對於先驗和經驗的知識問題,在討論人工智慧的本質這樣宏大的話題時就十分重要。所以問題在於:中文屋實驗是在描述一個先驗的知識還是經驗的知識?其實Searle對中文屋實驗的描述就或多或少地包含了先驗的成分。比如Searle多次認為:即使人工智慧可以完美地通過測試,也不能證明人工智慧在進行與人一樣的意識行為。也就是說,Searle認為這些東西是實驗(即經驗的認知)不可以證明的,因而也就涵蓋了某種對先驗知識的認識。

個人認為,Searle所涵蓋的所謂意識自我意識意向性,本身都是先驗的知識。意識不是經驗的結果,意識是對外界事物進行經驗的前提自我意識則更是自己對自己的意識的判斷;而胡塞爾說」一切認知都是關於某物的認知「,不是要在經驗上證明意向性,而是在於提出」不具有沒有意向性的認知「,而海德格爾對胡塞爾的理論的質疑,也是哲學範疇的,而不是經驗範疇的。

所以如果在討論人工智慧的過程中試圖跨越我們認知的界限,就必然會造成一些荒謬的結論。在此個人認為,可能會造成兩種荒謬的結論:

(一)認為人工智慧不可能擁有真正的意識,進而否定一切除我以外的事物具有真正的意識。 說明:其實人類在觀察外界的事物時,永遠是把外界的事物作為經驗的客體。如何證明我的朋友具有人一樣的道德感?我證明的唯一方式就是觀察該朋友在不同處境下的選擇,以及他是否用語言表達憐憫、正義的感覺,並與我自己的行為作比較。相反,我唯一確定的先驗性就是且僅僅是我自己的先驗性,我不能跳出我的先驗性去親身體會我朋友的先驗性,因為任何對他的認識都是我對他的認識,不是他對他的認識。同樣,如何證明貓狗等動物有意識?我們的證明同樣來自於貓和狗的某些行為與人類更相似,或者他們的解剖學結構與人類更相似,進而推導出他們可能與人一樣具有意識。但是我根本無法言說在貓和狗的大腦的神經元究竟組成了以意識沒有,因為我只能從我的角度揣測貓和狗的意識,不能從貓和狗的角度體會貓和狗的意識
  所以如果Searle可以越過實驗否定人工智慧的意識,那麼我們就可以把這個論調發揚光大。動物有意識么?貓狗的行為是不能夠證明的。我周遭的其他人有意識么?儘管他們在經驗上似乎是有意識的,但他們也可能像人工智慧一樣知識機械地回應環境,而沒有思考吧。結果就是我陷入一種極端的自我主義:即我不但否認了人工智慧的意識,我甚至否認了任何其它事物乃至其他人類的意識的存在。最後就變成了一個reductio ad absurdum的情況。

(二)完全反對Searle的觀念,認為認知實驗和解剖學觀察等經驗科學本身足夠證明人工智慧有意識。同樣,將這個觀點放大就可以證明其它事物跟我一樣都有意識。

如果我們完全反對或完全肯定用經驗的方式證明意識,最終得到的是「世間皆有意識」或「世間皆無意識」的論斷,而這兩個論斷本身是無意義的,因為「意識」如果沒有「無意識」就不是「意識」,「無意識」如果沒有「意識」就不是「無意識」。

所以對於Searle提出的實驗,最好的態度就是謙虛地承認:我不反對也不支持這個實驗,不是因為Searle實驗的設計,而是因為即使實驗成功了,對於「人工智慧是否真正有智能「這個問題我沒有能力回答。用實驗成功證明意識是不可取的,而跳過實驗成功去否定意識的存在是同樣不可取的。這種知識之存在與我認知能力的彼岸,我永遠無法得到。

所以就不要浪費時間去討論人工智慧是否具有真正的意識了,因為無法得到可信的結論。

註:全文為手動碼字。


不太明白題主所說的「反駁」是什麼意思?

中文房間和計算機沒有本質上的不同,它們都具有智能的屬性。

但有一樣是它們不具備,而人腦具備的:

自我意識。


There is no mental state of understanding Chinese in the room

這句話我覺得是關鍵,我覺得是錯的。感覺哲學家論證常常用很多undefined的概念。。


如果那套規則是靜態規則,外人只需要無限循環說同一句話,在足夠長的尺度之後就能發現回答里的循環結構。因此靜態規則是無法通過圖靈測試的。

如果那套規則會收集過往信息,按之修改回答策略,而且能模擬出與人類無異的行為,那套在自我修改的規則本身就可以被認為是一個理解中文語義的意識。它只理解中文語義(而不知道這些中文與真正現實物體的對應),是因為它沒有接觸過任何現實,就像一個從小不能動只能通過聽說了解世界的小孩。


如果一所房子里所有的燈都關閉了 我們能說它沒電嗎


推薦閱讀:

如何自學人工智慧?
求大神通俗易懂的解釋下交叉驗證cross-validation?
IBM 是如何訓練「沃森」人工智慧平台的?
家庭智能機器人現在已經萬事俱備只欠喬布斯了,對嗎?

TAG:人工智慧 | 悖論 | 圖靈測試 | 思想實驗 | 心靈哲學 |