AlphaGo 在下棋時知道自己在幹嘛么?

一個哲學的思考


它只是一個演算法,不是一個有自我意識的機器。你問你家計算器在做加減法的時候會知道自己幹什麼嗎?歸零,歸零。


說人話!5分鐘帶你看懂阿法狗。
寫在前面的話:
昨天的結果也出來了,李世石試圖用比較攻擊性的打法,結果還是完敗。
作為一個算是勉強會下圍棋的IT從業者,心情有點複雜。一方面我知道計算機戰勝人是遲早的事情,另一方面卻沒有想到李世石會敗得這麼徹底。
或許大時代的潮流終會將一切碾壓而過,卻總會留下一些落寞的身影。
平心而論,李世石下的不太好,但是首次面對機器人,其實壓力之大,是不可想像的,李世石勇敢的做了第一個吃螃蟹的人,值得我們尊敬。
計算機下棋的歷史:
其實AI下圍棋已經有了快20年了。之前我們沒有太關注,是因為還不夠強,印象中最好的AI有業餘5段的水平。
1997年,IBM公司的「深藍」計算機戰勝了國際象棋世界冠軍卡斯帕羅夫,然後大概是2006年,人類最後一次戰勝過計算機。因為國際象棋的規則簡單,下法也比較固定(兵不能後退,象只能斜著走什麼的),IBM憑藉單純的硬體堆疊,用最粗暴的方式。計算所有下一步,之後的可能性,就直接解決了問題。
為什麼圍棋那麼複雜?
國際象棋所有的可能性性是10^47,1後面跟著47個「0」。
但是圍棋不一樣,19*19 的交叉點中蘊含了2*10^170種可能,就是2後面跟著170個「0」。這個數字大到什麼概念呢?
全宇宙的原子數量是10^80,也就是全宇宙每個原子代表一張棋譜,都還差得遠。
大家不要小看那幾個「0」,給大家用面積表示下。

請看看上面的圖,圍棋可是整整比國際象棋多了127個「0」,每一個0都會呈現幾何級的增大,大家想想一下相差127個「0」面積差多少吧,反正我的電腦是畫不出來了。

所以這這種情況下,阿法狗被研究出來開始了。下面正式開始介紹
學習狗
從前,有一隻學習狗。這隻狗很喜歡看人來下棋,並且能記住看過的每一盤棋。我們管他叫學習狗。在初期,他學習的是西方國家的人在QQ遊戲中下圍棋的棋譜。
然後他記住,哦,當出現這個局面的時候,下在天元會輸,下小目會贏。他只會做輸贏判斷,其他一概不知。
請大家記住他的技能,學習狗過目不忘。

但是下著下著,他發現自己總是輸,因為之前說過了,圍棋可能性太多,他學過的棋譜根本數量不夠。人類思考一下就能打敗他。
亂走貓
於是,他的鄰居--亂走貓出現了。這隻貓的特別是動作特別快,但是她懶得思考,從來不看棋譜。就是瞎走。然後她會記住,哦,這樣瞎走最後會贏,那樣瞎走最後會輸。
記住,瞎走貓,是亂走的,但是她能記住,怎麼亂走贏的可能性更大。

分身術
但是很快問題出現了,由於亂走貓總是亂走。沒人願意和她下棋了(廢話,誰這麼無聊啊)。於是亂走貓用了分身術,自己和自己下,並且記住怎麼會贏。

反正是自己和自己下,不想學習狗只是自己背棋譜,那當然可以用很多分身了。與是亂走貓每天能下好多盤。
題外話:當然,分身數量是有限的,不能無限分身,原因嘛,是因為谷歌給的經費是有限的,只能有那麼多機器。
什麼,你問如果要強行無限分身會怎麼樣?你拿你家電腦開一萬個網頁你就知道了。:)

合體!
但是當亂走貓和人類下棋的時候,還是輸。因為可能性太多,2*10^170種可能種呢。怎麼能下的完。
他們的主人--科學家想了想說,這樣,學習狗和亂走貓,你們一起來下。
如果出現的情況誰碰見過,並且知道該怎麼下就聽誰的。

他們合體後,當然就很厲害了,打遍電腦屆無敵手。但是和人類比賽有時候還是會輸。於是科學家再想辦法,這樣,你們分身出來自己和自己下,然後總結經驗。
注意,這個自己和自己下和當初的亂走貓完全不同,由於學習狗記住了棋譜。遇到有些情況,知道該怎麼下,亂走貓終於不會再亂走一氣了,但是學習狗的棋譜里,沒有的亂走貓就依據亂走的經驗來,他們的水平提高非常快。

學習狗與亂走貓的真身
其實學習狗就是IT界的「深度學習」,目前用於人臉識別,語音識別。由於需要大量的數據(比如很多棋譜棋譜),所以和大數據結合緊密。
大家最常用的應該就是---汽車駕駛導航。

亂走貓呢,就是大名鼎鼎的「蒙特卡洛搜索樹」他最大的特別是可以並行,可以理解成同時下很多種可能,把每種可能都分身成一盤新棋來下。
用處嘛,可以理解凡是排序都能用,比如你要某電商網站搜索北京最便宜的拖鞋。就有無數拖鞋相互比較價格,最終經過預賽、初賽、半決賽、決賽,得出冠軍。
但是遇到簡單的排序就排他的小弟就行了,不用他親自出馬

鬧矛盾
但是新的問題又出現了,一貓一狗配合出現了問題,他們先各思考,再合計,一合計就容易鬧矛盾。所以,他們特別慢!

指點鷹
科學家一看,好啦,大家不要吵了。
其實不就是對局面的看法不一致嘛,我給你們個專門看局面的傢伙--「指點鷹」。
這傢伙不用計算該怎麼下,專門看如果這樣下,勝率是多少。這樣速度就快多了。

為了防止,貓、狗、鷹。互相打起來。科學家定了個規矩。你們分別給出幾個候選,給了候選後就沒有學習狗的事情了。
剩下的決策者,亂走貓和指點鷹的意見各佔一半。

偶像天團組合
然後整個組合的成員就都找齊了。學習狗、亂走貓、指點鷹成為給了一個天團組合,名字就叫SHE! 啊不!叫阿法狗。

為什麼叫這個名字
其實人家不是狗。。。Alpha是希臘字母的第一個。GO是圍棋的英文說法,翻譯過來應該是:圍棋一號。
不過我認為起名的時候,科學家想的是:奔跑吧,阿爾法!

然後科學家進行了一些人為的調整,讓阿法狗養成了這樣的習慣。
1、開始階段,先主要由學習狗來下。因為布局越經典,越不容易有錯誤。這階段不求有功,但求無過。
2、中盤後,逐漸由亂走貓接手,因為之後的可能性越來越小,很可能亂走貓已經走過一模一樣的局面。
3、指點鷹隨時輔助。
4、局部爭奪的時候,也由亂走貓接手。亂走貓把棋盤假設成只有5*5大小,然後集中精力來計算,這5*5裡面有多少種可能。
----------------------------------------------------分割線----------------------------------------------------
好了,阿法狗,基本上就是這樣一個東西,下面說一點私人的看法。
當然,目前阿法狗還在不斷和自己下棋,不斷進化,之後變成究極態,就幾乎沒有人能戰勝了。但是只要他還沒有下到2*10^170種情況,人勝利的可能就一直存在。
於怎麼戰勝他嘛,很簡單。
那就是李世石掄起棋盤砸向電腦!---這是門外漢的說法,人家的主機不在韓國啦,這麼多伺服器,得多大啊。得專門有自己的發電站、水冷系統、專門的保安和電工好嗎!
或者拔網線?黑客入侵?都行~~
好啦,換回嚴肅臉,估計下一個對手就是柯潔了。
我認為,只是我認為。唯一的勝算在開局階段,需要不斷的下一子換一個地方,跳出5*5的範疇。
也許,只是也許,能戰勝他,因為如果中盤後,還是勢均力敵的話。人類戰勝亂走貓的幾率幾乎為0
當然,李世石第一局也是這麼想的,當然結局大家看到了。阿法狗的科學家黃世傑,就是代替阿法狗落子那位,人家好歹業餘五段啊!

好啦,先寫到這裡,之後想到什麼再補充,歡迎大家留言討論。

----------------------------------------分割線-----------------------------------------------------------

昨天李世石扳回一局!從開始圍棋界集體的樂觀輕敵,到幾乎崩潰式的連輸三盤,再到以哀兵姿態出戰,用「神之一手」逼迫阿法狗出現失誤,最終贏下一局。這幾天的比賽過程真是波瀾壯闊、跌宕起伏。

其實李世石也是一個很有意思的傢伙,我打算這幾天寫個《李世石小傳》。希望大家能喜歡!!

然後也歡迎大家搜索h4cj250,或者掃描我的頭像二維碼關注。
我喜歡寫一些,關於歷史體育,遊戲的東西。。。

《神之一手--李世石小傳》新鮮出爐!
說的是李世石成長的故事,包含了神之一手的片段,保證精彩。走過路過不要錯過,點擊下方鏈接觀看
《神之一手--李世石小傳》

http://weixin.qq.com/r/Z0j07GjEljXprSyP9x11 (二維碼自動識別)


絕大多數人都會同意前饋神經網路沒有意識 所以阿法狗應該是不知道的~


與,或,真,假,非,則


「教授,我覺得AlphaGo肯定可以通過圖靈測試的!」
「哦,那結果如何?」
「很奇怪,它沒有?」


你的自我意識其實也可能只是假象。

你不妨仔細想想。


這是心靈哲學的基本問題,我的答案是 [不知道 ] 。因為需要真正的 [知道 ] ,需要有自我意識,而不是簡單的通過程序。
有個具體例子是John Searle的 [Chinese room ],論文里提到的對 [Robot Reply ] 的反駁基本可以回答你的問題。
當然,Searle的觀點也並非十全十美,因為他完全否定了人工智慧的可能性。現在普遍的觀點是,計算機在未來也許真的可以 [理解 ] 一件事物,但是達到這樣的目標需要通過不同的方向努力,因為真正的理解和看似理解完全是兩回事。


我覺得戰勝時必然的,但是這並不代表電腦戰勝了人類,也並不代表圍棋這個遊戲終結了,更不代表人類會被滅亡。。。。
人類開發人工智慧這個行為真的很有趣,因為人工智慧作為一種實用工具而存在的目的,本身就是為了設計成某方面超越人類智能的存在,否則人們就會持續的改良它直到他超過人類。。。。假如這次電腦輸了,或著出BUG了。。那麼工程師勢必會去尋找更多的投資,建立更強的團隊,直至打敗了最強的人類為止。。在有關AlphaGo的宣傳上,我們只會看得到這台電腦擊敗了誰,而不是他的缺陷棋手。。因為這種操作針對的是一個點,所以循序漸進的一個個打敗職業棋手。。

然而整個行為自始至終,本身就不是人類的。。。。對於計算機來說是根據指令以及與預設下棋計算可能的變化。。如果換作人類思維的話,要通過一個超級龐大的團隊超時間的工程目的只是去擊敗一個人本,身在我們的認知裡面就是很可笑的。。但是現在卻彷彿是在說「這是我們發明的一台計算機」的時候,卻又莫名其妙的變得好像這是一個一對一的公平對局。。。。
這是一個很顯而易見的謬誤,不論任何一方獲勝或失敗,對於李世石來說,媒體記者肯定會採訪他本人。。。。李世石所談論的必定是對局中的感受,雙方的實力等等,這是人類的一面。。。。而對於電腦方來說,肯定是採訪他們的開發者,而不是戳這個話筒,或者輸入問題叫計算機。。而開發者談論的是他們開發的過程,而不是對奕有多精彩。。李世石可以收徒授藝,會繼續鑽研圍棋。。而這台計算機之後將會面對金庸古龍里常見的「強者的孤獨」。。甚至他們的開發者會停止對它圍棋的優化,因為它本身就是「非人類的」。
圍棋本身是人類的遊戲,甚至是一個人類的文化,而你不可能說勝負就是下棋的全部,人類能夠體會在這歌博弈過程中的樂趣。。倘若問李世石什麼是圍棋?得到的必然是一個耐人尋味的感悟,而你問電腦:特么程序員設定這麼做,我管我自己那麼多?我們可以說這是圍棋,也可以說這是編程比賽而不是圍棋比賽。。。。
而人們恐懼自己會被機器擊敗正是因為,在我們內心深處清楚地認識到了這玩意是非人類的。。將計算機智能和人類智能分離開來之後,圍繞在這個問題上的許多疑問都是很好解決的。。。。

面對類似的問題我們應應該對這樣的一個新生個體重新進行一番認識。。。。


如果純粹拿意識的工作原理去判斷意識的屬性,那麼無疑是將智能限制在「工作原理」這一個維度上了。
就像是當我們只有視覺去看世界時,那麼所有其他感官的維度你都是默認否定掉的。
目前我們可以確定的是,計算機(電腦)智能的意識判斷僅僅存在於邏輯判斷這一層面,但是僅僅依靠這一個層面的感官判斷是無法從「仿生學」的角度去確定它的意識是」存在「的。
更加可能的是:一旦不同的人對同一台計算機發出了不同角度的指令(例如A的指令是:維護世界和平。B的指令是:全力擴張城市化。),那麼計算機做出的判斷也肯定是依據發出指令的人的優先順序(階級)去執行指令,優先順序較低的指令會在衝突發生時被忽略掉。
單一維度的意識人類還是不用懼怕的,因為人類可以從其他維度制衡它。
目前從仿生學的角度去衡量計算機輸入輸出設備的水平,連單細胞的層次都遠遠不及,因為人類目前為止還沒用製作出一台可以在預訂環境被不受干擾的進行——生殖、繁衍、死亡、行為邏輯統一化的中心控制設備。
簡單說,就是還沒有做出一個合格的單細胞,那麼由單細胞組成的複雜的動植物乃至於人類就更不要去想了。

或者我們可以從更多維度去解析」意識「/」智慧「的內容,但是到目前為止,可以確認的是我們依然只是踏出了萬里長征的第一步。


首先要說的就是:那些把這個事情看的好像是不得了的事的人是可悲的。
電腦不過是個工具,就像一個人跑不過一輛汽車決不會有人大驚小怪,但電腦下期勝了人為什麼就有人感覺不得了了呢?

根本原因在於人對於自身的無知,因為對自身的無知,同時有人別有用心地把電腦的機械化的計算能力與人的計算能力放在一個對等的位置上,而西方文明本身就有把人等同於機器的這樣的傳統。
於是,對人本身無知的人,並被西方文明洗腦了的人就茫然了。


一本書知道自己在做算術題嗎?

  • 向前翻1頁,頁碼就自動增加1
  • 向後翻2頁,頁碼就自動減去2
  • 翻10次,每次向前翻3頁,頁碼就自動增加3*10=30
  • 隨便翻開一頁,頁碼末位是一個0~9的隨機數

顯然不知道,因為書的製作者認為書沒有必要知道,所以沒設計這個功能

一個掃地機器人知道自己在打掃整個房間嗎?

  • 一個電機帶動車輪,不斷的轉動,電機知道自己在前進嗎?
  • 一個電機帶動掃把,不斷的轉動,電機知道自己在掃地嗎?
  • 一個電機帶動方向盤,在開關按下時轉動,電機知道自己在轉彎嗎?
  • 一個開關,碰到牆時按下,經過一個隨機的時間後鬆開,開關知道自己在控制轉彎嗎?

顯然不知道,因為掃地機器人的製作者認為掃地機器人沒有必要知道,所以沒設計這個功能

AlphaGo雖然更複雜,但與書、掃地機器人一樣,沒有必要知道自己在幹嘛,所以沒有設計這個功能。


那麼問題來了:


一個超級計算機,掃描並模擬了題主的每個腦細胞的物理化學反應,他能夠和題主一樣思考

  • 他知道自己在幹嘛嗎?
  • 如果你認為他有意識,是否能說人工智慧有了意識?
  • 如果你認為他沒有意識,是否說明題主沒有意識?

人在下棋的時候知道自己幹嘛?


人類從一開始,就沒有戰勝過工具。

因為人類發明工具的目的就是為了超越自己,利用工具提高生產效率。
不論是體力運動,跑得再快,你能跑過賽車嗎?
還是智力下棋,算的再快,能算得過計算器嗎?
人類什麼時候超越過機器?
因此我認為, AlphaGo 就是圍棋專用計算器而已。你們不必太過激動。


既然一面倒的都說阿法狗無知,我只好站在對面來說話了。
我倒是認為,阿法狗比人類更知道自己在幹什麼。
阿法狗對自己的目的明明確確,就是在規則之下贏棋,他做的一切,所有資源調度方式,所有的優選演算法,都是圍著一個目的服務。
人類知道自己的目的是什麼嗎?是滿足口腹之慾,是戀愛,是繁殖,是生存,是擴張,是榨乾地球還是突破光速?總不會是為了贏一盤棋。人類這麼牛逼的存在,這麼聰明的少年,不去發明時光機器,浪費糧食搗鼓不能吃不能穿的黑白子到底又是為了啥?
如果僅僅說下棋,那阿法狗跟人一樣,都知道自己在下棋。
如果說下棋這事兒存在的目的,人或許是為了自以為會更好的生活,而阿法狗的首要目的應該是活下來。

-----------------------
你養了一條狗,用愛換來快樂,狗晃晃尾巴換來食物和你的愛。實際上,大家是共生關係。
阿法狗是人類另外一個觸手,如同人類也是更高層次生命的一個觸手。


對於高票答案簡單粗暴的回答 我是有異議的
我剛好昨天寫了一篇跟這個有關係的小隨筆……稍微修改一下貼上來了
————————————————————————
阿爾法狗毫無疑問是人工智慧的目前巔峰
人工智慧在至少四個方向對我們是十分有幫助的
首先是關於工業和技術的 其次是它的社會價值
第三是它在心理學方面 也許可以模擬人腦的行為(倘若AI做不到這一點 那依然說明了很多問題)
最後 AI「可以為精神概念的意義提供洞察,並為其深刻的哲學問題提供一些答案」

W·格雷·瓦爾特的機械「烏龜」是1950年代早期製造的第一批人工智慧儀器之一
他的奇妙之處在於
在電量快要耗盡時 他會自己跑到附近的插座那裡 給自己充電!
電量充滿時 他會拔下插頭 繼續亂跑

那麼我們怎麼評價這隻烏龜的行為模式呢?
我們可以說他在尋找插頭時「餓了」么??
這麼說是對語言的歪曲么?


烏龜的某種機制使他對電池的狀態十分敏感
動物的飢餓機制除了可能更複雜 更微妙之外
貌似與其也沒有本質上的區別?
動物的機制可能不僅僅是從一種行為模式切到另一種行為模式這麼簡單粗暴
而是有一種行為傾向的變化
比如在缺乏能量的時候 可能進食的需求傾向就會強烈一些


由此 一些AI的支持者摹想 用類似的傾向的方式來模擬類似於痛苦與快樂的概念
比如 我們可以給烏龜內部設計一個相關於電量的電子度量儀器 我們把它叫「苦樂表」
這個表的值將決定行為模式/行為傾向
在此基礎上 我們還可以給這個表設計更多的影響因素 譬如
在烏龜的背上加一個太陽能板 當烏龜站在光線底下時 他的電量就會增加 苦樂表的值就會向正上漲(向快樂的那一方靠近)
再比如
將烏龜的腳底與蓄電池聯通 當它站在導電物之上的時候就會緩慢漏電 此時苦樂表的值就會下降(向痛苦的那一方靠近)


上面這樣做其實並沒有很明顯地將「痛苦」與「飢餓」很明顯地區分開來
那我們自然可以設計一些更複雜的機制
比如當他感覺到身邊有同類的時候會使苦樂值上升
等等等等

很好 現在這樣一隻烏龜已經被設計出來了

那麼 我們真的可以說他真的感到快樂或痛苦么?
從行為主義者的觀點來看
我們當然可以根據其「趨利避害」的行為傾向來定義他的痛苦與快樂
我們可以宣稱 在足夠近似的水平上 這隻烏龜有快樂和痛苦


但是 行為主義者真的回答了這個問題么?
他真的能意識到自己在做什麼么?他真的能夠擁有自己的情感么?
類似的AI 真的有著精神品質么?
阿法狗?他在下棋的時候能夠理解自己在做什麼么?
甚至 他要挑戰星際爭霸 等到他真的有一天與星際的世界冠軍同台競技的時候
他能明白自己在做什麼么?當他聽到「偵測到在途的聚變打擊」時
他會……緊張么?


也許隨著時代的進步
我們的技術蒸蒸日上 我們的電腦有了更大的內存 更多的邏輯單元 邏輯設計和程序設計也日臻完美
這種AI 也許真的能思考
但是有一些哲學上(或者說數學上)的原則是完全缺乏的……
我們在日後會討論

============================================================
有一種被稱作「強人工智慧」的觀點採取比較極端的態度
這種觀點認為 任何簡單的機械 「都具有某種精神的品質」
他認為所謂精神活動不過是「某種被定義的很好的、經常被稱作演算法的運算」
比如一個恆溫器 他的邏輯功能十分簡單:
噹噹前溫度低於設定溫度時 聯通線路 加熱 反之亦然
根據強AI的觀點 人腦和恆溫器的差別僅僅在於複雜度
即 所有的精神品質 不過是人腦複雜演算法的不同側面
當一台邏輯機器執行演算法時 「它自身就會經驗到感情,具有意識,並且是一種精神」

當然並非所有人都會同意
如同上面針對行為主義者的詰問 我們在這裡可以提出類似的問題:
電腦或者程序本身對演算法有理解么?
著名的希爾勒中文屋子問題論證了電腦並不具備這一能力(啊我還記得我第一次聽到這個問題是老馮給我講的!)
這個問題是這樣的:
有一個故事和一個與之相關的問題(比如,故事是「有一天放學後老馮買了個漢堡並跟我走在放學路上」 問題是「我們今天上課了么?」)
這個故事本是用中文講述的 但是我們改用英文來講述(這肯定不會使故事的含義發生本質上的變化!)
把這一特殊演習的電腦演算法的所有運算作為一組指令(當然是用中文)提供給使用英文符號進行操作的程序員
現在這位程序員被關在一間密室中 而且他只認識中文且完全不認識英文
然後代表這個故事和問題的一連串符號通過一個很小的縫隙被送進屋子 且不允許任何來自外界的其他信息泄漏進去
當這名程序員完成所有的運算操作後 又將答案(英文的「yes」或「no」)通過縫隙送到外面來
他接收到的是英文的故事和問題 並給出了英文的正確答案
現在 這名程序員很明確的表示他完全不認識英文 他對這個故事講了什麼完全沒有哪怕是最淺顯的概念


這個問題的要點在於 僅僅成功執行演算法本身不意味著對所發生的有著絲毫的理解!
人們當然對希爾勒的論證提出過許多異議 但我覺得都不夠有力……


當然講道理 這種程度上的演算法十分冗雜 耗時……
那我們可以多派幾個人進到屋子裡去 以代替上面問題中的孤獨者
這樣速度會快很多
那麼推而廣之 我們把所有中國人都塞到屋子裡(啊假設所有中國人都懂演算法而且都不認識英文!)
任何一個單獨的中國人都對這個故事沒有絲毫了解
但是強AI的支持者會表示:這些中國人的集合就像人腦一樣 而每一個單獨的人就像神經元 你腦中的任何一個單獨的神經元會理解你在做什麼么?
可是……我們表達「這個國家對這個故事完全地"理解"了」 這不是也很荒謬么?
希爾勒論爭道,一個國家像一台恆溫器這種表述完全不搭界 但是單獨的個人卻有關係
聽起來還是很蒼白無力……
也許希爾勒的論證有著先天的缺陷(也歡迎來討論)
我很難做出評價


除了希爾勒的抨擊之外 強AI觀點還有許多其他的短處
強AI只管演算法 只管演算法 無論這個演算法是由人腦、個人、國家、恆溫器或者一套齒輪系統來執行都是一樣的
也就是說 強AI觀點認為 對於演算法所代表的「精神品質」 只有其邏輯結構才是有意義的 與其物理載體是何種形式並無關係
可是這樣就陷入一種「二元論」的困境不是么?
以強AI的觀點來看 演算法擁有某種離體的存在 可以與它物理的實現方式完全分離
這實際上是柏拉圖實在的一般問題的一部分……我們日後會討論到的
諷刺的是 強AI的支持者最不願意打交道的就是二元論了


道格拉斯·霍夫斯達特1981年寫過一篇對話錄《愛因斯坦頭腦談話錄》 其中也有一個十分有趣的觀點(作者本身是一個強AI觀點支持者)
他捏造出了一本極厚的書 假想這本書可以包含對愛因斯坦整個頭腦的描述 就像活著的愛因斯坦那樣
任何人只要翻閱此書 並按照書中所給的說明 他們的問題就會得到像愛因斯坦本人那樣的回答
那麼這本書就是愛因斯坦頭腦演算法的特殊體現 按照強AI觀點來看 這本書的「精神」與愛因斯坦的「精神」別無二致

很好……我們又碰到了一大堆問題
比如 當無數學生和學者通過這本書尋找答案 或者這本書被封藏起來 從來沒有人翻閱過
這本書又如何知道這種差別呢?
愛因斯坦的知悉 是否要通過打開書(或者我們不需要打開書 我們通過某種射線掃描甚至某種魔法得知書中的內容)才能被喚起??
不同的人在不同的時間向這本書提問了同樣的問題 這本書會感覺到么?
時間對於這種「精神」是何種概念?
又或者只有當書被修改 即愛因斯坦的精神狀態改變時 它才能自我察覺?
也就是說 精神事件和演算法是否被激活是否有關呢?
霍夫達斯特並沒有完全回答這些 他向大多數人做了妥協


強AI觀點有他的道理 但是他的漏洞從上面的例子中看出來並不少
所以精神到底是怎樣的存在?
這真是個艱深的問題
拉普拉斯妖又以何種形式存在呢?
按照強AI觀點 那麼所有物理定律的集合即是拉普拉斯妖的精神本質!

強AI當然有漏洞 但是絕對不能一下打倒
現在計算機理論的根基和強AI觀點有著千絲萬縷的聯繫 比如
阿倫·圖靈的最傑出的發現之一就是
任何硬體達到一定程度複雜性和靈活性的機器 都等效於其他同類機器
這個「等效性」不能簡單地理解……
「等效性」是說
你將一段軟體賦予機器A 再賦予機器B 二者會以完全相同的方式動作
時間長短在這裡沒有任何影響 硬體強大與否在這裡是「非原則性」的問題
A和B在這裡就是所謂「普適圖靈機」
事實上 所有的電腦 都是普適圖靈機


這裡圖靈對於普適圖靈機的闡釋與強AI好像有著千絲萬縷的聯繫
譬如物理硬體完全不重要 計算儀器之間的等價完全建立在軟體——也就是演算法層面上
我們的頭腦按照上面的觀點來看 也是其中的一種 那我們在精神方面的差別在哪裡?
那麼是什麼東西賦予個別人其單獨的認同性呢?是否是因為構成他身體的原子?
量力力學(哦神他媽又是量子力學 我真的不懂啊!)告訴我們並非如此
任意兩顆電子必須完全相同 同樣這一規律適用於質子或者別的什麼
這種陳述不僅僅是說 我們無法區分兩顆粒子 而要比這還要強得多
大腦中的一顆電子和 電腦中的一顆電子 二者完全相同
將它們相互交換 則系統的態與其過去的態不僅不能區分 且完全相同
那麼 把你頭腦中的所有粒子和電腦中的粒子全部置換一遍
那就……相當於什麼都沒發生……


從這裡的論證可以看出來 強AI理論絕對有他的可取之處 但是你問我阿爾法狗真的能意識到自己在做什麼么?
我不敢妄加評論


希望能把幫助到題主


阿爾法狗畢竟不是一條狗……


不知道。


首先它得有「自己」的概念。
這個比下棋難多了……


不知道。
對此,「中文房間(Chinese room)」是一個很典型的思想實驗。

這個實驗要求你想像一位只說英語的人身處一個房間之中,這間房間除了門上有一個小窗口以外,全部都是封閉的。他隨身帶著一本寫有中文翻譯程序的書。房間里還有足夠的稿紙、鉛筆和櫥櫃。寫著中文的紙片通過小窗口被送入房間中。根據Searle的表述,房間中的人可以使用他的書來翻譯這些文字並用中文回復。雖然他完全不會中文,Searle認為通過這個過程,房間里的人可以讓任何房間外的人以為他會說流利的中文。

這個實驗理想化的。房間里的人通過工具,可以在交互中,流利的與外界以漢語做出反饋,可實際上他完全不理解中文及其內涵。
AlphaGo就是那個房子里的人,當它在下棋時,只是依靠固定的程序,這個程序就如同用書翻譯的過程一般,而行為就是產生出的語句回復。即使再複雜,再給人以流利的印象 ,AlphaGo本身也是完全不理解的。

實際上,該實驗表明,任何由特定程序運轉的體系,都不可能產生真實的意識。


想像一架全自動的斷頭台。


推薦閱讀:

如何評價德國計算機神經網路科學家發表的這篇可以讓電腦模仿任何畫家的風格作畫的論文?
NIPS 2015有什麼值得關注的亮點?
有人說機器學習近些年的發展只是依賴於「大數據」和「高計算」,在演算法上並沒有突破,這是在影射深度學習么?
CNN(卷積神經網路)是什麼?有入門簡介或文章嗎?
Yoshua Bengio為什麼能跟Hinton、LeCun相提並論??

TAG:人工智慧 | 哲學 | 機器學習 | 神經網路 | AlphaGo |