谷歌圍棋演算法存在巨大缺陷,達不到人類最高水平|陳經

谷歌圍棋演算法存在巨大缺陷,達不到人類最高水平|陳經

請點擊「風雲之聲」,打開新的世界

科技與戰略風雲學會,受過科學訓練的理性愛國者們組建的智庫。科學素養,家國情懷,橫跨文理,縱覽風雲。

導讀:本文作於AlphaGo挑戰李世石之前。陳經預測,對於頂尖職業棋手,AlphaGo會有較低的獲勝概率。但是頂尖棋手可能會狀態不好或者心理波動,所以AlphaGo也是有勝機的,甚至在番棋中取得勝利都是可能的。現在我們知道,比起IT界不懂棋的人預測機器5:0勝,或者圍棋界認為李世石5:0勝,這個預測是最平衡的。本文的深入分析指導了以後正確的預測,既不狂妄自大,也不妄自菲薄,這才是研究的態度,對不對?

————————————————————————————————————————

2016年1月28日,谷歌圍棋程序AlphaGo以5:0戰勝職業棋手的消息,震動了圍棋圈。這兩天有很多的討論,主要是新聞性的。我也在第一時間進行了常識性的介紹《人類智能堡壘圍棋突然被谷歌智能攻破了,靠的是策略判斷和暴力搜索兩手都硬》(人類智能堡壘圍棋突然被谷歌智能攻破了,靠的是策略判斷和暴力搜索兩手都硬 | 陳經)。

本文進一步從圍棋和人工智慧技術的角度,深入分析AlphaGo棋藝特點,評估其演算法框架的潛能,預測與人類最高水平棋手的勝負。下文中出現的策略網路、價值網路、蒙特卡洛法請參考前文,理解具體圍棋局面也需要一定的棋力,但是與演算法推理相關的內容理解起來並不難。

AlphaGo是如何下棋的

所有人,包括職業棋手,看了AlphaGo戰勝樊麾二段的五盤棋,都說這程序下得像人了,和以前的程序完全不同。柯潔九段(公認目前最強棋手,一年獲得三個世界冠軍,對李世石6:2,古力7:0)的看法是:

「完全看不出來。這五盤棋我也仔細地看了一眼,但我沒看名字,不知道誰執黑誰執白,完全看不出誰是AI。感覺就像是一個真正的人類下的棋一樣。該棄的地方也會棄,該退出的地方也會退出,非常均衡的一個棋風,真是看不出來出自程序之手。因為之前的ZEN那樣的程序,經常會莫名其妙的抽風,突然跑到一個無關緊要的地方下棋。它這個不會。它知道哪個地方重要,會在重要的地方下棋,不會突然短路。這一點是非常厲害的。」

連笑七段讓四子對DolBaram。棋譜可參考附錄的sgf文件,看看電腦是如何搞笑的

先來看我上一篇文章中提到的DolBaram被連環劫搞昏的局面。右下角白是連環劫凈活,電腦卻不知道,耗費了很多劫材來回打。這是因為電腦是用蒙特卡洛樹形搜索(MCTS)下的,一直模擬下到終局,看各個選擇的獲勝概率。人一眼就知道打劫是沒用的,你提這個我必然提回那個。電腦模擬時的選點卻不會只有那一招,就會發現,如果對手不提另一個劫走了別的,那電腦就能吃角了,所以就去提劫。直到劫材損光,電腦才會恍然大悟,吃不掉,但這已經過去幾十手,超過電腦的搜索能力了。

看到電腦被連環劫搞昏,樂開花的連笑

2014年日本UEC杯軟體決賽,Zen執黑對CrazyStone。完整棋譜可看附錄的文件

再來看Zen和CrazyStone兩個過去最強的程序間的一個局面。黑61威脅白右上角和中上,白卻不應,在下面62切斷,黑繼續63吃掉右上角。最後白在上面損失慘重,為了救中上幾個白子,下面又被黑先動手,沒有收益。為什麼CrazyStone不應上面?因為程序沒有價值的概念。白不應上面,黑要把白右上吃掉,還需要很多手,中上的白子活不活更不好說,這已經超出了電腦蒙特卡洛模擬的能力。因為電腦不知道要對著上面猛算,它不知道上面是焦點,可能花了很多計算在下面或者其它地方,認為62手下面切斷勝算更大,上面的損失它模擬得不對。這個局面能說明蒙特卡洛樹形搜索法(MCTS)的局限性,這個弱點很要命。

那麼AlphaGo會如何解決這兩個問題?連環劫問題,DolBaram可能得打個補丁。AlphaGo也是基於MCTS的,但是它的策略網路是深度學習高手對局的招法訓練出來的,更為準確,有可能提劫這手就不會給多大概率,因為高手們面對這個局面不會去提劫。另一種可能是,AlphaGo有一個價值網路,不用來回打一堆劫就能直接判斷下一招後,獲勝機會如何。由於價值網路是訓練出來的,包含了3000萬局的最終結果,對於右下那塊白棋的死活是有判斷的。當然也可能AlphaGo針對連環劫有補丁。

CrazyStone犯錯這個圖,假設AlphaGo執白,在考慮第62手。61、62、63這些著手顯然都會在AlphaGo的策略網路的選點中。你要讓它用MCTS模擬出右上和中上白棋幾個子是怎麼回事,估計也是不行的,手數和分支太多。因為這不是一個簡單的死活問題,白可以不要一部分甚至都不要,只要在其它地方有足夠的補償。但是AlphaGo有價值網路,它會在模擬到63手時,用價值網路快速評估一下,發覺白必敗,於是迅速否定62這手棋,在上面下棋。因為價值網路的3000萬個樣本中,上面這種白棋類似棋形導致失敗的棋局會有一些。

這裡我們看出來,AlphaGo相比前一代軟體的革命性進步,是有了一個價值網路。實際上,AlphaGo可以不用搜索,直接用策略網路給出一些選點,用價值網路判斷這些選點的價值,選一個最好的作為著手,就可以做出一個非常厲害的程序。這個簡單程序就可以打敗其它軟體,達到KGS(一個圍棋網,人工智慧程序一般在上面打級) 7D,這是非常驚人的。Facebook的Darkforest也可以不搜索,用策略網路給出一些選點,選其中概率最大的點(最像是高手下的那招棋),這樣可以達到KGS 3D。在此基礎上再加上MCTS,把Darkforest提升到了5D。這說明AlphaGo的價值網路對棋力提升的價值,可能比MCTS還要大。

有了高效的價值網路,AlphaGo就容易知道局面的焦點在哪,不會在非關鍵的地方走。可以預期,其它軟體開發者要跟上AlphaGo,就得把價值網路搞出來。但是這非常難,需要模擬海量的對局,對局水平還不能低,需要的投入很大。

AlphaGo想要戰勝業餘高手,策略網路、價值網路就夠了。但要戰勝業餘頂尖,就還得加上MCTS。這相當於對策略網路、價值網路的選擇,進行驗算。策略網路有兩個,一個是給出當前局面的選點,一個是在MCTS模擬中快速給出一些選點。價值網路給出判斷,有價值的搜得深。整個決策過程非常象人類高手的思維過程了:面對局面,給出一些選點;然後對各個選點推演下去,有的推幾步就判斷不行終止,有的會推得很遠;有時算不清,就根據感覺下;有時沒時間,直接感覺,都不推理了。

所以AlphaGo的演算法框架很強大,和人類高手很像。而且它沒有情緒波動,每一步都會穩定地用MCTS進行驗算,人類不一定做得到。樊麾二段就是敗在這上面,不少著都沒有仔細驗算,衝動地下了被AlphaGo反擊吃大虧。

AlphaGo還不如人類高手的地方

分析AlphaGo的弈棋演算法,可以相信,AlphaGo到了一定的局面以後就是必勝,因為它不會在此後犯錯。實際之前的Zen、CrazyStone也是這樣,到了後盤必勝局面,就靠MCTS,它們都能知道必勝了。這時電腦會下得特別猥瑣,「贏棋不鬧事」,勝多勝少一樣。而人類高手後半盤勝局被翻盤很常見,官子沒時間算清楚,穩定性比電腦差得多。

樊麾對AlphaGo的第二局就有這樣一個局面。AlphaGo執黑,由於在右下角大佔便宜,這時已經必勝了。黑下135,放白136活(如破上面的眼,白借O16的連出再做出一眼)。中韓職業高手劉星七段和金明完四段都指出,黑135右移一路,下在O18,是能夠殺死白棋的。

樊麾對AlphaGo的第二局

但是AlphaGo為什麼不下?我們可以試著推理一下,如果黑強殺,接下來局面會是這樣:

黑135下三角一著強殺,白提一子,黑137退。白138先手切斷右上黑棋,雖然是靠劫。接下來白有ABC甚至更多「搗亂」的方法,但職業棋手一眼就能看出來,白的搗亂必然失敗,因為白角也沒幾口氣,還要撐劫,黑肯定能對付。但是AlphaGo作不出這種推理!

AlphaGo作不出這種推理

劉星說,AlphaGo肯定知道白是死的,但選擇了穩當的下法。筆者認為恐怕不是這樣。AlphaGo的搜索框架里,並不一定能斷定白是死的,因為需要的手數不少,打劫雖然更不利於白,但增加了推理手數。它並沒有一個搜索任務叫「殺死白右上角」。如果硬要去這麼搜索是做得到的,但是如果它這樣去想問題,棋力反而會下降,因為圍棋很複雜,殺棋付出代價太多會敗。AlphaGo推理時會發現,放活白,100%勝,殺白,有風險(雖然實際沒風險,但它很可能沒去算)。所以AlphaGo集中搜索放活的必勝下法,最後選擇是放活。如果局面是不殺不勝,那AlphaGo就會發現其它招不行早早放棄,就會去集中算殺棋的那些招。

也就是說,一些對於人類非常明顯的死活,對AlphaGo反而是麻煩的。人類高手在這個局面很可能就去吃棋讓對手早點認輸,因為沒有任何風險。AlphaGo就不行,它沒有分配足夠的計算資源去算這個死活,而是去算它認為勝率更高的分支,這些分支要消耗非常多的MCTS局面。人類一眼能看出來的死活,AlphaGo卻需要「足夠」的計算資源才能算出來。有時因為局面的焦點問題,它還真就分配不出來。只有其它分支不行,被價值網路與MCTS早早砍掉,這塊棋的死活才會獲得足夠資源算個通透。

這不會影響AlphaGo的勝利,但已經可以看出,它的思維其實和人不一樣。它並不是一定能算清的,只有你逼得它沒辦法了,它才會去算清。但是人就有優勢了,人看一眼就知道結果,AlphaGo以及基於MCTS的這些程序,都得去算不少步才知道。程序並不像人一樣,對於棋塊能給出結論。人給出結論需要計算,但是算一次就行了,然後就一直引用那個結論,直到條件變化。但是程序得去算,算到死了才是死,有一些局面計算甚至是活的,它只是概率性地在那選擇,並沒有給出確定性的結論。

再看一個局面,第三局樊麾執黑對AlphaGo。金明完四段指出白60扳,62打,都是走在黑空里的損著。還不只是虧空,本來白不走,右中的白棋粘在S7位,是有一個眼的,現在沒有眼了,對中間的攻防戰影響不小。

樊麾對AlphaGo的第三局

這是AlphaGo確定無疑的虧損錯著。但是證明這個結論,需要黑能夠對付白Q3長搗亂,要殺掉白右下。職業棋手也要花一點時間,但不難。結論是,因為中下的黑子夠厚,所以沒有棋。要是沒有H4J4這兩個黑子,就有棋了。這裡涉及到的手數和分支是不少的,雖然結論是明確的。下面是一個白搗亂失敗的參考圖。

白搗亂失敗的參考圖

對於AlphaGo來說,這個局面就很麻煩了。如果逼得它不得不做活,它會用MCTS一直模擬下去,最後認為還是死。但現在局面還很空曠,局面選點很多,它並不知道去開一個「任務」算右下角的死活。

在很多高手對局裡,類似這個角的局面就是有棋的,甚至沒有棋,高手也會下類似60這樣的棋「留餘味」,例子很多。所以AlphaGo的策略網路會給出60這個選點。但是高手會迅速否定掉60,因為做不活,而且會損右中白棋的眼。

AlphaGo不會有「損眼」這種概念,它得模擬到很多步以後,才能知道右中的後手眼很關鍵。60提出來以後,MCTS救不了它,因為手數和分支太多。價值網路也救不了它,因為這裡死了,白也只是吃了虧,並不是明顯敗局。價值網路背後的3000萬局裡,60及其後續搗亂手段可能出現過不少勝局,會給60這招一個好分。

這裡我們能看出來AlphaGo的巨大不足了,它對於圍棋中的很多「常識」其實是沒有概念的,例如「後手眼」、「先手眼」、「厚薄」。有一定水平的人類棋手都明白圍棋概念很多,開發者根本就沒有準備去建立這些概念,而是自己想了一個決策過程。表面上看AlphaGo和人類高手一樣先選點,再推理驗算,但這只是表面的相似,內在機理是完全不同的。

AlphaGo的策略網路可能和人類最高手沒有水平差別,甚至更厲害都可能,因為可以考慮更多選擇。但是接下來的價值網路和MCTS驗算的區別就大了。人類高手是進行複雜的概念推理,大多數情況下可以把「棋理」講清楚,為什麼這麼選擇,幾個變化圖就夠了,高手們就取得了一致。但AlphaGo是不行的,它只能死算。在封閉局面,死算表現是很穩定,超過人類高手。但是在前半盤的開放局面,它不知道去算什麼,其實也是東一下西一下沒有邏輯地在那撞運氣地推理。

由於圍棋的複雜性,它增多推理的局面數並不能帶來多高的棋力提升。Distributed AlphaGo(1202個CPU,176個GPU)的計算能力是「單機版」AlphaGo(48個CPU,8個GPU)的很多倍,但互下只有78%的勝率。

我們可以得出一個重要結論:

在早期的開放局面或者中間複雜局面中,AlphaGo的演算法有時會走出明顯吃小虧的錯招,如果「思考」時需要較多的手數與搜索分支,就可能超過它的搜索能力。而人類高手能看出來程序的錯誤,有能力避免這類錯,因為會進行高級的概念推理。這是人類高手的巨大優勢。

為什麼AlphaGo的這個弱點表現得並不明顯?這是因為開發者用各種辦法進行了「掩蓋」,而且對手必須很強才行。這個弱點只對高手才存在,甚至象樊麾這樣的職業二段都無關緊要。這局樊麾根本沒利用白棋損了一眼這個錯誤,自己先在中間行棋過分被抓住。人類對手面對的各種考驗更多,局部出了錯被AlphaGo一通死算抓住就鎖定敗局完蛋。人類對手需要自己先穩住,不能出「不可挽回」的錯著。就算是頂尖職業高手也不一定做得到,之所以出了錯在職業圈裡勝率還可以,是因為對手又送回來了。

AlphaGo開發者沒有在程序中提出圍棋常識概念,甚至所有開發者都不是高手(只有第二作者Aja Huang是弈城8d,高手讓三四子都可能),很多高深的棋理不明白。但是他們用深度神經網路的辦法,隱性地在多層神經網路中實現了很多圍棋概念。為什麼一個13層的神經網路,幾百萬節點係數相乘相加,就能預測高手在19*19的棋盤上的行為?通過訓練,這些神經網其實已經隱含了很多概念,一層層往下推。所以它下的很像人,確實和人的神經系統類似。

機器用多層神經網路識別圖片的能力,甚至超過了人。但在圍棋上,這其實是一種「掩蓋」。人識別圖片時是沒太多概念的,直接看出結果,機器也這樣。但在下棋時,其實不是在識別棋局,還是有明確的建立在「常識」基礎上的概念,越是高手概念越多,而且說得清,能教給學生,是一個知識系統。

AlphaGo的策略網路和價值網路,那些神經網路各層里,是些什麼「概念」沒人說得清,也不好控制。DeepMind小組其實也不想去搞清楚,就是暴力堆數據,信奉大數據暴力破解。

但圍棋是很精微複雜的。某種概念,可能用幾百個棋局能說明清楚。但是一大堆概念混在一起,有些概念還沒有明確結論,怎麼訓練?比如前面的「後手眼」概念,人一解釋很清楚,DeepMind的人想去改進程序讓AlphaGo減少這類失誤,就很麻煩。可能要去堆一大堆這類棋局進行訓練。先不說能不能找到足夠的棋局,在3000萬個棋局裡,加進一些棋局進行訓練會產生什麼影響,就很難控制。

AlphaGo的策略網路、價值網路、MCTS三大招數確實很強大,但也存在很不好解決的內在矛盾,就是沒有概念推理的能力,很簡單的都做不到。

AlphaGo與人類棋手對局預測

假設AlphaGo仍然維持現有的演算法框架,但在持續的研究中,增加CPU,增加訓練局數,打些小補丁,不斷提升能力,那麼可以對它的棋力進行推測。

這些改進就是讓強的越強,但是本質的弱點無法消除。也許可以加一些程序代碼,處理連環劫、多劫之類的bug型局面。AlphaGo的策略網路和價值網路已經很好了,對人類有優勢或者不吃虧。AlphaGo的MCTS能力對於鎖定勝局、抓對手大錯誤足夠了,但還不足以消除自身的錯誤,增加CPU也不會有本質提高。雖然鎖定勝局時,這種死算比人類更靠譜,但對於開放式局面仍然遠不夠用,這是演算法本質的問題。

對於大多數業餘棋手,AlphaGo只用策略網路和價值網路,連MCTS都不用,就能輕鬆獲勝了。而且下棋速度特別快,只是算神經網路的輸出值,0.1秒就可以,對人類等於不花時間。這個版本可以很容易放到手機上。

對於強業餘五段、六段高手,PC版的AlphaGo可以一戰了,需要用上MCTS,但不需要好到48個CPU。

對於頂尖業餘棋手、沖段少年、等級分不高的二三線職業棋手,AlphaGo會有相當高的獲勝概率,48或者1202個CPU只會在概率上有些小差別。當人類棋手在中後盤出小錯,或者局部出惡手時,立刻就會輸掉,無法翻盤。

對於頂尖職業棋手,AlphaGo會有較低的獲勝概率。當頂尖職業棋手發揮好時,是可以做到沒有明顯錯著的,甚至有個別方向性大局性的錯誤也不要緊,只要不是局部惡手被抓住。但是頂尖棋手狀態不好或者心理波動的可能性是有的,甚至不小,所以AlphaGo也是有勝機的,甚至在三番五番棋中取得勝利都是可能的。

但是如果AlphaGo獲勝,職業棋手們的評價會是人類出了明顯的錯著,而不是機器壓倒性的勝利。反過來,人類頂尖高手如果發揮正常,可以對AlphaGo壓倒性地全盤壓制。

三月李世石與AlphaGo的對局,如果李世石輸掉,一定是因為他出了惡手。而機器也會被多次發現明顯的問題手,因為李世石總有能力在五局中表現人類的高水平。

這個情況有點類似於1997年深藍戰勝卡斯帕羅夫。卡斯帕羅夫輸了,但當時不少輿論認為是他發揮不佳甚至收錢放水,後來直到2006年都有人類在比賽中戰勝了程序。當然後來國際象棋程序越來越強,真正全面碾壓人類棋手,甚至可以讓人類一個兵或者兩先,等級分比人類最強者高几百分。從當時的機器演算法框架看,國際象棋程序徹底戰勝人類只是個時間問題。

圍棋的格局會有不同,不會被機器打得這麼慘。如果開發者不提出新的演算法框架,AlphaGo這樣的人工智慧程序無法戰勝狀態良好的人類最高水平棋手,甚至能看出明顯的棋力短板。當然由於圍棋人工智慧不犯大錯,抓錯的水平很高,對職業棋手群體勝率會比較高,甚至參加世界大賽都有奪冠可能。但職業棋手們仍然掌握著最高水平的圍棋技術,這些技術具有真正的藝術性,如果在和人工智慧程序的較量中讓世界認識到這一點,也有利於提高圍棋的影響力。

AlphaGo已經取得的成就,無疑是非常了不起、令人震驚的。但通過仔細分析它的演算法框架,人類棋手也不需要恐慌,它還達不到人類棋手的最高水平。當然不排除人工智慧又搞出另外的高招取得突破,但這不好預測,而且會是非常困難的。

分析清楚AlphaGo的強大與不足,有利於破除迷信,「祛魅」。這也引出了更多哲學性的問題,例如:概念是什麼?人工智慧的極限在哪裡?如何把人類積累的智慧和洞察力用到未來的人工智慧科研中?

致謝:感謝科技與戰略風雲學會會長袁嵐峰博士(微博@中科大胡不歸 )與其他會員的寶貴意見。

作者簡介:筆名陳經,香港科技大學計算機科學碩士,科技與戰略風雲學會會員, 微博@風雲學會陳經 ,棋力新浪圍棋6D。二十一世紀初開始有獨特原創性的經濟研究,啟發了大批讀者。2003年的《經濟版圖中的發展中國家》預言中國將不斷產業升級,挑戰發達國家。

【新書推薦】2016年8月,中國發展出版社出版《陳經說:中國的官辦經濟》。該書從「官辦經濟」出發,闡述中國如何在計劃經濟向市場經濟轉化的過程中,摸索出一條不同於二者的全新道路。該書被廣大讀者稱之為工業黨思想理論領域的旗幟之作,觀察者網專欄作者文揚點評指出,《陳經說》的出版讓有些「主流經濟學家」的有色眼鏡跌碎一地。京東、噹噹、亞馬遜等店有售,也可進入觀察者網微店購買。

附錄

1、連笑讓四子對DolBaram的sgf棋譜。將下面的文字存成一個sgf文件,用MultiGo軟體打開,或者直接Copy下面的文字,在MultiGo里選擇「粘貼棋譜」。

(;GM[1]FF[4]

SZ[19]

DT[2015-11-15n17:17:42]

PB[石子旋風]BR[P1D]

PW[連笑]WR[P7D]

KM[0.00]HA[6]RU[Chinese]US[風月手談]AP[風月手談(OurGameweiqi)]

SO[聯眾遊戲-快樂每一天!]EV[美林谷杯首屆世界計算機圍棋錦標賽人機大戰三番棋第3局 2015-11-15 07:28:06]

AB[dp][pd][dd][pp][dj][pj]

;W[qf];B[of];W[qn];B[on];W[nq];B[pm];W[qp];B[qq];W[pq];B[oq];W[pr]

;B[op];W[or];B[qo];W[rp];B[ro];W[rq];B[jd];W[ph];B[pg];W[qh];B[qg]

;W[rg];B[oh];W[ri];B[qe];W[rf];B[pf];W[qk];B[pk];W[ql];B[qm];W[dm]

;B[fp];W[ch];B[eh];W[df];B[dg];W[cf];B[cg];W[bg];B[ef];W[ee];B[de]

;W[ff];B[eg];W[be];B[fe];W[ed];B[dc];W[ec];B[eb];W[ge];B[fd];W[fc]

;B[gd];W[fb];B[hd];W[db];B[gb];W[ea];B[hh];W[nc];B[fm];W[ld];B[oc]

;W[lf];B[kg];W[je];B[kd];W[ke];B[lc];W[id];B[ic];W[ie];B[gf];W[hc]

;B[gc];W[jc];B[kc];W[ib];B[nb];W[md];B[ga];W[fa];B[mc];W[nd];B[kb]

;W[kh];B[lg];W[ih];B[ig];W[jg];B[jf];W[jh];B[if];W[hf];B[hg];W[mb]

;B[ma];W[kf];B[lh];W[gg];B[he];W[gh];B[gf];W[hi];B[hf];W[li];B[mi]

;W[fi];B[gj];W[gi];B[fg];W[lj];B[mf];W[oi];B[mj];W[mh];B[mg];W[nh]

;B[ng];W[og];B[lk];W[kk];B[ii];W[ki];B[ij];W[mk];B[ll];W[nj];B[ml]

;W[ni];B[il];W[rn];B[kl];W[jk];B[ik];W[nl];B[nm];W[cj];B[dk];W[jl]

;B[jm];W[di];B[ei];W[nf];B[oh];W[ob];B[lb];W[og];B[bf];W[af];B[oh]

;W[km];B[ol];W[og];B[ne];W[me];B[oh];W[nk];B[og];W[mm];B[ln];W[lm]

;B[mn];W[mp];B[kn];W[jn];B[jo];W[im];B[kp];W[hp];B[ho];W[go];B[gp]

;W[io];B[ip];W[hn];B[hq];W[cq];B[cp];W[bp];B[dq];W[br];B[bo];W[co]

;B[cn];W[do];B[dn];W[eo];B[en];W[fo];B[cr];W[bq];B[qj];W[rj];B[ep]

;W[bn];B[bm];W[ao];B[re];W[rm];B[np];W[mq];B[lr];W[cm];B[em];W[lq]

;B[kq];W[iq];B[jp];W[hr];B[gq];W[jr];B[kr];W[gr];B[fr];W[er];B[dr]

;W[fs];B[eq];W[fq];B[jq];W[ir];B[fr];W[es];B[ho];W[pc];B[od];W[hp]

;B[gs];W[hs];B[ho];W[na];B[oa];W[hp];B[ds];W[fq];B[ho];W[fr];B[in]

;W[js];B[jm];W[cs];B[hp];W[bl];B[hm];W[po];B[cl];W[am];B[pn];W[so]

;B[mr])

2、ZEN執黑對CrazyStone的棋譜。

(;CA[gb2312]LT[]LC[]KO[黑貼6.5目]GK[1]TC[]TE[0]AP[MultiGo:4.4.4]RD[2014-03-16]PC[東京都調布市電氣通信大學]

PB[ZEN]BR[]PW[CrazyStone]WR[]TM[]RE[黑中盤勝]MULTIGOGM[1]

;B[pd];W[ep];B[dd];W[qp];B[lj];W[ql];B[dj];W[dm];B[jd];W[ch];B[eh];W[ce];B[cd];W[ef]

;B[dg];W[de];B[fe];W[bd];B[ee];W[cc];B[dc];W[cb];B[pi];W[qf];B[pf];W[pg];B[of];W[qc]

;B[qe];W[ob];B[pc];W[pb];B[rc];W[lc];B[kc];W[ld];B[df];W[bf];B[nq];W[je];B[ie];W[kd]

;B[jc];W[qb];B[pp];W[qg];B[rf];W[rg];B[og];W[oh];B[mg];W[nj];B[qo];W[po];B[qn];W[pn]

;B[rp];W[qq];B[pm];W[nn];B[nc];W[qm];B[rd];W[if];B[jf];W[ke];B[rq];W[oc];B[nd];W[nb]

;B[lb];W[mb];B[kb];W[jg];B[mc];W[he];B[id];W[kf];B[ih];W[nh];B[kh];W[jh];B[od];W[ji]

;B[nl];W[rb];B[sb];W[li];B[pl];W[pj];B[qk];W[hd];B[hb];W[hc];B[ib];W[ng];B[nf];W[gb]

;B[cf];W[be];B[fc];W[sf];B[kj];W[ki];B[jj];W[ra];B[ma];W[me];B[qd];W[pk];B[op];W[ol]

;B[om];W[gc];B[ja];W[gf];B[ff];W[qj];B[ml];W[ha];B[la];W[ne];B[oe];W[ro];B[rn];W[fg]

;B[gi];W[fi];B[fh];W[gg];B[eg];W[fj];B[gh];W[ij];B[gj];W[rm];B[so];W[ik];B[fk];W[gk]

;B[gl];W[ln];B[rk];W[hk];B[el];W[dk];B[ek];W[im];B[gn];W[dl];B[cj];W[em];B[fm];W[ho]

;B[fp];W[fo];B[go];W[gp];B[fq];W[fn];B[hn];W[eq];B[gr];W[hq];B[in];W[jn];B[io];W[jp]

;B[ip];W[iq];B[er];W[cq];B[gq];W[hp];B[jq];W[on];B[ok];W[jo];B[ir];W[hm];B[gm];W[di]

;B[ei];W[sm];B[sl];W[rj])

【本文2016年2月1日發表於觀察者網(陳經技術分析:谷歌圍棋演算法存在巨大缺陷,達不到人類最高水平)。】

請關注風雲學會的微信公眾平台「風雲之聲」,微信號fyvoice

知乎專欄:風雲之聲 - 知乎專欄

一點資訊:【一點資訊】風雲之聲 www.yidianzixun.com

今日頭條:風雲之聲 – 頭條號(TouTiao.org)


推薦閱讀:

對戰全程視頻!頂級高手苦練DOTA半輩子,就這樣被AI擊敗
【喧囂過後】多了三五根白髮學會自黑 柯潔:替未來人類感知威脅
AlphaGo 擊敗李世石,是否促進了人工智慧行業近一年來的發展?
請問李世石第四局的「神之一手」到底有多奇妙呢?
看了《一站到底》中搜狗機器人汪仔的表現後想起了IBM 沃森,哪個更厲害?有什麼區別?

TAG:AlphaGo | 围棋 | 人机对战 |