是不是對於任意 n×n 大小的圍棋棋盤,人類都贏不了 AlphaGo Zero 了?

之前在知乎上有一個類似的問題: 棋盤大小以及所用時長,對 AlphaGo 的獲勝概率有影響嗎? 有個回答就是說當時的AlphaGo還需要人類選手的棋譜,而這個棋譜就是19×19,所以AlphaGo應該會不行。既然現在AlphaGo Zero不用人類棋譜了,那是不是對於任意大小的棋盤都是最強了?


顯然不是,令N=5,人類執黑。AlphaGo:MMP。

--

N=7及以下,人類和AlphaGo應該可以走出最優解。

N=9會比較有趣。九路盤,人和狗之間的差距不好預測。狗能否無限接近最優策略,這裡要打一個問號。不知道DeepMind閑下來會不會嘗試一下九路。


大於19路肯定成立

改成21路,狗只用三天就會了,人要會下要再研究三千年


規則很重要

比如黑先,貼目數。。。。

再比如,還棋頭


n比較小的時候應該是有先手必勝的。

n大的話,alpha go應該勝率很大

下面是另一個答主的回答,看來現在已經被Google打臉了。。。不知道評論裡面的有些人是不是需要配眼鏡了。。。2333


不是,N=2,我先走

別說Alpha Go Zero了

就是Omega Fly Ultimate都不是我的對手


謝邀啊。

答主"INT.ZC"給的理由我真沒看懂,為什麼把AlphaGo想得那麼蠢呢。

對於n&>19,我個人覺得alphaGo Zero獲勝的可能性很大。當然這裡的AlphaGo指的是用新的n調整網路結構,以同樣演算法重新訓練過的網路。

畢竟n=19和n=30對於AlphaGo來說幾乎就是同樣的一個問題。就算人類重新積累幾百年n=30的經驗,應該還是下不過。就像現在n=19下不過那樣。

但當n變得非常大的時候,由於內存限制,現有的硬體可能就很難訓練AlphaGo Zero。同時增強學習的演算法可能會由於反饋的步數過長而變得不那麼有效。這種情況下肯定要修改現有的演算法,但深度增強學習+蒙特卡洛樹的路子應該還是適用的。

相應地,這種情況下人類的水平也會變得很菜,畢竟大計算量更不是人類的強項了。有了AlphaGo的基礎, 我相信Google那幫人研究幾年的話,在n非常大的情況下,也許找不到很優的解法,但戰勝人類的可能性應該依然是很大的。


不會

如果沒記錯的話,狗的神經網路是有限的

同樣一條面積很大的龍,對你來說是一整塊棋,但在狗眼裡則是好多塊棋拼接在一起的。

換句話說,你一眼就知道這條龍是否活著,但狗不一定能知道。

實戰中這可能導致狗拚命做活,或者拚命攻殺活龍。無論怎樣都是致命的。

PS:隔壁問題的高票是基於AlphaGo需要提供大量數據樣本進行訓練這樣一個偽命題上的。事實上至少從AlphaGo Fan開始AlphaGo就進行了大量的自我對弈,也產生了很多和人類棋手不一樣的下法。比如大雪崩定式,AlphaGo認為黑棋在O4長很吃虧,喜歡在S4打。白R3黏之後脫先。強制讓他O4長之後也會走出吳清源先生開創的d位內拐。

PPS:總拿三千年說事的真是夠了。三千年前的圍棋長什麼樣你見過?兩千年前棋子還是方的,一千五百年前才升到十九路。江戶時代還有第一手下天元的你看看現在有幾個干這事兒?現代圍棋不過從吳清源開始,歷史不足百年。何況升路對死活手筋一類的影響不大,邊角的定式也不會有多大影響。只是要建立新的大局觀(主戰場由四周轉為中腹

建議既沒學過圍棋也沒學過人工智慧的還是省省吧。這些不是道聽途說就能回答的。


有一個叫圍棋手談的app,按照阿爾法狗演算法做的,裡面9路已經很強了。我業餘四段大多數時間是輸的,偶爾帶悔棋贏過一兩次


沒啥generalization。換成20*20就大打折扣。


n=1 我先走


應該不會。

拿Leela為例,我和他下19輸多贏少,然鵝下25隨便下都能贏。

棋盤擴大對基本的手筋對殺收官沒啥影響。


一幫民科在那裡YY,

谷歌分分鐘打你們的臉。

N*N,N不會等於無窮大吧,這個人一輩子也沒法玩一局。

N=1億?兩個人一輩子只能玩一局。

好了就算N=1億,谷歌分分鐘打你們的臉;把人類棋手虐出翔!


我就想知道,Zero和別的AlphaGo前輩的下棋數據有沒有反饋到自己的神經網路里去?

如果是,Zero的Input就是它的前輩們,它的演算法其實沒啥了不起.


推薦閱讀:

能否使用區塊鏈的算力來解決深度學習訓練?
目前,人工智慧語音在說中文時的語氣感覺上還比較機械,怎樣使人工智慧語音的語氣更自然一些?
theano中怎麼查看TensorVariable的值,在debug時如何跟蹤這樣的變數?

TAG:圍棋 | 深度學習DeepLearning | AlphaGo | GoogleDeepMind |