兩個 AlphaGo 互相下,誰會贏?
如題,如果兩個 AlphaGo 對局,誰會獲勝呢?為什麼?
謝邀。如果2個AlphaGo對弈,當然是AlphaGo贏,其實先後手哪一方贏並不那麼重要,如果一定要分出勝負,我認為勝負並不一定那麼明確。為什麼呢?實際上從AlphaGo的論文上來看,它的核心功能就是根據一個局面進行蒙特卡羅數的展開,在展開的過程中使用policy network,在一定深度後停止展開,用value network和monte carlo rollout結合判斷葉子結點的局面優劣。如果一方在葉子節點的判斷出現問題,那麼對方考慮的時候,他可以比前一手多考慮一層,那麼就有可能更接近局面的真實情況,也就更能判斷清楚前面一步棋走的是不是夠好。由於前半盤alphaGo無法靠policy network搜到終盤,所以很難保證不走漏著,那我猜想後走的白方反而獲勝的機會更大。
這種問題自己看 AlphaGo 在 Nature 上的論文就行。
單機版和分散式的之間對戰的話,也並不是單機版一定會輸。不同配置的計算機下跑 AlphaGo 也不一定低配置的就輸,具體比例見上截圖。補充一下,同配置先手勝率大概在 48% 左右,因為電腦看來貼目是虧了。(第三局應該流傳出來一張勝率圖來著,現在一時找不到了,那張和下面這張不知道是不是 AlphaGo 輸出的結果)原因是什麼呢?大概就是跑的時間不一樣吧,計算機在一毫秒內就可以進行足夠多的運算,以至於可以明顯放大即使是同配置下的微小差距(比如搜索樹更深了),這些差距增加了結果上的 「隨機性」,而這就導致了即使規定好了每步棋的時間,每一盤和前一盤都可以是不一樣的。
最後說一句,諸位不會答不要強答,沒這個必要。我全點反對了。阿爾法狗橫掃李世石和其它一切人類冠軍之後,人們決定讓兩台阿爾法狗分別繼續進化,在一年後打對決,想看看圍棋的神級之戰是什麼樣的,AI能否揭示出圍棋的終極奧義。 全世界都作好了看不懂阿爾法狗和貝塔狗的棋局的準備,但局面仍超出想像。 阿爾法狗執黑先行一子。 貝塔狗沉默許久。然後認輸。
好吧如果是對弈,若是訓練狀態相同,其實跟人左手和右手下棋並無太大差別(唔或許人的話還會引入個人好惡),可以說思考迴路相同,只能是各有勝負了。
然而啊狗有個邊下邊訓練的機制,若是分兩台設備下足夠多局,就會變成訓練,如果無外源數據,就會坑爹。
———————————————————
聽說過過擬合么……因為AlphaGo不可能遍歷整個狀態空間,並且以現在電子計算機結構來說發展到死也不足以遍歷狀態空間,所以它才是採用多層神經網路來協助解決問題的。神經網路的訓練,深度學習的進行,如果是自己跟自己玩,缺乏外部的可信訓練資源的情況下,靠自己訓練自己,那隻能過擬合了……
就是會越下越sb的意思……這和我的左手和我的右手猜拳,贏得都是我,輸得都是我有什麼區別。。。
阿爾法狗橫掃李世石和其它一切人類冠軍之後,人們決定讓兩台阿爾法狗分別繼續進化,在一年後打對決,想看看圍棋的神級之戰是什麼樣的,AI能否揭示出圍棋的終極奧義。 全世界都作好了看不懂阿爾法狗和貝塔狗的棋局的準備,但局面仍超出想像。 阿爾法狗執黑先行一子。 貝塔狗沉默許久……………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………然後認輸。
所謂 一子定江山 !
----------------------------------
按照 先下由於貼目原因的原因,可以另寫一個段子:阿爾法狗橫掃李世石和其它一切人類冠軍之後,人們決定讓兩台阿爾法狗分別繼續進化,在一年後打對決,想看看圍棋的神級之戰是什麼樣的,AI能否揭示出圍棋的終極奧義。 全世界都作好了看不懂阿爾法狗和貝塔狗的棋局的準備,但局面仍超出想像。 阿爾法狗執黑先行一子。 貝塔狗沉默許久,還尚未落子……………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………………阿爾法狗認輸。所謂我還沒用力,你就倒了……
你已經死了!
這個可是我的原創阿爾法狗再進化:自學3天,就100:0碾壓李世石版舊狗
不用猜測了,谷歌已經用新一代狗秒殺了舊狗,而且耗電更少,只用了4個TPU,之前是48個TPU
谷歌股票會贏。
這還不簡單?當然是ALPHA GO贏
根據目前已知測試和數據來看,執白棋的狗勝率更高(俗稱白狗),圍棋執黑一方需要貼目····
其實我看了下阿爾法狗下棋的原理,卷積網路,蒙特卡洛搜索樹,似乎仍然是靠的海量計算,下一局棋就要花3000美元的電費,那要是下29路,39路的圍棋,豈不是要把全美國的電都燒光?下贏了又有什麼意義?畢竟不是真正的模仿人類智能。
神經醫學方面的解釋能多些嗎?
看貼目,基本還是看拋硬幣的結果。誰執黑誰贏。百度百科裡面:「截止到2014年底,中國大陸主辦的貼3又3/4子(相當於7目半)的世界大賽共有380盤對局,其中黑勝200局,勝率為52.6%(前3屆春蘭杯相當於貼5目半,未計入)。而台灣舉辦的應氏杯(貼8點,也相當於7目半)則是黑勝100局,白勝97局。由此可見,即便是貼7目半,黑方似乎還是略佔優勢。」
推薦閱讀:
※AlphaGo 2.0 與其 1.0 相比有哪些提升?
※顯卡、顯卡驅動、cuda 之間的關係是什麼?
※深度學習在AI實現方法上是否已經形成了壟斷,這是不是一種不好的狀態?
※深度學習在路徑規划上有哪些應用?
TAG:人工智慧 | 圍棋 | 機器學習 | 深度學習DeepLearning | AlphaGo |