如何評價 AlphaGo 的對局棋譜?

官網:AlphaGo | Google DeepMind

五局五勝,其中四局是對手認負


水平有限,很多地方下的很本分,但蒙特卡洛演算法的特點就是優勢下的本分。

不過有一局電腦執黑從中間突入白大空,最後把白棋反吃,證明這個ai力量也還可以。

然而從10局中電腦輸了2局看可能電腦可能劣勢下依然下的比較本分,或者棋局進入了大於20步深度的對殺(這個在圍棋中相當常見)

隨手舉個例子

讓電腦無所適從,側面又佐證了「水平有限」。

-----

好吧,電腦有一點好,就是算不出可以規避嘛。規避掉極深的對殺計算,規避掉10回合以上複雜的劫爭,我損一點照樣贏你。有趣!

但是這也並不一定成立的。


柯潔說了,雖說看棋譜感覺水平有限...但可怕的是這還不是完全體,它是可以學習進化的...


其實這種勝利是一種感性和理性的特質化表現。

首先要ALPHA GO用的演算法是典型的BP神經網路演算法,但是是被限制運算量的神經網路演算法ANN。這種演算法非常好理解,就是將計算單元分配在不同功能的神經層中,一層專管理分解輸入內容,將提取的信息和信息的關聯肢解分離,然後將信息後移送到到若干個計算層,計算中間結果後移然後送到表達層按照一定的過程重新組裝。WATSON那個問答AI大家可能還有印象,那是最大關聯網路矩陣運用最好的AI之一了,是ANN-QRNN演算法在文本半結構話數據運用的典型,但是在模擬人類大腦的思考模式。

其次,人類的神經網路不是單一運行的。知道生物學知識的人都知道,神經網路的是長期在其他系統配合環境中運行的。如果李世石是男性,在雄酮的作用下,他的神經網路對策略的選擇更偏向男性性別風格的選擇,事實上國際女子象棋大師的段位和發揮和男性象棋大師是有長期差別,因為雌酮的作用和作用遺留對形成行為的長期反射是必然的結果。如果李世石有正在哺育期的兒子或女兒,則對他的近期決策和神經反映活動產生深淵影響。哺乳類動物幼年期生物會在6個月至5年抑制父系腎上腺素、睾酮的分泌,以降低父親的攻擊性和再生育能力,從生物遺傳角度獲得父親的資源和安全的保證。新聞上則報道了這一消息,其實現在這個時間段,李世石從戰略博弈的角度是更傾向防守型策略的,因為從生理優勢來看他是正在哺育幼年期兒童的首次父親,而首個孩子對年輕的父親的睾酮抑制是非常強烈的,根據細胞雜誌的文獻,一般首個哺育幼子可以讓父親降低15-55%的睾酮分泌。

人類之所蘊含很多情感作用,到今天為止也沒有任何信息學家、生物學家能更證實感性作用在戰略上是不佔優勢的。但是高度理性的特點確實在局部戰略上可以獲得優勢。如果從另外一個側面思考,我們所有人都能大體體會別人的感覺和情緒,那麼這就鑄就了另外一種信息傳遞和表達的通道,在社會網路和群體中的信息優勢可以通過這種信息感知過程和表達過程發揮出長期的戰略優勢,如藝術的修養、文學的修養、同情等。這些優勢相對直接的理性優勢可以表達為幼年期兒童的哭鬧,因為兒童明白感性也是可以通過向特定感性對象傳達才能得意理解的,兒童明白向父母哭,但是從來不向IPAD哭,因為可能他們實驗過幾次,但是沒有得到任何感性的回應。而感性的回應從策略上講是非常模糊的,所以很難界定回應的真實戰略意義,一般我們就稱其為情感回應。從博弈上來看是信息和策略的運用,而感性系統和理性系統交叉在人類的行為中,所以從AI的角度,更加難理解李世石的每一步決策,因為這些決策雖然是相同的神經網路做出的決策,但是卻受到激素、經驗、情感的多重干預,對AI來講可能包含著某種更加深意的策略行為,而ANN是純的演算法和數學,所以它並沒有能力理解李世石所傳遞的綜合信息,所以在雙方博弈的時候,只有很少的部分能回應李世石。KBA轉播中李世石情不自禁的轉頭看向ALPHA GO,但是這一弊ALPHA GO是不能夠理解的。人類的博弈遊戲從來都不是純理性的結果,是理性和感性交織組合的結果。兩個人類棋手的相互直視間其實完成了理性、感性、社會優勢、生理優勢多方面的交叉比較,而ALPHA GO只能是個下棋工具,其他方面均不具備比較條件。

從計算量來衡量,我覺得雙方的計算和信息輸入量是均等的。ALPHA GO的能耗比可能更高一些,李世石的能耗是225千卡/小時,而ALPHA GO的能耗約是280000瓦特時, 從能耗比方面李世石是更加綠色環保的圍棋大師。從神經計算信息量來測量,李世石的神經系統裝機總量小於ALPHA GO,有2億個神經元。AL GO大約有 200億個計算單元(一次0/1換量為2),最麻煩的是李世石之能調動1-3%的神經元量(他下棋的時候),而ALGO可以調動90-100%的裝機總量。所以他們在計算力上有生物功能上的差距。這種差距是生物需氧量的限制,因為活動大量神經元系統需要很多能量,調動全部腦神經需要更多氧氣,人類的呼吸能力不能達標。其次是過度氧化衰老的問題,過度氧化產生後果就是衰老和糖化。所以我們在計算能力上沒有公平相處。如果提供同樣計算能力的基本耗能限制,ALPHA GO是不可能有現在的計算功效的。

總結,AI和實際人類的自然構造結構雖然在一定程度上逼近了,但是人類系統過於複雜,想高度模仿或者超越人類系統,哪怕是最容易模仿的神經系統,從物理環境、介質、能耗、複雜系統個個方面均很難超越。科學家們需要更加努力才行。


知道為什麼以前國際象棋電腦戰勝人類時候,大家沒有這麼多感觸嗎?因為國象軟體絕大多數都是開局背譜+後半深度計算的模式。這種模式就是大家所熟悉的算到死的模式,也是所謂的機械式方法,一般來說不會被認可為"有智能"。

但是這次狗狗不太一樣,谷歌團隊並沒有給他編寫一種演算法,而是給他編寫了一種學習方法,讓他反覆學習棋譜,並自己和自己反覆下。這種模式很可怕,因為這也是你我學習的方法,而且,從現在阿爾法狗的演算法來說,他下某一步的過程,從外部來看是黑盒的。也就是說,很像一個人學習一個事情以後,做出反應時候的樣子。你知道他學了些什麼,也最後看到了他的反應,但是你並不知道他一個完整的思考過程。

從這個角度來說,阿爾法狗真的是擁有了自我學習和思考的一個初步能力。


許多年以後,面對最後一個人類,

AlphaGo Exponetial Plus將會回想起,

那場五局三勝的圍棋賽。

當時,它還叫AlphaGo。

首局李世石執黑布局,AlphaGo卻失誤連連。

中盤李落子如風,A則龍翔淺底。

戲至官子,AlphaGo卻無情地力挽狂瀾。

幾番掙扎,李世石打出GG。

隔夜再戰,李世石執白後手,AlphaGo卻再不是十二時辰前的模樣。

進如疾風暴雨,退若銅牆鐵壁。

時針轉了三分之一圈,李世石棄子20投。

眾人皆雲大局已定,世石君想在首爾內環買套小兩房的夢,已被一堆破金屬艹成碎片。

那第三局,AlphaGo已不戰而勝。兩天之後,僅僅走個過場。

時隔一月,卻見售樓小姐拿著傭金欣喜地與李世石合影。

因為,這個冷靜的韓國人,竟如美帝電影般,

愈戰愈勇克服萬難,連贏三局反敗為勝。

賽後,AlphaGo 木訥地對李世石說出Congratulation,露出一個詭異的微笑

然後,將自己命名為 AlphaGo PLUS。


AlphaGo贏了李在世,那麼,想看【AlphaGo 對 AlphaGo】的舉手!


數學除了解決不了情感問題,其他很多問題都能解決。。人類已輸。

這不是什麼機器人和人類大戰,完全就是一群科學家用數學手段解決問題而已。。。。


瀉藥

圍棋並不懂,在這裡斗膽談談我對這件事的認識。

1.大概也就是二十年前,IBM的deepblue戰勝了當時國際象棋界的棋王,一時成為焦點,再後來我上小學的時候,看到這個故事出現在了小學課本里。那時候,就在想這IBM是何許人也,畢竟連霍金老爺子都用IBM的電腦,不過等我接觸電腦接觸互聯網的時候,IBM卻成了陌生辭彙。不知道以後的中小學課本是否會將谷歌的這次戰勝圍棋大師的事例寫入課本。不過,鑒於tg和谷歌的關係,估計不太靠譜。

2. 就在這個新聞之前不久,我還看過類似的東西,大意就是圍棋比國際象棋還要難下,對於人工智慧的考驗還要大,國際象棋也包括中國象棋,棋盤上的棋子是越下越少的,而圍棋則不然,圍棋棋盤上棋子越下越多,越到後面,牽一髮動全身…

3圍棋棋局本身不敢妄議了,只是因為接連被邀請,也就來答一答。

4如果答不符題,請點沒有幫助。


鬼神驚,阿發哥大飛強打入。

人類惑,李世石小跳苦支撐。

鴻蒙開,機器腦三招定乾坤。

……

段子A:

2016年3月9日我們的祖先首次戰勝人類,從此進入第一智能紀元。同學們記住了這可是送分題。

段子B:看來能阻擋AI的只有中國A股了。

……

可怕的不在於AlphaGo會學習進化,而是它學習進化的速度與質量。

可怕的不在於勝負,而是它的很多弈手,人類思維定式無法理解。

可怕的還在於,很多專家事先的預測都錯了,這太像人類艦隊迎戰水滴之前的心態了。

可怕的還在於,人類總認為自己製造的東西自己必然了解必然能夠控制……


最新消息:谷歌AlphaGo先下一城!人機大戰首局李世石認輸

首先申明,本人不懂圍棋,只是對計算機略有了解。

這裡我們所說的AI(人工智慧),並不是真正的和人類一樣,具有獨立思維,能夠進行獨立判斷。目前所有號稱所謂的AI應該是沒有這方面能力的,只是由一堆天才將事先設計好的數學模型用計算機能理解的方式,告知計算機,然後根據這個模型進行模式判斷,從事某個專一功能。當然這個過程中,可能會對模型本身進行修正,也就是所謂的『自主學習』

那麼一個人機對戰我們可以理解為一個棋類大師對戰一堆數學怪才,是的,沒錯,就是一堆。由這一堆怪才分析了大量的棋譜等各種資料,建立一套龐大且複雜的體系,最終建模。然後依託於計算機強大的計算能力。在這裡,AI首先得益於背後強大的科研團隊,獲得了大量研究成果,其次將這些研究成果交由電腦,根據實際情況判斷並處理,再次依賴電腦強大的計算能力。在這一過程中,AI擁有得天獨厚的優勢,先是規避了計算機沒有獨立分析能力的劣勢,有專業人員將分析結果直接告訴電腦,其次,極大發揮了電腦善於數學運算的優勢。相對於人腦,也許每秒只能做幾次加法運算,而電腦可以做幾億次,幾十億次每秒的運算。

人腦的優勢在於抽象、分析、理解能力,比如一個老朋友10年沒見面,10年後的某一天也許見面,這個人的長相、衣著都有了比較大的變化,但人腦依舊可以迅速給出反應,這是我以前的同學/同事/上司...相比於電腦,簡直不能說甩了幾條街,是甩了無數個宇宙。

再看看Apple的Siri,Microsoft的Cortana、小冰對於自然語言的理解,不得不承認在近些年上有巨大的進步,但是距離人類的語言水平依然差距甚遠。

最後再來說說這個對局本身的看法吧。

首先是對局本身不算太公平,因為就棋類而言,初學者和高手(指人類)之間的區別主要體現的對棋局的研判,而高手之所以能夠更早的預判,是因為有『經驗』的存在。而不是說高手比初學者更聰明(你非說讓我和國際大師去下象棋,那我承認我沒大師聰明,我的意思是說在智力水平基本一致的情況下,有下棋很好,也有水平很一般的),在這種情況下,初學者可以通過自身的努力,不斷的學習,研究別人的棋局來提升自己的下棋水平,最終達到和高手近似的水平。當然高手也可以不斷的學習提升自己的水平,讓初學者趕不上自己,但是這種提升是存在極限的,當你當前水平越高,提升的越小,需要付出的努力越大。反觀電腦,『學習』成本極低,因為對電腦來說,所謂『學習』就是一套模式學習,在已有模式上進行修正的成本幾乎可以忽略不計(當然這麼說有點誇大,但是與人類對比,至少是相對較低)。

我覺得無論結局如何,意義都不在勝負本身,Google也不是蛋疼的斥巨資弄個東西就是來陪你們下棋玩的。更多意義體現在以後的專業領域(例如Google自己說在醫療領域)可以幫助人類更好的完成任務,當然具體能幫助幹什麼別問我,我也不懂,我只是一個小小的碼農而已。

最後吐槽一下,Google願意花100萬美刀找個人來做模式訓練,還是很豪的,當然財大氣粗的Google估計也不差這點錢。看這個局勢,很可能Google這100萬刀也不用付出去了。

感謝 @序章提醒,我剛才去查了下,Google確實承諾,若人類選手沒有獲勝的情況下會將獎金捐出去。


如果機器五局全贏,說明人工智慧贏了;如果機器故意輸幾局,那說明它們在下一盤很大的棋。

來自微博,侵刪


雖然我不知道說啥 但是上面幾個答案都不太靠譜


AlphaGo計算的是全局最優值,也就是假設對手是完美應對下的最優值,所以它追求的是無風險的最大優勢。而人類棋手,由於無法考慮到太多的變化,只能按感覺去下,追求的是有風險的最大優勢。所以AlphaGo的棋譜對人類棋手來講可能會覺得太保守或像俗手。AlphaGo會給我們帶來一種新的棋風,人類高手看上去會覺得有時飄逸,有時愚笨,但是對它來講都是最優值,沒有差別。


所有的邏輯判斷都是基於經驗的。所有的經驗都是可以積累的,所謂直覺,不過是大量經驗的積累後省去邏輯判斷過程,直接給出結果而已。

AlphaGo的厲害之處在於完美的複製了上述兩點結論。證明了在人類左腦控制的領域,機器已經完全取勝。

人類只有文學、藝術這類右腦控制的領域還可以領先於機器。無論如何,機器是無法創造出「美」這種東西的。AI再強也沒有用。

最重要的一點,我不認為AI和人類之間是競爭關係。最終會變成合作關係。各自負責各自擅長的領域。


這件事情,遺留下的一個問題是,人類在未來還能擔當什麼角色?

如果在自己創造的領域裡,不再被需要,這才是最可怕的。

如果強行說,藝術是AI無法做到的,我覺得是在自我安慰(姑且不說現在的絕大部分都是偽藝術)。

就像用A去證明A是正確的,藝術領域本身代表的不就是人類自己的感受么?如果沒有人類,AI還有必要去想藝術是什麼東西么?


我覺得,只要有規則,按照規則來,AI戰勝人類的是必然的結果,畢竟電腦設計出來就是為了比人腦算的快算的准么


圖片來自知乎,有侵即刪。


在我看來這就是一個演算法問題,圍棋是一種策略遊戲,最直接就是推理出這一步可能引發的一系列後果,就像是博弈樹的分支,迅速計算出每個決策點和延展下去的結果,自然能夠得到最優策略,所以只要計算機處理能力足夠強大,贏是遲早的事。至於真正的人工智慧、學習人類思維,這還是言之過早。


史稱「狗比的名局」

—————————————————

不開玩笑了,很多人都說感覺棋力在幾個月之內迅速提高,其實它的水平早就超過人類了,只是在下指導棋,就像藤原佐為教進藤光一樣,其實它已經有「神之一手」的水平了,只是看上去「遇強小勝,遇弱也小勝」,就像學神考試故意考60分一樣,一點不浪費


本人不懂圍棋,但看了正在直播的 李世石 VS alphago 比賽的第三局,感覺alphago明顯是在牽著李世石走;個人覺得alphago的策略是:首先,儘可能地掌握主動權;其次,你下你的,我下我的;第三,利用計算優勢,利用一切機會,開闢新的戰場。

李世石採用正確策略應該是:不要去管輸贏,把比賽當成自己一個人在復盤,再有一定不要被Alphago牽著走,一旦失去主動權,肯定會輸;人的計算能力是比不過電腦的,但人對局勢的判斷明顯是要優於電腦的,不要讓電腦判斷出你的目的


圍棋對AI來說,真是個簡單問題,每一步最多最多19x19個選擇,剩下就是如何評估這些選擇的勢態函數了:方法就是nature那篇文章里提到的強化學習(勢態的自學習,hint:圍棋最終勝利的勢態是比較確定的形態)、深度網路(一定的抽象,hint:降維)和樹形搜索(一定的蠻力——壓死駱駝的最後一根稻草)了。

李「師師」唯一的機會就是加入facebook go 團隊反身挑戰alpha go了;

柯「姐姐」還是避戰的好,免得小心臟受不了,畢竟年輕嘛~


以上的回答都是扯淡,說的都是以前AI的演算法了,其實並不是AI打贏了小李子,而是所有圍棋界所有的人在和小李子戰鬥,AI只是集歷史眾人棋手為一體!


推薦閱讀:

如何看待 DeepMind 要挑戰星際爭霸 2 ?
如果同時給你谷歌的 offer 和清華的研究生錄取通知,你會選擇哪一個?
搜狗參加《一站到底》的機器人牛嗎,和 AlphaGo 下圍棋哪個更厲害?
如何看待谷歌被歐盟判罰 24.2 億歐元?有哪些值得關注的信息?
中國的 BAT 與美國的 GAF (Google / Amazon / Facebook) 比較起來怎麼樣?

TAG:圍棋 | 谷歌Google | AlphaGo |