AlphaGo 演算法的通用性到底有多廣?

看到有知友 @chime 葉提到被 Google 收購前,曾自學玩超級瑪麗奧通關。

比如能否綜合銀行的歷史信貸數據,能否快速鑒別關鍵指標賦予權重。

同好奇未來的應用擴展性如何。

----

本題已收錄至知乎圓桌 ? 對弈人工智慧,更多關於李世石對戰人工智慧的解讀歡迎關注討論。


談一談AlhaGo演算法運用於金融市場的通用性。

目前實際意義上的神經網路,AlphaGo本質上是在一個存在未來函數勝率反饋同時時序對應對手行為(回合制)的策略條件下統計所有可能環境下的策略優劣度並相關自身與對手策略的相對決定性選出最優解。細節上會分解策略的步驟並量化策略的關聯性的對應效用(也就是通過蒙特卡洛樹搜索擬合局面評估函數和策略函數、以及機器學習RL形成對數策略)。這個統計歸納成一個庫再通過一個對數據演算法輸出出來。

細節見Nature的論文:http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html

AlphaGo其數據本身就是演算法。那我們下面就討論以神經網路的學習演算法形成交易策略的可行性。

AlphaGo對於圍棋與股票市場的差異主要體現四方面:

一、信息生成機制不同,股票市場中的動因條件是多層次且混沌的。圍棋的相互決定性只對於對手,而股票的相互決定性對於所有市場參與對象

二、對手與對手反饋機制不同,圍棋是回合制完全信息非合作動態博弈,而股票市場是一對多完全信息非合作靜態博弈

三、優劣度評估與局面評估函數的性質類似但方向不同,股票的最終評估對象是收益,而圍棋評估是勝率。且股票的局面有兩個層次,一是個股篩選,二是持倉後策略。兩者組合,就是在市場中不斷交換個股的最高勝率條件的持倉。如果將優劣評估設成以增輻一定偏離值內的符合度,亦或者是動態生成局面下一時序可能局面收益預測的權重,這兩者就是兩個獨立的優劣評估系統。

四、數據原型不同,圍棋只需處理對手數據和局面數據。股票有成交sick,有價格、成交方向數據,極難產生關聯條件。

有空,文末會聊一聊現行有效的」分型「理論過濾混沌信息建立有效條件的應用性。

而對於股票市場時序對應行為(非回合制)的機制:

1.歷史參與者V行為構成市場信息a

2.參與者ABuy觀測市場信息產生交易動機,與參與者ASell發生交易,或ABuy產生

3.A交易影響市場價格,構成市場信息b,使觀測者B產生交易動機

4.觀測者BBuy與BSell發生交易,構成市場信息c

如果說V行為導致了A行為,連續產生了C行為。而V、A、C行為本身存在相互決定性的影響關聯就是一個由人類心理動態構成的混沌系統,是取決於完全不同的動機機制和策略機制而產生的不同頻率的固定方向行為(Buy與Sell)。如果以行為發生邏輯提取條件,那麼到了不同的數據環境,混沌系統又不同了,也就失靈了。

因為決定交易的,市場信息只是誘因,動因是對於市場信息的動機機制而產生的策略。這個混沌系統下,有效的信息極其有限。大量的數據都是垃圾數據。

股票市場的優劣水平計算,是以收益為結果導向,而這種過程是受大量無法產生條件關聯的中間因素干擾的。

從數據原型來講,如果不以對手行為為時序單位,按歷史市場信息來分析

我曾經做過一個統計模型,一個4日的K線的開盤價、收盤價、最高價、最低價的增輻(Increase.)為參照數組,以5%為允許偏離值。1990年至今3000餘支股票的數據,僅檢測到1個匹配數組。後放低標準,僅檢測開盤價,也檢測到不過6個匹配數組。

AlphaGo本身的數據原型是回合制並只有一個反饋條件的,能夠形成數據關聯特徵的數據以數百萬計。

而股票市場的反饋條件有多少個呢?不知道,這是與市場參與者動機的發生密度決定交易頻率而形成的,這個反饋條件也是一個指數級的數字。

任何模型、策略、邏輯、演算法的基礎,基本邏輯都是構建在條件反射上的,股票市場的複雜度以及無序性無法有效的提取關聯數組條件(這也是為什麼會有原理不明但卻有效的分型理論以及「纏論」的成因)

AlphaGo的條件可能足夠多,但是是明確且相互對應的。

而股票市場的條件反饋如何構建?股票市場的複雜性已經證明了不能用明確條件來統計提取有效數據擬訂對數據策略。

而如果用一定允許偏離值來抓取數據特徵關聯條件形成策略,上面的舉例已經證明這其中的偏差超出了有效的程度。並且,股票市場上,相同的數組,產生的不同結果也是極其正常的,時序結果也是不同的。

以上


可以啊,綜合歷史數據推演未來這個其實都不需要「深度學習」。ICML14的時候我聽騰訊的人再說他們用的是Logistic回歸,據說TB也用的這個。不知道現在用的什麼。不過一般的回歸演算法其實應該都夠了,當然用神經網路去訓練個什麼玩意兒出來也不是不可以。


AlphaGo的強大之處在於結合了集中先進的人工智慧演算法,再針對圍棋問題本身的複雜度(深度和廣度)進行演算法的優化,使之能在短時間內做出正確的決策。雖然AlphaGo只是一款能下圍棋的程序,但是它的成功體現了人工智慧技術巨大的潛力,隨著計算機計算速度和演算法的發展,相信人工智慧將會改變世界。

再回到AlphaGo本身,它主要應用了三種人工智慧技術:

  • 首先是蒙特卡洛搜索樹(Monte Carlo tree search),這是一種強大的計算機博弈技術,在其他的博弈AI中也應用廣泛,並取得了很好的效果。

  • 再就是強化學習(Reinforcement Learning),通過機器自我的學習和探索,可以讓AI更加的聰明。

  • 最後就是深度神經網路(Deep Neural Networks),在AlphaGo中有兩個強大的深度神經網路:策略網路(Policy networks)用於選擇下一步棋的走法,評估函數(Value networks)用於評估棋盤的全局形勢。

對具體實現感興趣的可以看nature上介紹AlphaGo演算法的原文:

http://www.nature.com/nature/journal/v529/n7587/full/nature16961.html

AlphaGo是AI技術的一個漂亮的應用,與其說機器戰勝了人類,不如說人類的智慧戰勝了自己。目前在語音識別,計算機視覺,生物信息學,自然語言處理,推薦系統,機器人等諸多方面,人工智慧都有著廣泛的應用。


謝邀。

在圍棋領域戰勝人類頂尖玩家的AI已經誕生了,那麼在其他領域呢?我們不禁浮想聯翩。然而落實到背後的演算法上,雖然人類一直企圖一勞永逸,期望有一套通用的演算法能夠解決所有問題,但實踐證明這顯然不太可行,那麼一個強大的演算法究竟在多大程度上具有通用性呢?我們特別邀請了 竹間智能深度學習科學家 趙寧遠 ,來解析本次AlphaGo演算法的通用性及其背後的思考。

----------------------------------正式回答分割線-----------------------------------

首先祝賀AlphaGo團隊,做出這樣一個具有突破性的系統,讓人類領略到了深度強化學習的威力,同時增強了整個世界對AI的信心。

不過,狹義上的AlphaGo演算法實際上毫無通用性可言,這一點無需多說。

甚至從大的解決思路來說,AlphaGo的演算法都只能算是為棋類遊戲定製的。就算是推廣到Two-player Sequential Games這類大的問題(Perfect and complete information)上,也僅僅說明它具備能夠在幾乎所有棋類運動中碾壓人類的實力。

但我們都知道,即使計算機能在紙面上的問題(任意的Game)中打敗人類,也都有一個繞不開的事實,即這個世界上的大多事情,都是很難用簡單的理論抽象去解釋的。人類的智慧則在於,人類可以從現實中總結出理論上的規律,並利用理論去指導現實的操作。很顯然,AlphaGo是不具備這樣的智能的。它只是一個可以比人類更好地在一個巨大的game tree裡面去近似尋找一個最優策略的演算法。

再多說一點有關德州撲克(非完全信息博弈)的,在2人非完全信息博弈的遊戲當中,也有理論上可以收斂到最優解(Nash Equilibrium)的演算法CFR(Counterfactual regret minimization),並且最近的機器也已經擁有戰勝世界頂級高手的實力了。

但是對於n-player的情形(比如麻將),Nash Equilibrium就可能會有多個,那麼你無法保證你一定能夠拿到最優解。但這是正常的情況,從概率上講,機器還是有較大可能可以征服麻將的(當然了,如果是出老千這樣的事情它就肯定不行啦)

(有人提到從Game Theory的角度去破解股市,嗯,當然理論上是可能的,但是影響股市的因素可以說是這個地球上所有的事情,你能夠給全世界發生的所有事情做一個模擬器嗎?答案應該是不靠譜的。至於自動優化投資配置之類的——這個一直都是計算機算得比人准好嘛。

還有一類遊戲現在機器做得也非常好,甚至有可能在很多領域超越人類,那就是類似Flappy Bird這樣的遊戲。當然,因為事實上只有一個玩家,所以這隻能算是一個Decision Problem,但其特點在於未來世界的狀態是不可知的。玩家只能在某一時刻觀察到有限的未來,並需要作出回報期望值最大化的行為。目前對於這類遊戲,人類對電腦基本上也只能甘拜下風了。

總結一下這幾組突破的共性的話,在所有這些問題中,數學分析的部分都可以算是經典理論了,唯一新的內容,就是通過神經網路暴力擬合一個函數,而且,可以直接從感知層的輸入(圖像輸入)到解空間做映射,無需進行邏輯形式的拆解。這樣的函數的複雜度可以說是駭人聽聞的,從傳統的計算理論看來,就算是通過近似演算法去尋找最優解,結果都是接近於不可能的。但非常複雜的神經網路不但可以很好地擬合這個函數,並且還被證明比較robust(起碼AlphaGo看起來發揮比較穩定),這可以算是一個工程上的突破(相比於直接求最優解降低了不知道多少數量級的計算量),而這個突破的應用面就顯得非常的廣闊了。

通俗一點講,人類往往對某些特定的問題有一種「直覺」,這種「直覺」往往能夠在模糊地描述一些因過於複雜而難以用邏輯窮盡的問題時,卻有不錯的性能,而這種看起來非常模糊的「直覺」往往被認為是人類相對於電腦的一種優勢——電腦只能分辨0和1——但現在看起來,通過訓練一個深度神經網路,往往可以取代人類的「直覺」,而且表現極好,這也許是AlphaGo(或是冷撲大師)給我們的一些啟示。

那麼既然AI已經可以做到這個地步了,它到底有哪些局限呢?

主要是在「制定目標」這個層面上。顯然,作為被人類製造出來的AI就是要服從人類給機器設定的目標的,無論是戰勝另一個人類玩家或是駕駛汽車,機器是不能夠(當然人類也不會希望他們能夠)自行設立目標的。因為人類的目標往往來自於一些非理性因素,而機器很不幸,因為過於完美所以無欲無求,更沒有生存或繁衍的進化需要,所以很難想像機器會去「自主」地產生目標。很遺憾,這就使得機器沒有辦法形成自主性。想得遠一點,諸如「服務主人」這樣的目標是否可行呢?那麼機器需要先去了解「主人」的喜好、情緒狀態等等「人性」的東西,而這些內容,雖然如上所述,作為一種非完全信息博弈,機器是可以通過反饋不斷學習的,但首先,一個服務機器人是不能夠允許先要犯幾十萬次錯誤以後才能正常工作的,其次,在「了解人類」這個事情上,是沒有一個所謂的明確目標的——人類的喜怒哀樂,希望與失落,這並不是一個可以被很好地定義的問題。另外,你聽說過阿西莫夫定律嗎:)

其次就是當前的深度強化學習效率是比較低的。人類的思考方式中確實會有「直覺」的部分,但同時也有理性和邏輯的部分。後者保證了人類可以通過邏輯系統的驗證非常快地學習到一個概念。因為只要在邏輯上可被驗證(當然,基於現有的知識體系),那麼該命題就必然為真;或者說如果難以尋到反例,那麼就暫時認為該命題可能為真——哪怕只看到一個樣本,甚至沒有見過樣本——這使得人類有非常優秀的zero/ one shot learning能力,而且同時也不會受到樣本極度不均衡的影響。這就是scientific method——大膽假設,小心求證,通過inductive/ abductive reasoning來獲取假設並且不斷去refine對於此假設的認知,並且可以通過deductive reasoning來做邏輯檢查——這樣的學習方式,才是高效的。雖然我們生活在所謂「大數據」的時代,但是「數據驅動」的AI僅僅解決了一些常見的問題,從某種程度上而言是利用數據去做一些short cut,省去了人工抽取規則的幸苦,離真正的「智能」其實還比較遠。

看起來機器要達到人類的智能似乎還不太容易,但若是類似於AlphaGo這樣的演算法被用來製造殺手機器人,甚至在某些陰謀家的手裡成為了破壞人類生活的工具,倒也不是過於科幻的事情:)從某種程度上來說,「人類的智能」在機器的眼裡是不是一個有意義的事情,這倒也說不定啦。

本回答來自竹間智能深度學習科學家趙寧遠

相關問題鏈接:人工智慧的電腦打英雄聯盟LOL能拿冠軍嗎? - 知乎


AlphaGo本身作為整體沒什麼通用性,但這套模式是很好用的鎚子,可以砸很多釘子。不過嘛,也有局限性,特別是能自動產生標註數據這個大招,不是任何領域都能用的。

深度學習倒是個更通用的東西,不過這個也有限制,對標註數據量有要求。但是在圍棋這個領域正好搭配上了可以自動產生標註數據的大招……

所以為什麼下一步要做的是星際爭霸呢,因為星際也是個可以通過左右互搏搞出幾十億級別標註樣本的東西啊。

還有之前deepmind搞的那個解決紅藍帽子問題的東西,也是一樣的套路,自動生成海量標註樣本……

可惜的現實世界還有很多領域的樣本往往非常少,而且不能自動生成,比如股市,模擬出來的樣本毫無意義,真實的樣本就那麼一丁點,所以這套組合拳就玩不轉了。

最後強調一點,阿狗再強大,也是個針對見過的樣本的參數擬合器,而且是對圍棋這個領域的專用擬合機器,所以幻想什麼阿狗管理城市的還是省省吧,沒有樣本,搞什麼統計!擬合什麼參數!

====

另外當前高票答案說的是什麼鬼,不是高炮打蚊子,是核潛艇打蚊子,根本就套不上去好嗎,居然還有那麼多人贊。


你說的這個需求,銀行業已經有成熟應用,用alphago屬於大炮打蚊子了。

IBM的watson現在正在商用領域發力,其中兩個主力方向供參考:律師和醫生

就目前的應用和測試結果,在有足夠病例和病理知識的輸入下,watson對一般病症的判定準確率是高於初級醫生的,換句話說,它是可以替代美國大多數社區醫院的醫生做的事情。

律師行業,watson能做到的,和助理律師能做到的功能差不多了,效率不知高了多少倍。

然後,從IBM內部某些人的觀點來看,watson和alphago的智力對比,基本上是狗和人的對比。watson雖然是人名,但是在阿法狗的智商面前,他才是真的狗。

所以可以想像alphago的未來空間到底有多大。

靜候偉大的AI紀元到來。

-----------------------

剛才幾個朋友討論這個事情,突然有一個想法,也許deepmind真正的價值,並不是局限在某個單獨的行業呢?

可不可以這樣,讓deepmind替代政府職能,來管理一座城市?制定均衡的經濟競爭力和民生指標,根據該城市的地理環境、自然資源、人口、教育、交通、經濟、社會、旅遊、文化等各方面的資源,制定最優的發展規劃,最後橫向對比,看看是AI管的好,還是人類自己管的好?

如果拿一個城市做樣本測試成功,然後讓AI來管理一個省試試?一個國家試試?

然後管理一個星球?


就應用來說,圍棋是個很簡單的問題,因為它沒有隨機因素,控制也很簡單(每次從361個位子裡面選一個),而且目標也簡單(只要勝就可以,不需要確定勝幾個子),所以類似的玩超級瑪麗也是一樣的(只要控制上下左右,跑,跳,打子彈),敵人出現都是模式化的,目標也很簡單(不死跑到終點)。而且這兩者都是可以在電腦上自動復盤的。

實際應用的話,以往基於經驗的領域,都可能會被取代,或者會引入電腦輔助

下面有幾個例子

1. 醫生的專家輔助系統

2. 樓宇的設計和安全評估系統

3. 自動駕駛

4. 自動發貼機器人

5. 網路色情內容的自動清理


這東西要是去模擬戰爭,恐怕人類所有的將軍來都白送


DeepMind都說了他們是領域無關(Domain Independent)。


AlphaGo 演算法的通用性不高。圍棋複雜度是10^172,原來認為是不可計算的,但是現在認為 即使是這樣複雜的題目也是可計算的。

AlphaGo 證明了人工智慧演算法的通用性很高

可以預計將來會出現更多的人工智慧演算法組合工具,比如長短期記憶演算法和其它與時間、記憶、自動生成概念的演算法。人工智慧演算法的組合拳時代來到了。

在海量互聯網信息裡面,人的認知是機器的一個子集。機器可以利用掌握的信息幫助人類看到更遠、更深的地方。

誤診是現在的普遍現象,好的醫生挂號一號難求,大家都擠在大城市的好醫院裡看病。國家提出醫療公共服務均等化,政府在建立醫療檢測硬體後,會投入到人工智慧的雲服務。小城市的年輕醫生只要拿到檢查報告單,將檢查報告輸入網路後會得到結果或進一步的檢查建議,通過醫療雲的幫助,水平也很好。能極大的促進醫療行業的進步,減輕醫生的負擔。

教育方面,演算法也可以幫助教師減輕負擔,提供更有針對性的個性化的教育方式

除了在醫療診斷、教育、遊戲行業會快速普及外,在智能手機和個人管家服務也會有進展。谷歌的robin,微軟的cortana,蘋果的siri,會有一場競爭。

個人判斷,AI 投資水庫大壩的閘門已經打開,在資本的滋潤下,會有許多小公司野蠻生長,也會產生更多的併購。


系統信息完備,能用。

系統信息不完備,還是乖乖專家系統篩選參數吧。


化學相關。其實很多地方可以用,我舉個例子。我們可以先用高通量技術合成幾千到上萬個某種材料,合成條件有各種差別,合成的材料自然也有好話。然後把合成的條件和材料的性能的詳細數據給AI學習,AI可以自己擬合建模,在不需要進一步實驗的基礎上根據模型篩選優化材料,然後再根據計算結果我們合成少量來補充數據,完善模型。效率簡直飛起。。。據我所知京都大學就在用類似的方法篩選藥物。我覺得自己要失業了


下一個是星際爭霸。


AlphaGo本身沒有體現出任何」通用性「,AlphaGo還是在展現」計算「的力量。因為圍棋是定義的非常清楚的問題,一切變化都出不了361個點。而想要具有所謂「通用性」,最難的就在於怎麼把問題和知識講清楚,計算本身只是解決問題的一環。Watson計算再弱,在」通用性「上也比AlphaGo強多了——雖然一樣沒有什麼」通用性「。

暫時高票的AlphaGo 演算法的通用性到底有多廣? - 知乎用戶的回答說的非常有意思:」就目前的應用和測試結果,在有足夠病例和病理知識的輸入下「。

你實際來做一些相關的事情,就知道這句話其實有必要加粗標紅重複三遍了。

人工智慧威脅論者有空擔心那麼多,不如先玩玩google翻譯。


對於完全信息,規則確定的遊戲,都可以用alphago的方法來解決

像麻將,橋牌等遊戲,乃是信息不完全的

在題主舉的例子中,金融方面的決策,是規則不確定,信息不完全的。

這類問題還不能依賴演算法和神經網路來直接解決。然而應該可以做到近似解,有參考價值。輔助人類進行決策來提高勝率。


試想:中美開戰,美國用同樣的AI來指揮戰役,結局會是怎樣?

僅從這次人機巔峰對決來看,狗的實力之強已經非常明顯了,相信狗和狗之間的棋局已經超過了人類的理解水平。這說明在博弈方面,狗的AI學習模型已經成功擊敗了最優秀的人類。

同樣的策略,讓狗從人類幾千年的戰爭實例中學習,再左右互搏,從各種限制條件下的成千上萬次的模擬戰爭中學習,相信狗也能發展出人類難以理解的戰爭策略。技術率先突破的國家,或許最終橫掃全球,一統江湖。

這一天遲早會到來,技術為王的時代終於來了。

......2026年,朝鮮發動復國聖戰,決定不成功就成仁,實在不行就「炸掉這沒有朝鮮的不值得留戀的星球」,面對朝鮮宇宙第一戰神三胖子的強大攻勢,人類已經束手無策了,美利堅派出了狗狗的代表BetaGo,三胖子大笑:美國完蛋了,狗,能勝過了人嗎......


試想面對經濟運行困局,無論是經典經濟學理論還是其他各門各派都沒有太好的辦法,純粹的需求拉動弊端和乏力盡顯,如果將經濟數據輸入Alphago X後,通過價值網路,深度神經網路遍歷,將社會浩如煙海的各個經濟實體對經濟影響程度學習到位,那麼能看清如何調控的必須是它了,必然會有最佳策略調整經濟運行,so,我只想說,靜候偉大的AI新紀元到來,生活會更好(AI統治世界還是很渺茫的,那個暫時看起來是科幻了)


程序本身針對的是圍棋,沒有通用性。但其中運用到的原理方法,深度卷積神經網路,蒙特卡洛搜索樹,自我強化學習,以及對這些原理方法的組合應用,對其他人工智慧領域會很有啟發。

我們看到,利用這些原理方法可以計算出二人博弈的最佳策略,且這個策略碾壓人類。類似的,是否可以擴展到三方博弈(鬥地主)?四方博弈(打麻將)?六方博弈(朝鮮問題)?多方博弈(股票市場)?

想像一下,股票市場用價值網路分析局面,用策略網路決定買入賣出數量,戰勝巴菲特。

戰略主動,不是指事事要搶先別人一步。所謂戰略主動是指:不在乎對手如何操作。

不管對手如何操作,你都有更佳策略戰勝他。這就很強大。


最大最有用的應用是在軍事力量上,徹底打亂目前世界的軍事力量平衡。

局部地區衝突進入計算機模擬的時代。

如題,如果阿法狗繼續在星際爭霸項目上打敗了人類選手,

那麼意味著什麼?

其實圍棋跟星際爭霸的項目的主要差別,從原理上來說就是信息獲得不確定性,

圍棋是一個信息完全獲得的遊戲項目,下子即確定了坐標,雙方都能看到,而星際爭霸,有封偵察,有野兵營,有升級二本再退等等。

沒有一個職業選手可以說獲得信息是完全獲得,大家都在猜,但是,局部信息又可以推導出差不多接近全面的信息,比如,從遊戲開始到某個時間節點,你全力發展大概會有多少資源,會有幾個資源點,大概什麼時候節點可以全力暴兵,這個地圖開礦偷礦一般會在哪裡,野兵營一波流大概會放在那幾個位置,如何偵察,也就是有幾個套路,也就是說,存在一個模糊而又可以準確描述的時間節點跟上下限可以估計。

1,所以說,阿發狗面臨的第一個難題就是如何從不是全面的信息推導到接近完全掌握的信息,也就要發明是說存在一個模糊但是又準確的上下限判斷的信息收集處理模塊或者演算法網路。其實這一段就是很多人類遊戲高手也打過的就是所謂默認流,全防流。但是阿發狗會處理的更加精確,因為你封偵察的時間節點也是有限的,一旦這個模塊或者信息收集跟處理網路研發成功,阿發狗通過偵察對你運營跟兵力大致是有評估的,準確性應該是90%左右接近全面掌握,也就是突破星際爭霸項目最大難點還是這個如何把掌握的不完全信息通過特定模型的神經網路來歸納總結為接近全面信息,然後再經過決策網路跟值網路選擇應對,當然如果阿法狗一開始遇到諧星之類的升級二本再退一波流的也可能會遭中,但是阿法狗是有學習能力。遭遇個幾千盤這種套路,他就應該學會反覆偵察確認了。

2,第二個難點是時間,星際爭霸的局面發展還是比較迅速的,這需要人工智慧在偵察到1秒鐘內提取特性確定決策預定手段,從硬體方面看,需要更加強力的分散式計算系統的支持,像現在圍棋規則長時間思考讀秒再決策是不行的,當然這方面問題可以通過增加硬體配置跟簡化搜索樹的深度之類的辦法來解決問題也不大,而且星際爭霸遠遠沒有圍棋的變化可能性那麼大。

3, 假設這個信息獲取網路研發成功,李永浩桑蘇被電腦爆肝以後呢,那個這個通用模式可以用在一切遊戲上,比如CSgo.比如彩虹六號,然後戲肉來了,csgo跟彩虹六號是對現實小隊指揮作戰系統的模擬,而且本身就具有大量數據練習跟投食的能力,也就是說,目前steam上伺服器csgo跟彩虹六號等數據大量讓這個標準人工神經網路學習,那麼轉化為現實軍事用途,就會出現一個小隊決策無敵的指揮系統,這個系統恐怖的地方在於,在某個小區域建模並轉化為遊戲區域以後,比如把現實的某個地區轉化為彩虹六號的某個地圖,那麼這個AI可以左右手互博,大量的數據學習跟訓練得到一套天衣無縫完美的現實作戰策略跟指揮能力。

4.那麼這個戰區控制人工智慧在應用上呢,可以把一小隊平民佩戴AR等設備的變成可以對抗職業特種部隊的水平上,因為不光是準星預估,整個隊伍的配置跟指揮可以用秒來同步進行,平民只需要跟的上AI的指揮,槍瞄哪裡,打哪裡,手雷打哪裡,等等,AR設備上還可能出現綜合準星,敵人出現預警燈,讓平民來調控瞄準,人工智慧極為精確的戰術體現會讓執行力不行的平民也爆發出驚人的戰鬥力。這個還不是非常恐怖的,非常恐怖的是電池技術解決以後,無人機跟軍事機器人加入這個戰區控制人工智慧的手下的話,那麼執行能力可以達到100%,沒有任何的人類軍事跟職業特種部隊可以對抗這種人工智慧控制下的經過幾千萬盤模擬跟數據訓練的人工智慧的局部地區的對抗。

也就是說,誰掌握了阿法狗的戰勝星際爭霸的迭代產品,把他作為軍事用途的話,對整個軍事對抗的概念跟層次會發生翻天覆地的變化,在戰術跟小隊的指揮跟選擇上,通過數據模擬跟某個地區的精確的數據建模以後,完全可以通過計算機數據投食跟人工神經網路的高強度數據訓練達成,在某個地區精確的接近完全完美的軍事行動決策跟指揮能力,加入無人機跟軍事機器人以後,就是天網戰鬥部的前身,而且這一切都在穩步推進當中,而這一切的起點就是在阿法狗,跟所謂阿法狗的迭代產品星際爭霸毀滅者。

最終出現,所謂限定地區的戰術上無敵的控制跟決策人工智慧中心,這就是軍事方面的翻天覆地的改革,這種決策跟指揮人工網路的發展潛力跟能力已經遠遠超越了現在這代的所謂4KISR系統。美軍軍事信息處理系統的最大能力跟潛力。任何其他人類的頂尖指揮官在軍事實力均衡的局面下對上了也是吊打。

總結,任何的軍事衝突都是從戰略跟戰術上實現的,而如果有一方掌握了優勢軍事力量了國家加入了這套星際爭霸人工智慧的迭代產品升級過來的地區戰術指揮人工智慧以後,再加入了無人機跟軍事機器人等執行能力達到100%的作戰單位,那麼可以做到戰術戰鬥上的無敵,也就是說通過無數個戰術的勝利累積達到戰略上的勝利。所謂軍事戰鬥最終進入以秒計算的同步指揮模式,而以前的任何一次世界大戰衝突,任何人類戰區指揮官都做不到以秒來決策跟指揮作戰單位。


雖然不算完全搞演算法的。。但是,也算是從業人員。。

alphago的演算法,不需要很多修改(似乎只需要改一下訓練數據和下一步可選的位置,也就是把新的棋類遊戲的規則告訴程序),就能搞定所有的棋類遊戲。

所有的棋類遊戲,包括未來沒發明的棋類遊戲。。

deepmind之前玩遊戲也是。。演算法應對那個遊戲機上的所有遊戲。。。。其實其他遊戲機也一樣。只是訓練數據量變多,計算資源消耗太大而已。。


推薦閱讀:

AlphaGo挑戰《星際爭霸2》會像圍棋之戰一樣橫掃頂級選手嗎?
認知計算是什麼?與人工智慧、機器學習這些概念有什麼區別?
中國象棋AI實現?
兩個 AlphaGo 互相下,誰會贏?
AlphaGo 2.0 與其 1.0 相比有哪些提升?

TAG:人工智慧 | 演算法 | 深度學習DeepLearning | AlphaGo |