如何評價Deepmind在星際中的失利,以及OpenAI在Dota上的成功?


我贊同 @陳然 老師的說法,兩者都非常有意義。不管是新聞工作者還是普通民眾都應該先做調查再發言,不要總想搞個大新聞。片面的說OpenAI的研究實力遠超DeepMind只會成為別人的笑柄,而且對於創新探索我們應該抱著更加寬容態度。先讓我們來分別看看這兩個項目的意義:

DeepMind星際項目(DeepMind and Blizzard open StarCraft II as an AI research environment | DeepMind):

  1. 證實了深度強化學習在多智能體(multi-agent)複雜環境下還有瓶頸,同時貢獻了一篇非常詳實的研究論文(看格式應該和16年一樣還是NIPS,所以懸念不大九月初就可以看到被接收的消息)。
  2. 提供了良好的封裝和介面API,供廣大玩家和研究者們使用。
  3. 同時提供了大量的匿名比賽錄像,這也是研究必不可少的數據。和上一條相類似,這對於促進強化學習研究有很大意義。

OpenAI的Dota項目(Dota 2):

  1. 證實了人工智慧在複雜環境下特定任務的有效性,Dota比賽的勝利可能比圍棋奪冠聽起來更「性感」。
  2. 證明了「選擇」比「努力」更重要,選擇合適的項目步步為營更容易獲得良好的結果。

對比這兩個項目:

  1. OpenAI的Dota項目用機器人1v1擊敗Dendi是給AI領域打的又一劑強心針,再一次刷新了人們對AI能力上限的認知。而DeepMind的星際項目從另一個角度給過熱的AI降了一下溫,即使有如Google這樣的投入和科研實力,也不能過分誇大現階段的AI能力。這對於現在浮躁的AI產業是一件好事。因此,這兩個新聞同時發生我覺得既是巧合,又是一件很有意思的事情。我們一邊可以更好的了解了AI的能力,但也不至於陷入絕望或狂妄這種極端情緒中
  2. OpenAI在選擇任務目標時,沒有直接選擇更複雜的5v5對戰或者人類成員和AI一起合作,降低了任務的難度,規避了現階段沒有必要的風險。我們可以從中學習如何平衡時間金錢投入與產出的平衡,在一定的投入中獲得最好的回報而DeepMind體現了科技巨人的野心和抱負,要做就要做最好的,只有碰壁才能看到我們現階段技術的天花版在哪裡。因此從側面來看,這也體現了OpenAI作為一個新興"創業「機構的策略,而DeepMind作為領域大哥的王者風範。
  3. OpenAI在官方博客中提到,這個項的目的不單純是做研究,同時也想帶來了趣味性。而DeepMind的星際項目體現了一種學術界大牛挖坑,小牛填坑,其他人灌水的現象。DeepMind開放的介面和數據毫無疑問對強化學習(reinforcement learning)是非常重要的,在監督學習已經比較成熟的今天,我們非常希望看到更貼近實際的強化學習能得到發展。而DeepMind所開放的這些數據和介面使得其他研究者的工作也變得有了可能,這也體現了DeepMind並不像很多人所擔心的會挾資源自重,這種胸襟值得敬佩
  4. OpenAI和DeepMind的項目雖然看起來都是將AI用於遊戲領域,但從實際難度來說DeepMind星際項目要高得多。其所需要協調的多代理/環境/計算消耗,都遠遠高於OpenAI所挑戰的項目。這也是為什麼我一再強調這種勇氣本身就值得掌聲,如果一開始DeepMind就選擇一個更明確挑戰性更低的方向,也不會有知乎上的這個提問。

總結來說,OpenAI在Dota上的成功令人感到欣喜,讓我們看到了AI的能力和希望。但DeepMind這種敢於挑戰巔峰,即使面對困難也能坦然面對承認,並樂於和大家一起分享資源的精神更讓我感到敬佩。這是DeepMind作為領域強者的實力和胸襟,沒有人該因此而對他們冷嘲熱諷。如命運安排般的,OpenAI和DeepMind在這個八月用兩條近乎截然相反的消息讓我們看到了AI領域的能力、胸懷、和未來。作為人工智慧領域的小小一份子,我感覺很自豪。


謝邀

兩者都很成功,但是 OpenAI 更擅長宣傳。

星際哪怕最簡單的 1v1 都需要同時控制大量單位,這與 dota 中 1v1 只需要控制一個單位難度差別很大。兩者都證明了在複雜遊戲中人工智慧已經可以完成相對簡單的任務,但暫時還無法完成整個遊戲:DeepMind 在星際中已經精通挖礦,建造,控兵,但無法正常比賽。OpenAI 在 Dota 中可以 1v1 但無法 5v5。

不過只要開放了平台與數據,人工智慧玩遊戲的進步依然會飛速前進。我們都沒有必要拘泥於一時的得失,不如把握當下,多多思考如,何利用這些技術造福人類。


deepmind是直接獲取遊戲圖像分析和玩家對弈

openai是直接獲取各種遊戲事件數據和位置信息與玩家對弈

更何況deepmind要處理操作大量單位而openai只需要處理英雄和小兵的關係 連配合都不需要

難度根本不是一個量級


這可能說明了星際這樣的RTS類遊戲果然是要比dota類遊戲的複雜度高得多得多(??????) ?

為RTS玩家鄙視dota玩家提供了新的論據。


OpenAI 的 DOTA2 機器人已經被 50 餘人擊敗了。

策略就是拉火車,讓小怪拆一塔。

Twitter 鏈接:https://twitter.com/riningear/status/896297256550252545

Reddit 鏈接:OpenAI bots were defeated atleast 50 times yesterday. ? r/DotA2


我看了OpenAI的博客,以及DeepMind的文章,都是非常粗糙的掃了一下。

我也看了ti7上面的比賽視頻。

此處只補充一些觀點:

1. 首先,我的感覺是deepmind的和openai想要完成的任務難度是不一樣的。

deepmind的文章里提及到他們用了一個簡化的特徵圖,使用的不是人看到的那種遊戲圖像,但是可以標明單位的位置信息等等的一個簡化2D圖。這個位置deepmind說自己先挖一個坑,以後慢慢做到輸入和人看到的東西一樣,也是那種有3D渲染效果的圖像。這個對計算機視覺來說是一個很大的挑戰。先描述了一下輸入,繼而才開始講他的強化學習部分。

openai的博客裡面僅僅提及了強化學習的任務。

所以,我推測openai可能僅僅從dota2的介面獲得的數據。

不提控制目標單位多少,這兩個任務難度本身就不一樣。不過沒看到openai的文章之前,這個我也僅僅是猜測。我的理由是openai的博客上提都沒提他的輸入是什麼,如果輸入就是人看的圖像,這個是真的一個大亮點。我不是干這個的,都想看看他是怎麼做的多目標跟蹤,兩個影魔外觀一樣,距離還近,走位也飄忽,還能實時。(手機碼字,先挖坑再填)

2. 關於deepmind挖的坑。

deepmind挖的不光是強化學習的坑,也挖了視覺的坑。

可以從裡面抽數據集,然後想辦法做從3D渲染圖到特徵圖那一步。


有一天直播

91說,阿爾法狗打不來星際的,人工智慧沒那麼厲害

小色說,圍棋都能贏,怎麼可能打不來星際嘛,隨便吊打的呀

結論就是

毒奶大法好


稍對 RL 打遊戲有點了解的人

就會知道難度 全盤星際 &> 圍棋 &>&>&>&>&>&> dota 1v1

而星際的solo(這個我不知道用什麼術語,就是那種兩方各幾個兵然後靠微操打)早就有很多 paper 用各種各樣的方式解了。

我最驚訝的是 Elon Musk 在 twitter 上竟然說 dota solo 比圍棋要難,我只能覺得他要麼不知道圍棋規則,要麼沒打過 dota。


討論的人裡面很多並沒有明確了解兩者的基本區別啊。=-=

  • OpenAI是基於數據介面直接讀取數據的,deepmind是基於2D化的圖像數據來讀取數據的。
  • OpenAI選用了1V1 SOLO的形勢來進行的,且使用的英雄對於AI而言極具取巧性。而deepmind選擇的就是正規的星際比賽的配置。
  • OpenAI對於AI的操作限制於deepmind對於AI的操作限制可能更加的寬鬆。
  • OpenAI如今並不能作為5v5進行比賽,deepmind面對的星際單位,嚴格意義上說,每一個都可以是英雄【90%以上的星際單位都是有功能按鍵的,也就是所謂的「技能」】
  • OpenAI面對的情況的1V1,且僅中路SOLO,且提前讀取了很多腳本數據。而deepmind幾乎是測底放棄經驗,用不斷嘗試來產生經驗的。【比如,deepmind終於發現了飄走人族基地可以一定程度上減少被攻擊時候的損失。哪怕基礎的星際電腦都懂這個】
  • deepmind立意比OpenAI高得多。只能說OpenAI對於AI領域了一劑強心針,而deepmind給了日益炙熱的AI領域一劑鎮靜劑。這是好事情。
  • 希望大家能夠理性看待兩個遊戲的難度。至少在AI的領域,星際2比刀塔2難的多。

最後附圖一張:deepmind的工作環境。 @Flood Sung 在另外一個問題里這位發的圖。借用一下。?(?ˊ?ˋ)??


OpenAI還是看得懂自己的位置,選了個最小的局部開始。成功但意義不大。

Deepmind野心大,連輸出都要靠圖像識別。失敗,但是就抽象出星際畫面的層次特性和物體軌跡圖而言,意義已經超過data1v1了。


OpenAI距離在dota項目上「成功」還差很遠,作為dota和星際玩家來舉個例子,中單影魔solo相當於星際同種族單一基礎兵種一條路無分礦對a,沒有運營,沒有戰術,只有操作。相信在這種限制下,Deepmind也可以打爆一切職業選手。

如果同英雄solo的運算量為1,那麼同英雄複選2v2的運算量至少為10,擴大到100+英雄5v5三路線加野區何時打錢何時gank何時推線等等,根本不是現在這種級別的ai能做到的。


由於目前OpenAI尚未公布其Dota2人工智慧的設計細節,我們只能通過合理分析和推測,力圖揭秘其背後的奧秘所在。

背景知識:Dota 2遊戲規則

Dota 2是一款5V5競技遊戲,每邊分別由5位玩家選擇一名英雄角色,目標以為守護己方遠古遺迹並摧毀敵方遠古遺迹,通過提升等級、賺取金錢、購買裝備和擊殺對方英雄等諸多競技手段。

這次OpenAI選擇了挑戰較為簡單的1V1挑戰,即OpenAI僅控制1名英雄,和頂級電子競技選手Dendi操縱的1名英雄進行對抗。

比賽中,採取dota 2「一塔兩殺」的規則,即雙方玩家只允許出現在中路,任意一方摧毀對方中路首個防禦塔,或者擊殺對方英雄兩次則取得勝利。遊戲中,每隔30秒雙方會獲得一波電腦控制的較弱部隊進入前線互相攻擊,玩家殺死這些小兵可以獲得金幣,金幣用於購買裝備物品以強化英雄能力,同時消滅對方部隊可獲取到經驗,經驗獲取到一定程度則可提升英雄等級,使得英雄能力更強,並獲得技能點升級新的技能。同時雙方各自還有一個初期威力強大的防禦塔在身後,因此雙方一般的對抗策略是盡量控制兵線在靠近己方防禦塔的地方,同時努力殺死對方小兵(正補)並防止對手這樣做(反補),獲取經驗和金幣後升級技能,並試圖通過攻擊和技能擊殺對方或摧毀對方防禦塔。

OpenAI的決策空間

上述是dota 2 1v1競技的簡單介紹,以供不了解dota 2的讀者有個初步印象,接下來我們來分析一下在dota 2 1v1競技中的決策空間及決策連續性這兩個問題,這是與alphago完全不一樣的存在,也是人工智慧+電子競技有趣的地方。

1.決策空間:相比圍棋只有一個落子動作(選擇一個空位下子),dota 2 1v1中的決策空間相對非常複雜,玩家每分每秒需要在以下的動作中做出決策:

移動:移動英雄到一個特定的位置;

攻擊:控制英雄攻擊一個特定的目標(包括對方英雄);

正補:當對方小兵瀕死時,做出最後一擊殺死小兵以獲得金錢;

反補:同理當我方小兵瀕死時,做出最後一擊殺死小兵防止對方獲得金錢,並減少對方獲得的經驗值;

施法:使用英雄主動技能攻擊一個特定的目標;

取消攻擊/施法:英雄攻擊/施法前有一個短暫的硬直動作,在攻擊/施法動作真正做出前取消,從而達到誘騙對方的目的;

兵線控制:每隔30秒雙方會獲得一波電腦控制的小兵,通過攻擊對方英雄激活對方小兵仇恨從而引起小兵跑來攻擊自己英雄,或者用自己英雄的身體阻攔己方小兵前進,從而達到控制兵線靠近己方防禦塔,獲得競技優勢;

購買物品:用獲得的金錢在超過100種不同價格的物品中購買需要的裝備或消耗品;

使用物品:使用血瓶等消耗品補充自身;

當然,上述只是列舉出了比較重要的戰術動作,在實際競技過程中還有大量的如取消攻擊後搖、放風箏、控符、技能組合等高級動作。

2.決策連續性:圍棋是一個典型的非同步競技遊戲,選手在做出每一個決策前具有充分的決策時間,是典型的馬爾科夫過程,但dota 2是一款實時競技遊戲,選手需要動態做出實時決策,這點是dota 2和圍棋的另外一個不同。

那麼OpenAI是怎麼解決連續決策問題的?目前OpenAI尚未公布他們dota人工智慧的細節。在這個問題上,OpenAI很有可能是通過考慮人類選手的決策效率,將決策過程離散化。Dota 2頂級選手的APM(action per

minute,每分鐘做出的動作)可達到200以上,眾所周知人來大腦的反應速度是有極限的,一般頂級電競選手在反應速度上都有異於常人的天賦,如果按比賽中觀測到的APM來算,人類的極限可能在1秒鐘做出4到5個動作決策,因此OpenAI如果每隔0.2秒做出一個動作決策的話,就能有超越人類的表現

因此我這部分的猜測是,OpenAI很可能選擇了200ms以內的某個值,在決策效率(更快的反應速度)和決策深度中取得了平衡,將dota 2 1v1比賽轉變為類似圍棋的馬爾科夫決策過程。

OpenAI演算法猜測:先驗知識+增強學習

目前OpenAI對他們dota人工智慧演算法的細節披露相當有限,只是初步表示了他們並未使用任何模仿學習(Imitation Learning)或者類似於alphago的樹搜索技術,純粹使用了self-play即俗稱 「左右互搏」的增強學習(reinforcement

learning)方式訓練。模仿學習是一種有監督的機器學習方法,如alphago最初的落子器就是通過圍棋對戰平台KGS獲得的人類選手圍棋對弈棋局訓練出來的。而OpenAI並沒有使用這種方法,可能主要原因還是較難獲得dota 2 1v1的大量對局數據,由於dota 2中有100多個英雄角色可選擇,每個英雄的屬性和技能均不一樣,意味著要對每個英雄做優化訓練,如OpenAI在本次The

International賽事中,只會使用一名英雄角色Shadow Field(影魔),從人類對局中獲得海量(如10萬局以上)高水平Shadow Field的1v1對局錄像數據其實並不容易。

使用增強學習去令機器學會玩一款遊戲,我們不禁馬上聯想起谷歌DeepMind使用RL學習來玩打磚塊的經典案例。DeepMind模型僅使用像素作為輸入,沒有任何先驗知識來輔助AI進行學習,演算法Agent通過和環境S的交互,一開始選擇隨機動作A(向左還是向右移動滑板,動多少),並得到遊戲分數的變化作為獎勵,然後Agent繼續如此玩下去,遊戲結束後Agent得到最後遊戲總分R,按照這種方式不斷讓Agent玩N局遊戲,可以得到了一系列訓練樣本(S,A,R),通過訓練一個神經網路去預測在狀態S下,做動作A可能最後得到R,這樣接下來Agent不再隨機做出決策A,而是根據這個函數去玩,經過不斷的迭代,Agent將逐漸掌握玩打磚塊的訣竅,全程不需要人工制定任何的腳本規則。

但是,在dota 2之中,或許很難採取類似學習打磚塊那樣從隨機行動開始的「大智若愚」方式去做增強學習,因為對於打磚塊而言,每次動作A對於得分R的影響都是明確可量化的,但在dota 2中,這將會是一個非常長的鏈條。如以基本動作「補刀」為例:

補刀即對方小兵瀕死時,控制英雄做出最後一擊殺死小兵獲得金錢,不是己方英雄親自殺死小兵不會獲得金錢。如果從隨機行動開始,即AI胡亂攻擊隨機的目標,Agent要聯繫起補刀行為和最終勝利之間的關聯是很困難的:補刀行為——小兵死亡——獲得額外金錢——用金錢購買正確的物品——正確的物品增強英雄能力——提升獲勝概率,完全不藉助外界先驗知識,僅通過模擬兩個Agent「左右互搏」,從隨機動作開始去做增強學習,其收斂速度會異常的慢,很可能哪怕模擬幾百萬局都不見得能學會「補刀」這個基本動作,但補刀僅僅是dota這個遊戲入門的開始。

然而,根據OpenAI宣稱,他們僅僅用了兩周就完成了演算法的訓練,或許這裡基本可以肯定,OpenAI使用了外界先驗知識

實際上,Dota 2遊戲的開發商VALVE有一個dota 2機器人腳本框架,這個腳本框架下的機器人會熟練做出各種dota的基本動作,如補刀、釋放技能、攔兵、追殺、按照腳本購買物品等,部分如補刀等依靠反應速度的動作可以展現得非常難纏。只不過機器人動作的執行非常機械,主要由於預設腳本的設定難以應對信息萬變的實際競技,使得機器人總體水平根本無法接近一般玩家,更別說跟職業頂級玩家相比了。

腳本機器人的優勢是戰術動作的執行,如上述增強學習很難馬上學會的「補刀」動作腳本機器人天生就會,屬於先驗知識,而且可以憑藉無反應時間和對目標血量和攻擊力的精確計算做得非常完美,缺點在於行動決策弱智。這樣如果祭出「組合拳」,使用腳本機器人執行基本戰術動作,通過增強學習訓練的神經網路負責進行決策,就像《射鵰英雄傳》中,武功高強但雙目失明的梅超風騎在郭靖身上,長短互補一舉擊敗眾多高手那樣,豈不完美?

我想OpenAI很可能也確實是這樣做的,首先優化腳本機器人,將原子化的戰術動作A的腳本做得盡善盡美,充分發揮機器的微操優勢;同時通過增強學習訓練一個神經網路,計算目前局勢S下(包括場面小兵和雙方英雄的狀態和站位、技能CD和魔法值情況等),執行那個戰術動作A得到的預期最終reward最高,即A=P(Si),並且在較短的離散空間內,比如200ms不斷進行決策並通過腳本執行動作A,最終使得OpenAI在大局觀和微操上都取得盡善盡美。當然,由於OpenAI自身還沒公布演算法細節,上述方法只是一個最有可能的猜測,通過先驗知識+增強學習獲得一個單挑能力很強的Solo智能。

如果這個猜測正確的話,那麼OpenAI在dota 2中通過1v1方式擊敗頂級職業選手這事情,遠遠沒有alphago此前取得的成就來得困難。因為OpenAI在本次比賽中的表現,充其量等於訓練了一個類似alphago落子器那樣的應用而已。

而真正的挑戰,在於Dota 2的5V5對抗中。

展望

目前,OpenAI通過增強學習,訓練出了一個單挑solo能力非常強悍的演算法,但是不得不說這個演算法離Dota 2的5V5對抗中取勝還有非常大的距離。

在Dota 2的5V5對抗中,每方的5名玩家需要在英雄類型的合理搭配上、進攻策略上(如是速攻還是拖後期)、資源分配上(遊戲中獲得的金幣根據局面購買何種物品)、局部戰術等諸多因素上均保持順暢溝通、並緊密配合才能取得對抗的勝利,每場比賽通常要大約進行30分鐘以上,其過程的隨機性非常強。

因此可見,OpenAI要在5v5中取得對人類的勝利,遠遠不是用1v1演算法控制5個角色這麼簡單,5個在區域戰場上單挑無敵的勇夫,並不意味著最終的勝利,接下來OpenAI的任務,就是讓他們不要成為彼此「豬一樣的隊友」,而團隊合作、對局面的宏觀決策才是真正具有挑戰意義的地方,同時也是人工智慧從alphago這種機械性很強的專用智能,逐漸邁向通用智能的嘗試。而OpenAI團隊目前已經表示,他們正在準備向dota 2 5v5中全面擊敗最強人類玩家戰隊的目標進發,並計劃在明年接受這個挑戰

今天Dota 2 1v1的一小步,明年5v5的一大步,讓我們密切期待!


OpenAI能贏5v5再說,也就騙騙不懂dota的,中路solo人類沒優勢會輸很正常。


alphago並不是ai技術有了多大的發展,最主要的是發現了圍棋有一些特殊性質導致它不像以前想的那麼難解,比如蒙特卡洛對象棋或者星際就沒用。

星際狀態數太多了,比圍棋高一千多個數量級,而且邏輯很複雜,神經網路學不會就麻煩了。有人說就靠決策樹狀態機,問題是ifelse總有漏洞,小狗平地上打坦克厲害,各兵種各地形各戰術排列組合根本寫不完。

目前openai沒公布原理,有的報道提到了訓練,但新漏洞又有點像決策樹的問題,希望他們做的不是這樣簡單的東西,浪費時間和錢完全沒有任何意義。


openAI很弱的。。首先1v1,你只需要看中路小兵關係,對面英雄關係,自己購買裝備收益進行評估。,並且沒有公布AI的操作是不是以前那種形式,如果是以前那種,走位,預判,補刀等等在以前就具有巨大優勢,那麼還有什麼用?(別說那個s鍵補刀,那個不足以判斷。)

deepmind挑了個難度最高的。

控兵,絕不會是悍馬2000那種沒有錯誤的,精準到每個兵的,不然這個AI毫無意義。(從控兵難度來說,一百個單位的確比一隻影魔難的多。)

偵查,方面要做出決策,對面狗你怎麼辦?對面犧牲100水晶騙你怎麼辦?這些都要做出決策,並且偵查到的時間點也得做更深層次的決策。

建築科技,這是最重要的,就是對5分鐘,10分鐘後的預測,這個很難,不像dota2,裝備收益可以直接評估出來,更何況是1v1solo這種出裝不會太花哨的。

還有就是戰略戰術、經濟分析以及好像散功的黃大仙的毒奶就不做分析了。

以上都是表面。深層就靠那些大牛了。


最近看太多人說:遊戲難度更高啊,圍棋簡單啊……

你們又不是AI!又不是AI!又不是AI!

不同意所有 星際難度 大於 圍棋 大於 DOTA 1V1 的說法

不懂,就瞎幾把扯淡

——————————————————————————————————

圍棋為什麼被先攻克?因為圍棋的 規則簡單,容易理解

規則簡單 和 難度簡單是兩個完全不同的事情!

規則簡單 和 難度簡單是兩個完全不同的事情!

規則簡單 和 難度簡單是兩個完全不同的事情!

對於AI和AI的開發者來說,越容易用計算機語言描述的事情越簡單

而不需要考慮是否對人類更難


一個聰明一個笨罷了。

從操作樣本輸入特徵來看:

DOTA:攻擊,使用技能,移動,購買商品。每一條都對應明確且不同的操作指令,很容易理解和機器執行。

星際2:攀科技樹的策略和分基地策略怎麼量化?怎麼解構?怎麼從操作數據中完整的把長期策略和短期策略區分出來?策略和進攻操作能在同一個特徵空間進行一致性度量?還有其他一堆問題。

從輸入結果量化和測度來看:

DOTA:超簡單,每一步計算對血量有什麼影響罷了,數值大小就是王道。尤其1v1那更簡單,又不用關心別人。

星際2:怎麼度量開發一項科技對最終結果的影響?怎麼度量一場戰鬥對於最終結果是賺了還是賠了?

只能說deepmind選題不如人家聰明。人家還知道選1v1而不是5v5。


說明腦殘絲毫不影響你玩DOTA。但玩星際顯然是不行的。當然如果是手殘的話,2個都玩不了。


在星際里,你看到的未必是真的,有可能是對方想讓你看到的。你不該看到的,很難看到。


兩年前MIT聯合鄙校開發了一款APM高達幾百萬的星際AI,結果被證明是用來搞笑的被人類玩家秒殺。其實最後這樣的結果不是deepmind的問題,而是星際比dota要複雜得多的多。

在星際中雙方在前期的經濟無論怎樣都不會相差很多(你送人頭也不會給多方加錢對吧),而後期在都達到人口上限的情況下,由於兵種互克原則很難達到一方對另一方的碾壓。所以在經濟和人口的雙限制下,AI超高的APM反而基本上是在做無用功,我看到視頻裡面無非就是每個單位有一套自己的走位路線,然後小農民們在地圖上各種飄來飄去,其實然並卵。打起仗來是有優勢的,不過人類玩家的有效AMP也足夠用所以這種優勢很難轉化為勝勢。更不必說這種即時戰略遊戲里人類玩家的各種讓人摔鍵盤的陰招損招,人族飛老家神族開氣礦什麼的,更重要的是你不知道他跟你是來真的還是假的,而AI在這種基於概率上的大戰略判斷顯然不如有經驗的人類玩家。

所以真的不是Dendi太弱哈哈哈~確實這兩款遊戲對於AI在難度係數上有很大差距


推薦閱讀:

正在開始學習kaldi,有哪些準備要做?
馬雲投資的軟銀 Pepper 機器人到底可以幹什麼,值得購買么?
有什麼神經網路結構圖的畫圖工具值得推薦嗎?
怎樣看待2017科大訊飛發布會展示的腦波控制技術?
如何看待吳恩達新成立的公司 landing.ai 並與富士康達成戰略合作?

TAG:遊戲 | 人工智慧 | 機器學習 | 深度學習DeepLearning | GoogleDeepMind |