Dota 2被攻陷!OpenAI 5V5模式擊敗人類玩家
來自專欄玩轉AI385 人贊了文章
update 2018.8.6,終於還是被AI虐了
人類一敗塗地!OpenAI血虐Dota2半職業戰隊!
今日OpenAI的工作人員發推說,在近期OpenAI和5位6500分的選手進行了比賽,取得了2/4的成績(贏-輸-輸-贏),在比賽後會繼續對OpenAI做出調整。
另外在討論區有人說第三場比賽一位選手失利所以導致AI自動取得勝利,其實當時各方面都應該算是選手這邊領先。所以他認為應該是1/4(即AI只贏了1場)。最後,8月5日在Twitch上會直播5個外國解說和OpenAI的5打5比賽(國內時間是8月6日的凌晨3點左右),有興趣的朋友可以一起圍觀一下,這支解說隊伍的平均天梯分應該有7000左右,所以這場對決應該還是比較有質量的!
---------- 以下是原文分割線----------
去年Ti7的時候,上演了一場AI對陣人類職業選手的1V1對決。老司機Dendi中路solo的對象是OpenAI團隊研發的《Dota2》AI,最終Dendi落敗,引得遊戲界和科技界不少關注。而現在OpenAI團隊公布了他們的最新成果,AI已經在5V5的比賽中,正式擊敗了排名前1%的非職業玩家。
https://www.zhihu.com/video/1004753461472165888在視頻中介紹,OpenAI團隊請來的隊伍在鏡像模式中和Bot對戰,這樣保證了雙方的陣容一樣。作為嘉賓解說的前職業選手Blitz對AI的作戰讚歎有加。在官方給出的視頻中,我們能看到Bot冰女(天輝)BKB跳大的流暢過程,「操作」行雲流水。最終兩場比賽,AI方面取得全勝。
OpenAI的實現原理是怎樣的呢,下面對OpenAI博客的資料進行翻譯和介紹
原理
我們團隊構建的模型,OpenAI Five,已經擊敗業餘 Dota2 團隊了。雖然如今是在有限制的情況下,但我們計划到 8 月份在有限英雄池下擊敗 TI 賽中的一支頂級專業隊伍。我們可能不會成功,因為 Dota2 是當前最流行也最複雜的電子競技遊戲之一,一批有激情與創造力的玩家經年訓練,想要瓜分 4000 萬美金的獎金池。
通過自我對抗學習,OpenAI Five 每天相當於玩 180 年的遊戲。訓練上,它使用 256 塊 GPU、12 萬 8000 個 CPU 核心使用近端策略優化(Proximal Policy Optimization)方法進行訓練,這是在我們去年建立的 solo Dota2 系統上的擴增。當我們為每個英雄使用單獨的一個 LSTM,模型就可以在沒有人類數據的情況下學到可識別的策略。這表明強化學習即使沒有根本性的進步,也能夠產生大規模但也可接受的長期規劃。這出乎了我們剛開始時的預料。問題
人工智慧的一個里程碑就是在星際爭霸或者 Dota 這類複雜的電子遊戲中超越人類的水平。相比於上一個里程碑,即國際象棋與圍棋,複雜電子遊戲開始反映真實世界的混亂與連續的本質。因此我們希望,能夠解決複雜電子遊戲的系統可以成為通用的、在遊戲之外有廣闊應用場景的系統。Dota2 是一個實時的 5 v 5 策略遊戲,每個玩家控制一個英雄。而玩 Dota 的 AI 需要掌握以下技能:- 長線策略。Dota 遊戲平均每秒 30 幀,一場時常 45 分鐘,大概 8 萬 tick。大部分操作(例如操縱英雄移動)都有單獨的小影響,但一些個體行為可能會影響到遊戲戰略,例如 TP 回家。此外,還有一些策略可能會終結整場遊戲。OpenAI Five 每 4 幀觀察一次,產生了 2 萬個決策。相比之下,國際象棋一般在 40 步之前就結束了,圍棋大概 150 步,但這些遊戲每一步都很有策略性。
- 局部可觀測狀態。己方單位和建築的視野都有限。地圖的其他部分是沒有視野的,可能藏有敵人和敵方策略。高玩通常需要基於不完整數據做推理,以及建模敵方意圖。而國際象棋和圍棋都是完全信息博弈。
- 高維、持續的行為空間。在 Dota 中,每個英雄能採取數十種行為,而且許多行為要麼面向敵方單位,要麼點地移動位置。我們把這個空間離散到每個英雄 17 萬種可能的操作(不是每 tick 都有效,例如在技能冷卻時放技能就是無效操作);不計算連續部分,每 tick 平均 1000 個可能有效行為。國際象棋的行為數量大概是 35,圍棋 250。
- 高維、連續的觀察空間。Dota 是在一張包含 10 個英雄、20 幾個塔、數十個 NPC 單位的地圖上操作的遊戲,此外還有神符、樹、眼衛等。通過 Valve(Dota 2 的運營公司)的 Bot API,我們的模型把 Dota 遊戲視為 2 萬個狀態,也就代表人類在遊戲中可獲取到的所有信息。國際象棋代表大概 70 個枚舉值(8x8 的棋盤,6 類棋子和較小的歷史信息)。圍棋大概有 400 個枚舉值(19x19 的棋盤,黑白 2 子,加上 Ko)。
Dota 規則也非常複雜,這類遊戲開發了十幾年,成百上千的代碼行實現遊戲邏輯。而且遊戲每兩周更新一次,環境語義一直在變。
方法
我們的系統使用一個高度擴展版本的近端策略優化(Proximal Policy Optimization)演算法進行學習。OpenAI Five 和之前的 1v1 機器人都是通過自我對抗進行學習的。他們從隨機參數開始,並不從人類玩家的方法中進行搜索或者自舉。模型架構
每個 Open AI Five 網路包含一個單層、1024 個單元的 LSTM 網路,它能觀察當前的遊戲狀態(從 Valve 的 Bot API 中抽取)並通過一些可能的行動 Head 發出下一步採取的行動。每一個 Head 都包含語義信息,例如延遲該行動的時間值、選擇哪一個行動和其 X 與 Y 的坐標軸。OpenAI Five 使用了觀察空間和行動空間的交互性演示。它將世界表徵為一個由 2 萬個數值組成的列表,並通過發出一個包含 8 個枚舉值的列表而採取行動。我們可以在 OpenAI 網站上選擇不同的行動和目標以理解 OpenAI Five 是如何編碼每一個行動,以及如何觀察世界的。下圖展示了人們可能會觀察到的場景:
Necrophos
OpenAI Five 可以對其丟失的狀態片段作出反應,這些狀態片段可能與它所看到的相關。例如,直到最近 OpenAI Five 的觀察還沒有包含彈片落下的區域,而人類可以在屏幕上輕鬆觀察到這些落彈區域。然而,我們觀察到 OpenAI Five 可以學習走出活躍的落彈區域,因為在這樣的區域中智能體會發現它們的生命值在下降。探索
儘管構建的學習演算法能處理較長的視野,但我們仍然需要探索環境。即使我們已經限制了複雜度,但遊戲仍然有數百種物品、幾十種建築、法術、單位類型以及需要長時間慢慢學習的遊戲機制,這些變數將組合成極其巨量的情況。因此,有效地探索這一巨大的組合空間是非常困難的。OpenAI Five 通過自我對抗(self-play)從隨機權重開始學習,這為探索環境提供了一個自然的 curriculum。為了避免「策略崩壞」,智能體在 80% 的遊戲中通過自我對抗進行訓練,而在 20% 的遊戲中與過去的智能體進行對戰。在第一場遊戲中,英雄漫無目的地在地圖上探索,而在幾個小時的訓練後,出現了規劃、發育或中期戰鬥等概念。幾天後,智能體能一致地採用基本的人類策略:試圖從對手偷財富、推塔發育、在地圖旋轉控制英雄以獲得線路優勢。通過進一步的訓練,它們變得精通 5 個英雄一起推塔這樣的高級策略了。合作
OpenAI Five 沒有在各個英雄的神經網路之間搭建顯式的溝通渠道。團隊合作由一個我們稱之為「團隊精神」的超參數控制。團隊精神的取值範圍為從 0 到 1,代表了 OpenAI Five 的每個英雄在多大程度上關注自己的個人獎勵函數以及在多大程度上關注團隊平均獎勵函數。在訓練中,我們將其值從 0 逐漸調整到 1。Rapid
遊戲
到目前為止,我們與這些隊伍進行了對戰:1、最強的 OpenAI 職員團隊: 匹配分 2500
2、觀看 OpenAI 職員比賽的觀眾玩家 (包括 Blitz 等):匹配分 4000-6000,他們此前從沒有組隊參賽過。3、Valve 公司團隊: 匹配分 2500-40004、業餘團隊: 天梯 4200, 作為一支隊伍來進行訓練。5、半職業團隊: 天梯 5500, 作為一支隊伍來進行訓練。在與前面三支隊伍的比賽中,OpenAI 取得了勝利,輸給了後面的兩隻隊伍(只贏了開場前三局)。我們觀察到 OpenAI Five 具有以下幾個特點:經常來犧牲自己的優勢路(夜魘軍團的上路,天輝軍團的下路),以壓制敵人的優勢路,迫使戰鬥轉移到對手更難防禦的一邊。該策略在過去幾年的專業領域出現過,現在已經成為了流行戰術。Blitz 說他在打 DOTA 8 年後才學到了這個戰術,當時是 Liquid(一支職業隊伍)告訴了他。和人類的差異
OpenAI Five 獲得的信息和人類是一樣的,但前者可以實時看到位置、生命值和裝備清單等,而這些信息都需要人類選手去手動查看。我們的方法從根本上就沒有依賴於(實時)觀察狀態,但從遊戲中渲染像素就需要成千上萬塊 GPU。OpenAI Five 平均每分鐘可進行 150-170 次操作(APM=150-170,因為每四幀觀察一次,所以理論峰值為 450)。熟練的玩家有可能掌握完美捕捉畫面的時機,但這對機器來說輕而易舉。OpenAI Five 的平均反應時間為 80 毫秒,比人類更快。
這些差異在 1V1 中影響最大(當時我們機器人的反應時間為 67 毫秒),但競技是相對公平的,因為我們已經看到人類在學習和適應機器人的打法。在去年 TI 之後,很多專業選手使用我們的 1V1 機器人進行了為期數月的訓練。William "Blitz" Lee(前 DOTA2 專業選手和教練)表示,1V1 機器人已經改變了我們對單挑的傳統看法(機器人採取了快節奏的打法,現在每個人都已經試著去跟著這個節奏)。令人驚訝的發現
二元獎勵可以給予良好的表現。我們的 1v1 模型具有形狀獎勵,包括上次命中獎勵,殺戮等。我們進行了一個實驗,只獎勵代理的獲勝或失敗,並且讓它在中間訓練了一個數量級較慢並且稍微平穩的階段,與我們平常看到的平滑學習曲線形成對比。該實驗在 4500 個核心和 16 個 k80 GPU 上進行訓練,訓練至半專業級(70 TrueSkill,而非我們最好的 1v1 機器人的 90 TrueSkill)。我們可以從頭開始學習卡兵。對 1v1 來說,我們使用傳統的強化學習和一個卡兵獎勵(a creep block award)來學習卡兵。我們的一個同事在去度假前(去和未婚妻求婚!)留下了 2v2 模型,打算看看需要多久的訓練能才提高表現。令他驚訝的是,這個模型在沒有任何指導或獎勵的情況下學會了卡兵。我們仍在修復系統漏洞。下圖顯示了擊敗業餘玩家的訓練代碼,相比之下,我們只是修復了一些漏洞,比如訓練期間的罕見崩潰,或者導致達到 25 級的巨大負面獎勵的錯誤。事實證明我們可以在隱藏嚴重漏洞的情況下,依然擊敗優秀的人類玩家!Open AI Dota 的一個子團隊手托去年在 Dota 2 國際邀請賽 1v1 上擊敗世界頂級專業玩家的筆記本電腦。下一步計劃
Open AI 的團隊專註於達成八月份制定的目標。我們不知道它是否可以實現,但是我們相信通過自身的努力(和運氣),機會還是很大的。原文地址:https://blog.openai.com/openai-five/參考文章
- Dota 2被攻陷!OpenAI 人工智慧5V5模式擊敗人類玩家(4000分水平)
- 5個AI合作無間,OpenAI打《DOTA 2》電競團體戰擊敗人類
- 馬斯克支持團隊研發能打Dota的AI:可擊敗人類玩家
- DOTA2高玩5V5被OpenAI人工智慧打敗 7月它將挑戰職業戰隊
推薦閱讀:
※1 秒鐘完成 8000 張海報設計,阿里"鹿班" AI 設計師揭秘!
※AlphaMao項目的回顧和總結,是不是可以算是大老師的前身?
※【願景學成】24小時科技熱點新聞的匯總(2018/05/15)
※數字營銷創新大佬- 180.ai多款人工智慧產品發布
※Google Duplex 美麗新世界?