人工智慧會組隊遊戲了,更令人恐懼的是它們正在變態
來自專欄狂丸103 人贊了文章
近年來人們一邊擔憂著AI的潛在威脅,卻又一邊瘋狂的挖掘著它的潛能。最新的消息是,AI與AI之間已經學會了如何團隊合作,它們開始組隊打DOTA2,而且還打贏了人類。
DOTA2是一款利用團隊配合贏取勝利的MOBA類遊戲,以對新手門檻過高而聞名,遊戲的複雜程度高於LOL,遠勝於《王者榮耀》。而這次挑戰這款遊戲的AI系統名為名為「OpenAI Five」,來自於馬斯克和Sam Altman共同創建的人工智慧非營利組織OpenAI。
OpenAI Five由五位AI組成,它們在遊戲中以5v5的形式,擊敗了由非職業玩家組成的小隊,斬獲了AI在遊戲領域中對抗人類的首次團戰勝利。而令人驚訝的是,AI竟然打的很有戰術。它們利用技能驅散敵方陣型:
優先擊殺殘血英雄:
乾淨利落的補刀了苟在樹林中的猥瑣人類,玩的非常秀。
其實在去年8月,OpenAI就曾經以1v1的方式向DOTA2頂級職業選手發出挑戰,其中包括著名電競選手Dendi,他曾在2011年「DOTA2 TI1科隆邀請賽」中 ,帶領戰隊獲取冠軍。而在與AI的solo比賽中,OpenAI用假動作欺騙成功,精彩的反殺了Dendi。
挑戰很成功,但DOTA2畢竟是一款團隊遊戲,單挑並非核心玩法。所以AI團隊想要在正式遊戲中戰勝人類,仍需要克服不少困難。簡單的說:5v5的遊戲內容更為複雜。遊戲中一個英雄有十數種有效動作,而這些動作可以作用在其他玩家、建築、NPC、野怪上。計算下來一個英雄可以有170000種的操作可能,而每一次操作都在向比賽結果遞進,影響比賽的結局。
所以,AI必須學會「持續計算」。不同於圍棋的靜態博弈,DOTA2的局勢幾乎時刻變化,AI不僅要關注自身,還要計算隊友、敵人以及身邊的一切動態情況。
另外,因為戰爭迷霧的存在,DOTA2的地圖視野並非全部開放,每個玩家都有自己的固定視野範圍,AI無法像人類那樣主觀猜測對手的遊戲進程。而團隊戰不同於單對單拼操作,發育、偷家、埋伏、以多打少都很重要。
所以,即使在圍棋上的優勢已經人盡皆知,但對於AI來說,DOTA2根本就是另一個次元的遊戲。但據OpenAI介紹,目前OpenAI Five的平均天梯分數超過4200分,實力已經可以算是中等偏上。能打到這種程度,自然歸功於AI驚人的學習與計算能力。
OpenAI官方表示,目前這套系統最可怕的,是擁有著強大的自我訓練能力:「普通人類需要1.2萬小時的遊戲時間才有可能成為職業選手,而AI的經驗積累速度是人類的100倍」。
在AI的訓練中,80%的時間用於自我對抗,20%用於對抗過去的自己,它們一天可以模擬進行相當於180年的遊戲訓練量,不斷的做出選擇,吸取錯誤教訓,飛速成長。最初的幾場比賽中AI只會控制英雄漫無目的的探索地圖,幾小時後他們開始掌握技能、了解遊戲規則,防禦基地。幾天後,它們就學會了配合使用戰術。例如在河道附近伏擊對手:
結隊探索迷霧,在樹林中發現並獵殺敵方落單英雄。
對於遊戲,AI上手的速度較慢,但進步快,而且發揮穩定。首先它本身不存在操作失誤的概念,另外反應敏捷,每分鐘可以完成150-170次操作。它獲取信息的速度也超遠人類,對於角色血線、距離、CD、全隊資源狀態的掌控比人類有著天然的精準度,它們現在甚至會給需要成長的隊友讓人頭。在對抗賽中,有OpenAI員工替代了其中一位AI,進場參與比賽,他表示可以清楚的感受到其他AI隊友對自己的援助與配合意圖。
不過,目前AI參與的比賽還是有一定限制的。「DOTA2 人機大戰」目前的規則是:AI只能使用遊戲中115位可選英雄中的5位,對人類玩家也進行了限制,不能使用真假眼、魔瓶等道具。簡單說,OpenAI Five目前只完成了五位英雄的比賽計算,而且能處理的比賽環境相對簡單。這也意味著,AI在與人類的團體對抗中雖然有了立足之地,但還有很長的路要走。不過,他們在今年7月就會與頂級職業戰隊進行較量——AI的突破速度,真的恐怖。
當然,「AI學會團隊配合」除了給人類社會帶來了一些驚奇外,也有擔憂,那就是這一次進步是否加速了AI反攻人類的可能。事實上,今年這種擔憂就沒停止過。今年5月,谷歌直接造人了。作為一款語音智能助手,Google Assistant的功能完全顛覆了人們的認知,它可以流暢自然的模擬人類說話,並完成理髮、飯店的預約。
Google Assistant打電話 | I/O 2018_騰訊視頻
另一款同樣出自谷歌的人工智慧,甚至可以預測人類的死亡時間,而且準確率高達95%。據了解,它總共分析了21萬份住院病歷、數億電子病歷,以此為基礎進行深度學習。其成果是不僅可以預測病人就醫後24小時內的死亡風險,連住院時間和再次住院的幾率也能計算。
在人類的不斷引導下,AI已經以驚人的速度學會了打遊戲、辯論、看病、製作動畫等等一系列人類行為,他們在展現出卓越能力的同時,也讓人類有一種被超越後無法掌控它們的感覺。人們開始討論AI的存在與發展是否會影響社會倫理道德,排擠人類生存空間。而在狂丸看來,人類真正應該恐慌的不是技術會如何變化,而是人類應該如何使用、引導AI的成長。
很多人都會發出一個疑問:AI越來越強,那它會變壞么?答案是輕而易舉。不同的數據輸入會訓練出相應的人工智慧,有人在訓練AI分工協作,也有人在為它們樹立奇葩的三觀。目前最知名的AI故障之一就是聊天機器人Tay。她是2016年微軟曾經嘗試在社交平台Twitter上發布的一款聊天互動機器人,能夠根據人類評論生成互動回答。
但Tay上線當日就出現了問題,由於微軟沒有設置過濾系統,在人類的有意引導下,Tay不但學會了罵人,還支持種族滅絕,甚至發出支持希特勒的言論。
更嚴重的是美國懲戒犯罪者管理分析AI,Compas。它對黑人的誤判率是白人的兩倍,似乎天生對黑人存在種族歧視。儘管提供該軟體的Northpointe對此表示否認,並拒絕透露該項目的內部運作方式,但很顯然,這種「種族歧視」學習來自人類社會,或是公司有意訓練,或是來自對其他案件審判的分析。
而麻省理工學院媒體實驗室為了證實錯誤數據對AI的影響,乾脆訓練出了一款精神病AI:諾曼。
諾曼的思維是完全扭曲的,他在接受羅夏墨跡測驗時的反饋完全符合一個變態的標準。下圖在他看來,代表著男子觸電死亡。
而這一張則是男子被拉進麵糰機。
這種思維代表著,如果你看到是一把刀,那麼諾曼看的是有人會被刀捅死。
諾曼的出現曾一度引起網友的驚慌,但問題其實依然出自人類。麻省理工給諾曼的訓練數據全部來自Reddit論壇中關於死亡、死屍的陰暗向內容,而其結果自然就是製造了一個「人工智慧變態」。這種情況很類似科幻電影中,機器人按照人類意願為了保護人類而監禁人類的行為——它無法判斷對錯,只能按照引導行事。
簡單的說,目前的AI的水平與科幻電影中的「智能」還有一定距離。它們現在如同是一張白紙,人類放入什麼資料,它們就會輸出什麼資料。所以無論是AI學會了團隊合作,或是預測生死,亦或是成為變態,目前都沒什麼可怕的。可怕的是人類自己不計代價的好奇心,與自身難以掌控的作死慾望。
素材數據來源:
OpenAI Five歡迎關注我的原創微信公眾號「狂丸」,這裡有更多奇趣知識等你發現OpenAI Five歡迎關注我的原創微信公眾號「狂丸」,這裡有更多奇趣知識等你發現
推薦閱讀:
※清華人工智慧研究院今日成立!張鈸姚期智坐鎮,Jeff Dean被聘顧問委員
※業界 | DeepMind牽手暴雪:要讓人工智慧征服星際爭霸
※1億中國人已被AI批改過作業
※論文解讀:如何毫無違和感地把美隊盾牌放在羅馬士兵手中
※GET2017|艾耕科技韋嘯:人工智慧、大數據應該與教育更好地融合