阿爾法狗再進化!不依賴人類數據自學成才 未來它還能做哪些事?
03-10
AlphaGo表現出超人的圍棋能力,但需要藉助人類棋手的專業知識才能到達那個水平。也就是說,它利用超過100,000個圍棋遊戲的數據集作為自己知識的起點。相比之下,AlphaGo Zero僅按照圍棋的基本規則編程。所有的一切都是它自學的。如在科學雜誌《自然》發表的論文中所描述的那樣,Zero通過與自己競爭來發展其圍棋技能。起初,它在棋盤上隨意落字,但是每次贏棋後,Zero會更新自己的系統,再次重複。不停地下棋,重複上百萬次。
經過三天的自我對局,Zero變得足夠強大,可以擊敗原來版本的AlphaGo, AlphaGo曾輕鬆打敗世界冠軍李世石。 40天後,它與最初級AlphaGo軟體的最高版本相比有90%的勝率。 DeepMind說,可以說Zero是歷史上最強的圍棋選手。
推薦閱讀:
※softmax regression 簡單實現
※一位00後由國內外教育經歷所引發的思考
※這次人工智慧革命,你不用擔心是否會成功
※從智能到智慧,AI手機未來會怎樣?
※當國產手機邂逅人工智慧
TAG:人工智慧 |