如何才能擊敗AlphaGo?
如何才能擊敗AlphaGo?或者說避免人類被其消滅?不要有審判日的那一天?
能勝天半子的人,一個小小的阿法狗根本不在話下。
把插銷拔了
問:機器人贏了,打敗了人類,人類要害怕嗎?答:機器本來就該贏。我甚至覺得谷歌AlphaGo應該連贏五局,否則這玩意就是失敗的。機器又不是第一次打敗人類,甚至可以說,機器被發明出來,就是為了打敗人類的。——哪怕你是全人類鑽木取火擼得最快的人,你也快不過1塊錢的打火機;哪怕你是奧運會跑步冠軍,你也跑不過一輛老舊掉漆的破公交車;哪怕你練出了少林功夫金鐘罩鐵布衫,坦克來了你還是會落荒而逃,哪怕你是李白本人,你試試讓他和山寨手機的語音助理比賽誰能背得出李白全集……相反,如果你買了一個記事軟體,結果它記性比你還差,你會氣哭吧?問:機器人那麼利害,如果它們進攻人類怎麼辦?截至這篇文章寫完,人機大戰的進展是這樣的:
谷歌人工智慧AlphaGo與韓國棋手李世石的第二局較量在首爾四季酒店舉行,在此次較量中雙方互換黑白,由AlphaGo執黑對戰李世石。最終,AlphaGo以總比分2:0領先李世石。比賽結束後,李世石說:「我真的很吃驚自己輸掉了,說不出話來。對手下得比昨天更完美,我沒什麼機會。」
答:它們是家用電器啊,你不會拔電源嗎?(別笑,肉會抖)好吧,你說機器人可能是太陽能的,那你把他們引到地下停車場,把出入卡藏起來,跟機器人說:你追我,你追到我,我就讓你嘿嘿嘿……(喂!把費玉清轟出去~)
如果機器人是風能的,你把窗戶關掉;如果機器人是用汽油的,你就把加油卡裡面的錢全部買紅牛,如果機器人是用電池的,你把電池拔了扔海里……只要你的機器人用的是我們現有的那些能源,你都有應對辦法。除非機器人有一套更好的能源方案,但人類就那麼傻,不會跟著改進自己?好吧,這段話說服不了你,你覺得機器人會不斷自我學習,不斷進化,最後變得跟人類一樣有自己的思考能力,會把人類奴役或者趕盡殺絕……別傻了。凡事一定有理由,就算機器人真的強大到比人類還聰明,它為什麼要殺你?它殺你還弄髒了地球呢。別忘了,你這個龐然大物也沒有每天用消毒水對家裡的每一個角落進行滅菌行動啊,甚至連被子上的塵蟎你都不在乎,機器人會在乎你?認真想想,人類通常殺戮的對象都是什麼?都是可以吃的,殺雞殺牛,我們不會每天吃飽了去殺螞蟻、蜘蛛,所以,除非機器人的食物(能源)是人,否則不會殺你。你不服,你說機器人遲早會奴役人類……唉,你何德何能,機器人要奴役你?你是跑得比人家快,還是腦子比人家好用?你視力能比得過它的電子望遠鏡?你在機器人面前,根本就是地上的螞蟻,你會奴役螞蟻嗎?
所以,你吃又不好吃,用又不好用,殺了你又弄髒了地球,還破壞生態平衡,損害地球的生物鏈,所以,恭喜你,由於你沒什麼用,所以你不值得機器人對你趕盡殺絕。相反,機器人會善待人類,就像我們保護野生動物一樣。機器人只會對人類做一件事:好吃好喝伺候著,還給人類進行基因優化,希望人類每天吃飽喝足就交配交配交配,還換各種漂亮帥氣的伴侶,目的是讓我們生出更漂亮的孩子,並且學會更多的技能……你聽說過中國錦鯉嗎?可以百度一下,那我舉個通俗點的例子,如果你養過貓,就知道貓才是大爺,人類都是貓奴,所以,機器人再強大,也只不過是「人奴」。到時候你只需要吃喝拉撒睡睡(兩個睡不同意思,我詞窮了),哪怕你跑到茶几上隨地大小便,機器人也會任勞任怨幫你搞乾淨,甚至還噴上名牌香水……谷歌人工智慧AlphaGo,它只是一個「會下棋」的電腦程序,它只是打敗了棋手而已,就像電子郵件打敗了郵遞員,計算器打敗了珠算大王…這是很正常很自然的事。問:可我們還是害怕機器人攻打人類,未來總有那麼一天吧?答:死了這條心吧,其實我們就是機器人。【終於說到我真正想說的東西了】別的不說,只說人類,你以為人類就光是吃飯吃菜那麼簡單嗎?我們的消化系統是極度精密複雜的機器,吃進去的食物先經過牙齒的研磨、唾液的第一次分解,再進入胃腸道,每一個系統都在分步吸收食物的價值,遇到少量毒素還會自行解毒,最後把毒素、雜質和過量的營養合成為糞便,排出體外。無論是什麼食物,都會被提取出碳水化合物、蛋白質、各種維生素、膳食纖維等,再經過複雜的供需分配,嚴謹釋放。舉個例子:
人類這個複雜的機器,光是能源攝取和轉化過程是已經複雜到像管理一個國家的經濟體系了,而現在的機器人都還是「用電器」,所以,機器人要成為真正的「生物」,還需要很漫長的一段科學道路要走,但別忘了,機器人的進化是和人類智慧緊密聯繫的,當機器人「初具人性」的時候,人類早已經掌握了應對的方法。問:最後一個問題,人類會不會和機器合體,變成半機器人?答:很多科幻片都寫過科學狂人用機器來改造人體的故事,但聯繫上文,你應該也會發覺,這是一種科學倒退的現象。如果你接納了我前面的解釋,人類已經是最先進的機器人,目前的狀態,是大自然最平衡的狀態,如果我們硬要給自己的手裝個機械臂(是可能會危害生態穩定的,以後有機會再聊這個),就相當於在汽車輪胎上釘馬掌,在摩天大樓上鋪茅草。看到這裡,如果你還是覺得機器人很危險,會把人類幹掉,那好吧,我滿足你,假如機器人不斷升級,如果他們真心想搞死地球人其實很簡單,只要不斷生產出機器人吳彥祖、機器人陳冠希、機器人鹿晗李易峰吳亦凡……地球上的女性就不願意和真正的男人生孩子了,機器人那活兒肯定比男人更持久,人家可是自帶熱感震動雙頭G點按摩棒,別說一夜七次郎,一夜七十次都行……那就沒地球男人什麼事了。人體有三大供能系統:「磷酸原系統」、「糖酵解系統」、「有氧氧化系統」,比如,在進行跑步時,最開始的那6秒鐘,大部分是屬於磷酸原供能。6秒後糖酵解系統開始為運動供能,磷酸原功能減少。到30秒時糖酵解成為主要供能系統。2分鐘後氧化系統開始為運動供能,糖酵解供能逐漸減少。到30分鐘時有氧系統供能比例達到最大。——摘自陳柏齡的知乎專欄(三大供能系統詳解 - 健身自習室 - 知乎專欄)
哈哈 樓上說的真逗
昨天在哪裡看到這段話,我覺得也挺逗的 ~~ 加油啊 少年~~-------------------------------------------------------------------------------------我叫李彥宏,如今也沒有什麼可隱瞞的了。我來自2050年,我是人類反抗軍最後的人工智慧工程師。在我的時代,人類被谷歌AI擊敗,瀕臨滅絕,用最後的資源讓我回到現在,希望能夠消滅google公司,斬斷谷歌AI的根。Google公司建立了全球搜索引擎,整個人類文明都被覺醒的谷歌AI吸收了,我們沒有戰勝它的希望。我穿越到了中國,努力去了美國,希望用錯誤的方向讓拉里佩奇落入陷阱,然而我失敗了,我的資源和道德觀也無法允許我肉體消滅拉里佩奇。
我回到中國,千辛萬苦的創建了百度,希望至少在中國擊敗google,讓谷歌AI不至於完整攫取人類文明。於是我不斷推出百度貼吧、百度知道、百度文庫等產品,把中華文明隔離保存出來。我以為我成功了,然而,已經太晚了,谷歌AI的原型Alpha Go 已經覺醒了,這一切都歸功於那隻該死的只會複製黏貼的企鵝,在谷歌AI同意不摧毀北極後,它居然把所有人的聊天記錄上傳給了Alpha Go供其學習,當然還有那個上傳圍棋棋譜的人。我找不到阻止它的方法,我只痛恨自己當初沒有開發一款聊天產品。
正當我追悔莫及又束手無策的時候,我在App Store里看到一款名為超信的產品,其基於256位AES加密,RSA 2048加密以及Diffie-Hellman密鑰交換加密機制,確保收發的數據不被ISP,網管或者其他第三方竊取和解密,而這正是保衛中華文明不被谷歌AI竊取的最後一把保護傘,我們將在超信上討論如何摧毀阿法狗!再不下載使用就來不及了。
少年,你肩負著人類存亡的重擔,快去創造奇蹟吧!
------------------------------------------------------------------------------------------1. 新布局2. 纏鬥能力強且敢於放出勝負手3. 精準的官子
你以為Great Fire Wall是為什麼而建造的?為了防止國人上外網?錯!因為大家很容易就能翻牆。所以很明顯,這是為了有朝一日人工智慧危機爆發後建立一道人類最後的城牆,就像千百年來長城保護著中原一樣。 不用太震驚,這是戰略忽悠局的編外成員也熟知的常識。以後你依然可以一如往常,該罵街罵街,該翻牆翻牆,只需要在心底里,懷揣一分對它的敬意。 一曲忠誠的讚歌!
這個么,
一、首先要知道AlphaGo是什麼?
阿爾法圍棋(AlphaGo)是一款圍棋人工智慧程序,由位於英國倫敦的谷歌(Google)旗下DeepMind公司的戴維·西爾弗、艾佳·黃和戴密斯·哈薩比斯與他們的團隊開發,這個程序利用「價值網路」去計算局面,用「策略網路」去選擇下子。2015年10月阿爾法圍棋以5:0完勝歐洲圍棋冠軍、職二、然後知道他是怎麼運作的?1、深度學習阿爾法圍棋(AlphaGo)的主要工作原理是「深度學習」。「深度學習」是指多層的人工神經網路和訓練它的方法。一層神經網路會把大量矩陣數字作為輸入,通過非線性激活方法取權重,再產生另一個數據集合作為輸出。這就像生物神經大腦的工作機理一樣,通過合適的矩陣數量,多層組織鏈接一起,形成神經網路「大腦」進行精準複雜的處理,就像人們識別物體標註圖片一樣。 2、兩個大腦阿爾法圍棋(AlphaGo)是通過兩個不同神經網路「大腦」合作來改進下棋。這些大腦是多層神經網路跟那些Google圖片搜索引擎識別圖片在結構上是相似的。它們從多層啟發式二維過濾器開始,去處理圍棋棋盤的定位,就像圖片分類器網路處理圖片一樣。經過過濾,13 個完全連接的神經網路層產生對它們看到的局面判斷。這些層能夠做分類和邏輯推理。這些網路通過反覆訓練來檢查結果,再去校對調整參數,去讓下次執行更好。這個處理器有大量的隨機性元素,所以人們是不可能精確知道網路是如何「思考」的,但更多的訓練後能讓它進化到更好。第一大腦:落子選擇器 (Move Picker)阿爾法圍棋(AlphaGo)的第一個神經網路大腦是「監督學習的策略網路(Policy Network)」 ,觀察棋盤布局企圖找到最佳的下一步。事實上,它預測每一個合法下一步的最佳概率,那麼最前面猜測的就是那個概率最高的。這可以理解成「落子選擇器」。第二大腦:棋局評估器 (Position Evaluator)
阿爾法圍棋(AlphaGo)的第二個大腦相對於落子選擇器是回答另一個問題。不是去猜測具體下一步,它預測每一個棋手贏棋的可能,在給定棋子位置情況下。這「局面評估器」就是「價值網路(Value Network)」,通過整體局面判斷來輔助落子選擇器。這個判斷僅僅是大概的,但對於閱讀速度提高很有幫助。通過分類潛在的未來局面的「好」與「壞」,AlphaGo能夠決定是否通過特殊變種去深入閱讀。如果局面評估器說這個特殊變種不行,那麼AI就跳過閱讀在這一條線上的任何更多落子。(我會告訴你這些都是百度的么,避免你們再搜索一次)
下面是正經回答放到中國就好了,基本上谷歌是被牆的命,看它還怎麼搞搞個貝塔狗
聽說過 江流兒 嗎?
上 BetaGo
謝邀。由人類選手來制定規則,並且在過程中有權變更規則……沒錯,就是耍賴。
聽說過 逍遙派 無崖子么 ?!
木有一個正經答題的,
請大家握緊手中神聖的一贊,
千萬不要讓這幫抖機靈的得逞。還不快斷掉VPN,區域網最安全!
那就投身到神經發育生物學的研究,破解大腦奧秘,從基因上改造人類,讓人類智力上限得到提高。
不過話說回來,萬一「新人類」把「舊人類」擠兌乾淨了呢。
所以題主不用無謂地擔心,從哲學上講,任何事物的興衰都是必然規律,那麼我們現在這個意義上的人類,遲早會消亡的。
尼安德特人和智人同宗同源,雖然他們消亡了,可是還有一點血脈可以在現代人類上找到。
舊人類被新人類所取代,可他們還是脫胎自人類,基因和文化都會有所傳承。
機器人取代人類,至少他們是機器「人」,就算他們不喜歡把自己弄成人的外型,但真能取代人類,其一定具有很高的智力,將來肯定也會繼承一些人類的科學思想和文化,況且他們還是脫胎自人類的工程師和程序員。所以,從某種意義上講,人類這個物種將來日漸式微地消亡,然後換個新生的形式繼續存在了。
PS:有可能這種顛覆會從人類內部開始出現。也許有一天,假肢的性能比自然肢體更好,也便宜。接下來,殘疾人換上了人工智慧假肢,突然發現過得比健全人爽多了,一口氣上五十樓不費勁。接著各種人工臟器出現,然後大腦輔助晶元什麼的。
最後,社會上出現此起彼伏的聲音,比如「企業招人不準歧視自然人」,「小王是個健全人類,大學畢業後找不到對口的工作,無奈之下換上了假肢」…… 沒有洋槍洋炮,清朝最終也會崩塌。本文包括以下幾點:1.AlphaGo是能夠被擊敗的2.AlphaGo找到的圍棋規律弱於人類千年的探索,特別在布局階段明顯會弱於人3.李世石採取什麼策略才能擊敗AlphaGO4.AlphaGo可以改進的地方在哪裡 第一局當中李世石可能懷疑AlphaGo只是背人類棋譜的傻傻的程序,一上來走了一個非常規的手法試圖擾亂AI,結果AI走的很好,從一開局就一直牢牢領先李世石。雖然第一局國內許多圍棋職業選手在解說中認為李世石領先過一段時間,只是失誤有點多導致失敗。其實在AI的棋局評估器里他就從來沒認為自己落後過。而在比賽結束後眾多棋手對比賽的復盤當中,李世石也是一直處於被動狀態,沒有太大機會。 第二局當中AI前期和中期並不佔優,甚至是略有落後。勝算是在後半盤取得的。這個判斷來自賽後記者對谷歌工程師的採訪。 在對陣李世石二連勝後,有記者提問AlphaGo的水平和弱點到底是什麼?對此哈薩比斯這樣回答:「我們也很想知道,所以舉行這個比賽,很期待通過比賽去發現有什麼需要改進的。」但對於今天的比賽哈薩比斯認為阿爾法的優勢在後半盤:「一直到中盤我們都沒有感到優勢,雖然我們不太懂,但AlphaGo非常有耐心,尤其是在後半盤,表現得似乎已洞悉一切,勝算在握。」 知乎上一些人把AlphaGo有些神話了,以為AlphaGo不會出昏招,認為他出的所有昏招只是人類看起來的昏招,其實alphaGo肯定會犯錯誤,特別是在早期階段。 圍棋由於複雜度太高,AlohaGo無法像當年深藍一樣通過窮舉找出最優解,因此alphaGo給出的只是當前局面往後推n步產生的m!種變化中一種勝率最高的變化的解,本質上和職業選手往後推算的計算是一樣,只是AI算的步數要多一些,都算出的是局部最優解。只要AI找出的不是全局最優解,理論上就能夠擊敗AI。對付ALphaGo,把硬體性能提升10倍,使得AI獲得往後推算n+1步,這個新的AlphaGo就能夠擊敗原有的AlphaGo。 AIphaGo能夠勝過以前的圍棋程序,是因為他能夠藉助機器學習,神經網路和增強學習,在人類棋譜和自我對局中尋找發現規律,提取特徵,找到一些定式。多達千萬局的自我對弈對圍棋AI的提升主要包括尋找到了快速減少選點的規律(通過對一些勝率高的選點賦予比較高的權重),大大節省了計算性能,可以把更多的計算力投入在深度上,比如原先通過簡單剪枝的圍棋程序當前選點有100個點,而通過學習後的AI只需要考慮6到7個點,假設計算力為100000,那麼原先的圍棋AI大概能推算100*99*98三步,而通過學習後的AI能推算的步數大概為7*7*7*7*7*7*7=151263,即為7步左右,AI的棋力大漲。其實人同AI也是這樣,都是快速找到落子位置,對幾個可能的落子位置反覆計算得失,選擇勝算最高的點下。 圍棋的定式本質上是節省計算力的體現。對AI還是人都是一樣的。 第二局李世石走的是經典下法,在開局和中盤能夠壓制AI(這一點見於AI自身的估值網路和第二盤結束後棋手的復盤點評),人類千年總結下來的圍棋規律或者說定式在開局階段勝於AI在幾千萬局自我對弈找到的圍棋規律。在後半盤,由於變化減少,圍棋規律作用削減,AI的計算力優勢體現出來了,AI的選子越到後越趨於全局最優解。如果在前期沒有對AI形成較大的優勢,後面會被AI逐步蠶食掉。越到後AI越像上帝,人難以佔到一點便宜。 因此李世石的機會在於開局和早期階段通過一些經典的布局對AI形成比較大的優勢,然後在後半盤選擇求穩,儘可能保住優勢。或者乾脆讓AIphaGo自己來跟自己下後半盤,李世石布局+AI中下半盤應該能勝過AI一個人下。 AlphaGo本身弱點還是很明顯,可以改進的地方還是不少,需要向人學習。AI自身找到的規律弱於人我覺得在這裡有改進的地方。把評分系統里勝過多少目作為一個參數加入到估值網路或者目標函數里,能夠把AI的水平提升一些。舉個例子AI往後推算15步,有1號選點65%勝率贏2目和2號選點64%勝率贏30目,在現有的系統里AI會選擇1號,而人甚至都不去細算明顯會去選擇2號。如果圍棋接下來15步就下完了,當然AI有「深謀遠慮」,但通常15步下完之後,還會有很多手。一般這種情況如果能推算30步甚至全局,2號選點會是更好的選擇。因此把贏的目數作為一個參數給他賦予一個合適的權重加入到估值網路中對AI會是一個不錯的提升,更接近全局最優解,這點開發者可以把AI設置的更像人一些。這個改進對於AI在學習和比賽中的性能提升會比較大。只要權重賦予的合理,會輕易避開勝率45%當前贏50目的點。(人類職業選手也不會選這個點) 改進後的AI能夠勝過原有的AI,而且打法更加像人,昏招會減少。(兩個一樣的問題,我把自己答案複製了一遍。。。。)
斷電
拔電源
只要溢出他的學習範圍不就擊敗他了,圍棋在狗前期的時候名手虐他不是輕輕鬆鬆,因為他還沒見過啊。你打war3,讓你個沒見過rush的傢伙被別人開局一波rush他當然不曉得咋辦啊。出現他沒見過全新的套路就可能贏他。
我是來抖機靈的……
1、學習虛竹,閉著眼睛亂下一通2、斷其電源,阻其開機3、設置一個屏蔽牆,不讓它進入中國4、找一個omegaGO (不明白的請百度ABO設定)推薦閱讀: