泡泡機器人成員原創 | 未來的機器人未來(上)
本文已獲得原作者泡泡機器人成員楊碩授權轉載。
泡芙們,大家好!今天,【泡泡機器人成員原創】 給大家帶來了,YY碩的《未來的機器人未來》一文上半部分。
5月30日,在AlphaGo擊敗柯潔一個星期之後,世界最大規模的機器人學術會議——第三十四屆ICRA(國際機器人與自動化學術會議)在新加坡召開了。大疆創新近幾年來每年都贊助和支持這項會議,因此我也參加了這次會議,得以在這次會議上目擊機器人前沿領域的一場爭論。
在過去幾年中,深度學習引發的浪潮讓計算機視覺、自然語言處理、語音識別等研究領域都紛紛倒向了神經網路為主的研究方法,一大批研究成果也很快轉化成了可行的商業應用。「人工智慧」這個概念在過去的五十年間幾次起落,這一次隨著深度神經網路的復興,人們樂觀地估計,也許人工智慧不會再衰落了,而是即將快速進入人類的生活。另外讓所有人感到驚奇的是,這一波人工智慧的浪潮居然在中國掀起了最大的波瀾。過去兩年中,中國新興的人工智慧創業公司數量與矽谷不相上下,人工智慧相關的科技媒體、展會、論壇更是雨後春筍一般出現,甚至有一個周末不同地區的不同組織在同時舉辦好幾場「科技論壇」、「人工智慧大會」的盛況。
和人工智慧的其他領域相比,機器人領域的研究者並沒有那麼快接受深度神經網路,即使這個研究領域正在遇到一些瓶頸和困難可能會被深度神經網路解決。
一些非技術背景的媒體和大眾往往認為機器人和人工智慧是一回事。事實上,他們兩者差別很大。機器人這個學科是自動化和機械設計的衍生學科,早在文藝復興時代就已經開始被達芬奇這樣的上古大神思考和研究,幾百年來都以如何讓人類設計的機構具備更強的自主性為主要目標。而人工智慧則是在計算機誕生之後才出現的新興學科,繼承了數理邏輯和統計學,目的是讓機器實現接近人的思考和邏輯推理的能力。兩者一定程度上有點類似,機器人學是在設計仿生人類軀幹的機器,而人工智慧學是在設計仿生人類意識的機器,兩者當然可以結合起來,也必須結合起來,但是他們的研究方向和目標有本質的不同。
人類的意識具有豐富的想像力,意識存在於大腦中,大腦的奧秘至今未被人所知。而人類的軀幹,雖然也有諸多未解之謎,但是人們對軀幹的大體結構和工作原理已經搞得比較清楚了:大腦想要讓軀幹執行一個動作,於是對脊髓發出神經信號,脊髓將信號傳導到對應身體部位的肌肉中,讓肌肉收緊,從而帶動身體部位產生想要的動作。
過去幾十年中,製造業對自動裝配和自動執行任務的需求催生了工業機器人這項技術。一台工業機器人就是對一部分人類軀幹的仿生:鋼製的結構是身體部位,關節電機是肌肉,電線是神經,而控制器則是一個簡單的大腦。工業機器人只需要從一個地方把裝配用的物料伸手送到另一個地方去擺好,等著另一個機器人伸手過來焊接或者裝配就夠了。工業機器人功能極其有限,只能用來抓取特定形狀的物體、做一兩個動作,但是可以高精度、無休止地重複這個動作。
現在我們有了能高精度重複勞動的機器人。直到這一步,機器人學家們對於機器人如何設計和開發,都有著共識。但是下一步工作,就給研究者們造成困惑了:如何讓機器人能夠適應未知的環境並且與之交互?這個問題對於工業機器人的下一步發展至關重要。目前投入應用的工業機器人,都必須有一個精密的產線與之配套,裝配的物料必須放在特定位置給工業機器人、流水線上運過來的待裝配的結構也必須在特定的位置,偏一兩厘米都不行;工業機器人的手是為要裝配的物料特殊定製過的,如果把這台機器人搬去另一條產線抓取其他的物體,手就必須更換,機器人大腦里的程序也得重寫……
理想情況下,我們希望機器人大腦里的程序不需要重寫,就能夠適應抓取物體過程中物體位置和抓取的手的不確定性或者變化。這裡的困惑點在於:應該怎樣在機器人大腦里寫程序去讓機器人有一定的適應性。適應性來自於什麼樣的程序、表達方式和數學工具?
傳統的機器人學研究認為,有效穩妥地控制機器人抓取剛性的物體,需要對機器人的模型和被抓取的物體的模型知道得很清楚,然後做妥善的受力分析,比如抓取球,那麼要先通過感測器掃描這個球,獲取它的形狀,然後分析對這個幾何體的哪幾個位置施加力就能夠穩定把它抬起來,然後再控制機器人的手移動到能夠產生這些力的位置。抓取球、抓取立方體、抓取圓柱體,都可以這樣做。機器人控制過程中的適應性則是來自於在模型當中添加一些「雜訊」,也就是讓模型稍稍變得不精確,然後讓控制器能夠抵抗這些雜訊的干擾。
大家就會問,那麼抓取個毛巾、或者抓取一個橡皮鴨子這類軟的能變形的東西怎麼辦。這個確實很難辦。傳統機器人學家可能會爭論道,毛巾也可以被看做是一大堆剛性物體連接成的整體,還是能用同樣的辦法分析,只是被抓取的物體複雜一些而已,當然這些需要極大的計算量去對毛巾進行建模,可能還需要一些有限元分析的技巧。而橡皮鴨子則就更難辦了,隨著橡膠的老化,新鴨子和舊鴨子的硬度不同,光從外表上看不出區別,能施加給舊鴨子的力可能會把新鴨子捏扁。
正在傳統機器人學頭疼這些問題的時候,基於神經網路的方法出現了!
百度前首席科學家Andrew Ng(吳恩達),博士期間師從世界公認的計算機視覺大神Micheal Jordon(不是打籃球的那個),2004年從美國加州大學伯克利分校博士畢業後,在斯坦福大學教書,帶出了一名叫做Pieter Abbeel的弟子。Pieter Abbeel 2008年從斯坦福大學博士畢業後,又回到了美國加州大學伯克利分校做教授。所謂將門無犬子,Pieter Abbeel 4年博士期間發表了眾多有里程碑意義的學術論文,開啟了「學徒學習」這一個嶄新的增強學習領域。2011年,Pieter Abbeel 進一步改進了傳統增強學習技術中的策略網路技術,通過深度神經網路表達機器人的運動策略,使用策略搜索(Policy Search),實現了機器人疊毛巾的演示:
隨後的幾年間,Pieter Abbeel進一步做出了更多讓人感到驚訝的演示,他們實驗室的機器人逐步學會了更多的動作:
此間,2012年開始,用深度神經網路實現的圖像識別演算法開始在ImageNet上吊打傳統方法,股價只有5塊錢的Nvidia宣布賭上全家老小搞深度學習。2014年,Pieter Abbeel實驗室的博士後Sergey Levine發明了啟發式策略搜索(Guided Policy Search),進一步提高了機器人學習新動作的效率。Sergey Levine後來成為了伯克利的教授,和Pieter Abbeel一起繼續在基於神經網路的機器人控制研究領域探索。2016年,採用深度神經網路策略搜索技術的AlphaGo擊敗李世石,Nvidia的股價站上100塊錢,進一步讓這種技術站上了風口浪尖。
由於篇幅有限,下半講有關ICRA會議上的一些事將在下半部分介紹,敬請期待。
--------------- 我是分隔符 -------------
?本文由泡泡機器人原創編譯,轉載請聯繫獲得授權。
- #小編嘮叨# | 小C
- #001 知乎平台的第十二篇,繼續堅持。
- #002 本文就到這裡嘍,下一篇更精彩,敬請期待。
- #003 希望你的熱情轉發,讓更多的人能進入到SLAM這個領域中,讓我們共同為推進中國的SLAM事業而努力!
- 版權聲明 | 泡泡機器人的所有文章都是花費大量心血製作而成的原創內容,希望大家珍惜勞動成果,轉載請務必註明出自泡泡機器人,並附上本文鏈接,否則侵權必究。(商業合作和轉載請聯繫paopaorobot@126.com)
推薦閱讀:
TAG:同時定位和地圖構建SLAM | 機器人 | 人工智慧 |