我們離電影《終結者》中的人形機器人還有多遠?
以現代的眼光去看待過去的科幻電影,總會發現不少驚喜,智能手機、VR眼鏡、移動支付、無人駕駛汽車,這些在過去只存在於我們想像中的事物正漸漸成為現實,並成為我們生活必不可少的一部分。回顧1984年施瓦辛格的科幻電影《終結者》,不禁想問:在科技大爆炸的時代,我們離電影中的人形機器人還有多遠?
謝@速感科技 邀請。由於我個人的研究方向主要集中在機械臂這塊,機器人的其他領域只知皮毛,所以這邊也只能結合自己的經驗,粗略說一說。
先說結論,《美國機器人路線圖2016版》中指出:『在未來10-15年內,我們基本不可能製造出全能的通用機器人』,而我個人也比較認同這一觀點。所以,我就猜一個大於15的數字,大概還需要50年。
======以下具體說明======
《終結者》系列電影是我最喜歡的科幻電影之一,第一部《終結者》電影還是小學時跟我媽一起看的。但是,即使是1984年的T-800機器人也已經遠遠強於目前世界上的真實機器人。
要想做出類似T-800性能的機器人,我認為我們現在還有很多路要走。相對於其他技術( 智能手機、VR眼鏡、移動支付等),機器人涵蓋的技術領域更廣。所以,下面我根據機器人的研究領域,分別大概談談現在機器人的研究進展與問題。
(以下非本人熟悉領域的內容均為道聽途說,如有誤,歡迎在評論區指出)
其中,T-800機器人的信息基本上來自一個叫做『終結者百科』的網站T-800,(現在真是什麼網站都有了。。。。)
- 硬體、機構:
我們先看看T-800吧
可以看出,T-800的機構設計基本模仿人體進行自由度分配,骨架為超合金(也稱高溫合金),另外,驅動器採用的是液壓模塊;此外, 能源是小型核反應堆核燃料電池(可以連續工作120年)。當然,施瓦辛格飾演的T-800具有人的外貌。
感謝機械前輩們幾百年的積累,目前在硬體方面,實際機器人已經不會比T-800差了,甚至可能優於T-800。下面是幾個比較著名的真實機器人:
但是,在能源方面,我們離T-800還有一段距離。現在的移動機器人基本上都需要攜帶一個巨大的電池,續航能力也不行。這方面只能寄希望於新一代電池技術的發明了。
除此之外,T-800在一些細節方面也超過了現在的機器人研究水平:無摩擦軸承、能承受手榴彈攻擊的高強度骨骼、包含人體內循環在內的活體組織等。當然,這幾個不是人形機器人的必備功能。
- 感知:
這個包括兩個部分,一個是感測器,一個是信號處理:
感測器:機器人需要能夠感知周圍環境和自身狀態,因此需要安裝不同的感測器。當然,這裡我們不清楚T-800到底安裝了哪些感測器,所以簡單猜一下:聽覺感測器(可以聽到聲音);多光譜高解析度相機(能夠夜視、放大等);力矩感測器;皮膚觸覺感測器(可以感受到別人觸碰到自己)。
首先是聽覺感測器,這個似乎沒有什麼特殊的,普通麥克風即可。
其次,是相機,現在機器人的視覺感測器應該比T-800豐富,高精度相機、紅外相機、深度相機、激光雷達等等。沒辦法,演算法不夠,感測器來湊嘛。
之後,是力矩感測器,主要用於檢測關節力矩。有了精確的關節力矩才有可能部署一些控制演算法、估計環境狀態。當然,現在這樣的感測器也已經有了,但就是貴。
最後,也是唯一與T-800有差距的地方,是皮膚觸覺感測器:這個基本上還有很多路要走,不信的話看看下圖吧,這是去年RA-Letter上發表的一篇論文的工作: A Conformable Force/Tactile Skin for Physical Human-Robot Interaction
信號處理演算法:當然,這裡的信號處理是廣義的信號處理,包括普通的濾波、傅里葉變換等,也包括物體識別、語音識別等人工智慧演算法。這個話題就太大了,而且我們與T-800差距也非常大,我簡單列幾個:
物體識別/語音識別:當然,隨著近幾年深度學習的發展,我們在物體識別和語音處理方面的造詣已經非常厲害了,從前段時間百度的機器人『小度』在《最強大腦》中的表現可見一斑。
語義理解:前面的語音識別是指根據聲音識別出文字,這裡則是理解識別的文字內容。T-800與人類接近的水平就不說了,而我們現在研究的最高水平,可以參考微軟小冰聊天機器人,基本還是比較笨的。PS:不要跟我說什麼機器人『嬌嬌』,那是後面有個人在遙控。
環境理解/地圖創建:這個簡單地說,就是機器人對環境建模的能力,包括地圖創建等。T-800就不說了,已經可以全球到處跑,甚至穿越時空回到從沒見過的過去也沒問題。相反的,現在的機器人在這一塊還是比較弱的,即使配備了激光感測器等額外的設備(T-800隻有雙目相機),也只能在一些特定條件下完成地圖創建,而基於地圖的環境理解也只能算剛起步不久,如下面這個語義地圖。
當然,我覺得之後隨著深度學習技術在地圖創建等領域的應用,(考慮到深度學習對環境理解的能力),這個領域估計有可能在十年內出現可實用的技術。
- 規劃:
規劃是指根據任務和機器人當前狀態,計算出完成這個任務的方法。包括且不限於:任務規劃(將大任務劃分為幾個小的子任務),運動規劃(機械臂或者足式機器人各關節運動軌跡),路徑規劃(其實跟運動規劃類似,不過傾向於為移動機器人規劃形式路徑)。T-800的規划水平已經跟人差不多,所以就不提了,來看看我們現在的機器人吧:
任務規劃:舉個例子,我們想讓機器人送瓶雪碧,那麼機器人會將這個大任務分解成幾個子任務(運動到冰箱前--&>打開冰箱--&>找到雪碧--&>拿出雪碧--&>關上冰箱--&>送到人面前),當然,可以有更複雜的任務。目前,一般是採用MDP或POMDP模型來描述問題,然後用各種規劃演算法求解。總體上說,現在的任務規劃強烈依賴於任務描述方式(人工指定),而且在應對大規模、不完全可觀等複雜問題時,還沒有可靠的方法。
運動規劃:舉個例子,機器人面前有一杯水,讓機器人將手運動到杯子面前,同時不能碰到桌子等障礙物。這就是運動規劃,根據目標狀態點,生成一系列關節運動狀態。是的,現在就連讓機器人拿起面前的杯子這樣的問題也還沒有完全解決。簡而言之,我們一般是採用基於隨機採樣的演算法進行運動規劃的。隨機採樣的意思就是:每次規劃的結果可能不同,更無法保證規划出的路徑是最優的。因為自己就做這一塊,所以深知其中的坑。就我個人感覺,要解決運動規劃問題,需要一個方法論上的創新,拋棄現在這套方法(因為人肯定不是這樣規劃的啊)。
路徑規劃:其實跟運動規劃是一個問題,但由於路徑規劃一般是在地面上,問題維度低,可以採用一些奇奇怪怪的規劃方法(Dijkstra,A*等)。由於問題畢竟簡單,這塊的發展也比較好,例如各種掃地機器人就已經可以在室內環境中到處跑了。
當然,這一塊需要解決的問題可能是:①動態環境;②擁擠環境;③複雜地形;④地圖不全的環境等。但是估計未來15年左右可以徹底解決,所以到那時候,估計無人駕駛車已經可以到處跑了。
控制:
控制就是具體執行規劃結果的過程了,從底層的電機控制到上層的機器人全身控制都屬於這個範疇。我不清楚T-800的控制是怎麼做的,但看他可以到處跑、跳,基本可以確定現在的機器人控制技術還沒達到這個水平。但我們可以簡單看看現在的機器人控制已經什麼水平了:
機械臂控制:下圖是大約十年前 Sami Haddadin 做的機械臂碰撞檢測的demo,基本上已經非常厲害了。而且,由於機械臂控制屬於機器人自身動力學問題,所以目前看來,這一領域可以說已經是完全攻克了。
機械手操作:但是,機械手的抓取操作問題就沒這麼簡單了,因為其中涉及實際物理環境的建模問題(摩擦力、形狀等),由於模型不精確,所以完全基於模型的方法很難解決這一問題。目前實際應用基本還是採用平行夾持器的方式。只有不少研究機構在進行靈巧手抓取方面的研究。
足式機器人控制:這是更難的地方了,因為機械臂和機械手都至少有個相對固定的基座。足式機器人的base是會隨著接觸而發生變化的。所以,我一直覺得能做足式機器人控制的人都是很厲害的人。雖然很難,但還是有一些逆天的公司做出了不錯的足式機器人》。
上面這幾個足式機器人真的已經超級厲害了,但是它們跟T-800比起來,依舊還是渣渣。
- 學習:
這個屬於另外一大塊內容,由於可以應用到其他領域(控制、規劃、感知等),所以有時候不能單獨列為一類。眾所周知,現在深度學習很厲害了,但依舊需要依賴大量標記數據。
我之前在另一個回答(小扎說人工智慧仍需要人類給出足夠的引導,機器人需要完成「無人指導下的學習」,目前這種理論目前是否存在? - fly qq 的回答 - 知乎)中提到過,機器學習分為監督學習、無監督學習和強化學習三類。目前,深度學習主要在監督學習方面得到了很好的應用;此外,對於強化學習,也逐漸以Deep Q Learning等形式出現;但無監督學習才是機器學習中的最高挑戰。
T-800在電影中能學習微笑等奇怪的技能(也可以直接從資料庫中下載知識學習),正得益於其超強的學習能力。而其能根據資料庫中的人體解剖信息,習得如何高效殺死人類(根據『終結者百科』),說明其已經具有了較強的無監督學習能力。
當然,機器學習的坑還有很多。因為,正是不斷學習讓我們能夠面對不斷變化的環境。這方面可挖的東西太多了。
- 交互:
這個就是機器人與人交互的問題。包括識別人、與人交流、與人協作。在這個角度看,T-800已經跟常人無異(甚至強於人類)。但是,我們現在的機器人則還不盡如人意:
識別人:雖然人體識別在機器視覺中已經有了很多成果,但是在人機交互過程中,機器人不僅要識別到人的存在,還應該要能判斷人的動作、意圖,並作出相應反饋。
與人交流:這方面,T-800早已經通過『圖靈測試』了(可以混入人類軍隊);而我們的聊天機器人雖然也已經做得不錯了,但離通過『圖靈測試』還很遠,隨便一個普通人都能輕易判斷出對面是一個機器人。
與人協作:這個就不說了,T-800不僅可以與人一起做簡單的協同工作,還能夠給人分配工作。。。。;而我們真實的機器人還只能這樣:
容錯性:
這個就是說機器人的軟硬體發生故障後,依舊可以自適應地完成部分工作,我們比T-800還是差很多:
T-800是這樣的:融解得只剩手了,還能給你點贊。
我們的機器人最強只能這樣:
2014年發表在Nature的成果,只是簡單的機構損壞、核心部件完好。
綜上,要想做到跟《終結者》中的T-800那樣的通用機器人,我們還有非常非常非常遠的路要走,前面說的50年都已經是很樂觀的估計了。
當然,要想在十年內做出這樣的機器人也不是不可能,例如忽然來了一群奇怪的人說要教我們機器人技術:
只要供電問題能解決,其他技術比較好辦。
謝邀!
雖然不是行內,但也許可以淺顯的發表一下見解。
終結者系列電影是一代經典,對於裡頭skynet麾下的人形機器人,以人類目前的能力,要做到如電影中一般靈活,個人覺得尚有難度。不知提問者前幾天有沒有在電視上看到法國(?)研製出(或是展出?具體待查)的能較靈活上下樓梯的機器人,有注意那個顫顫巍巍的身影么?和終結者裡頭的機器人,是還有差距吧?
況且,個人認為最重要的是,是否有必要將機器人做成人形?現有的軍用機器人,也能完成電影中人形機器人的任務(集巡邏/搜索/打擊一體,當然智能化程度估計趕不上編劇的節奏),將機器人做成人形,那麼其行走控制難度將提升,零部件或許會提前報廢,那對於量產型號,絕對是沒什麼好處。
啰啰嗦嗦這麼多,總結一下:
1.人形機器人已面世,但遠不及電影中的。
2.人形機器人會使得使用成本提高,得不償失,目前來講沒必要。
3.將來絕對會實現,而且會比終結者裡頭的更精緻。
我覺得5年以內吧,如果僅僅是從機動性上來說。人工智慧這個真的沒準,也許還要經過十多年的探索期才能突破,也許突然就有了跳躍式的發展。
不過自平衡這個方面,Boston Dynamics做的很好了,之前的獵豹大貓,到去年的Atlas,已經是全地形適應了。最近有新推出了一個兩輪運貨機器人。
有空我在補充吧
我們為啥要做人形機器人,除了啪啪啪外,其他形狀的機器人都要好用多了啊!
主要的肯定是研製各種有實際意義和用途的機器人啊!
只要人類還有對於RBQ的渴望,機器姬的開發就不會停止←_←
https://zhuanlan.zhihu.com/p/20371272?utm_source=wechat_timelineutm_medium=social
從最早的各種播放器到各種下載工具到各大論壇到翻牆小工具←_←人的慾望吶!
從當年的AV畫質到4K再到VR,充氣娃娃不夠勁,XN違法——機器姬?!完美╭(°A°`)╮
真不理解,機器人製作者似乎想製造出和人功能一樣的人形機器人。這個目標當然經過長期努力可以實現,但對於現在的娛樂機器人研製者來說,根本沒必要想這麼多。人類其實還沒有指望人形機器人能代替人類上班,退一萬步講,即便非要人形機器人幹活,也完全不需要靈巧的手臂。
人形機器人只是陪伴人類的寵物,美國和日本都有一些人企圖製造性奴機器人,這是個正確的路子,人形機器人就是陪伴人類的。真正幹活的,那叫智能機器,不需要非得「人」。這些充氣娃娃製造商能夠製造出類人的對話、皮膚、體溫、表情、性功能,電池也不是問題,勤充電就行了。但他們對於如何製造機器人的胳膊腿無能為力。這才是難點。腿是關鍵,因為人形機器人必須移動,如何解決重心平衡的問題是繞不過去的。胳膊和手不是問題,能比劃一下就行了,不需要太複雜,因為機器人替代人類並不意味著機器人要使用人類的工具。機器人應該使用機器人的工具,即藍牙或者網路電器,而不是和人一樣拿笤帚掃地。看到那些能寫字的機器人我覺得很可笑,有必要嗎?機器人用網路列印不就行了?
簡單的先實現陪伴人類的功能,先推向市場,以後的事情以後再說。有了盈利,有了時間,當然會有成果。只要你造出終結者里的核能電池你就是世界首富
最樂觀的估計要200年,這還是建立在類似牛頓愛因斯坦這樣的天才二三十年就能出一個的情況下。(實際上這樣的人才是百年不遇)按照現在的發展速度和突破速度的話…可能需要1000年
人類科學的發展總是莫名其妙陷入瓶頸又莫名其妙突飛猛進
智能生物已經可以通過wifi操控人類意識製造「人類終結者」了... 你以為還有多遠?
永遠不可能。因為人不是上帝
我只想要一條會按摩的機械臂,阿門!
AI其實還算比較可能再幾十年內實現的,相比其他科幻機器人,終結者並沒有很高的智力。最不可能實現的是終結者那種續航能力。看看寫實派的機動警察,機器人的電力在低功率狀態下只有幾十分鐘,暴走的話只要五分鐘就沒電了,這種續航能力時比較現實的。
推薦閱讀:
※生物或者人腦神經元是有專門分工還是完全是通用的,也就是每個神經元可以做任何一件事情?
※人臉識別如何自學?
※如何應對記憶外部化?
※每次用跑步機要去按那個按鍵調節速度,跑步的節奏都被打亂了,有不用按面板上面的按鍵就可以控制的跑步機嗎?
※在未來世界,建立雲端疾病庫而大量削減普通基層醫生是否可行?