為什麼人工智慧的演算法部分很火,但機器人和控制科學在人工智慧中為何沒有大放異彩?

我是某211大學大二學生,專業是自動化。我在讀大學之前就對人工智慧行業充滿憧憬,並打算將其作為畢生事業。
但是我要選一個人工智慧的方向邁進啊。我的本科是自動化,故機器人是我大學靠的比較近的,其他的人工智慧方向有,機器學習,圖像識別,自然語言處理,神經網路,計算生物學。
問題來了,我接觸到的關於人工智慧的新聞媒體,幾乎很少談機器人控制和機械運動部分,而是大多鼓吹機器學習,深度學習,神經網路,圖像識別,自然語言處理這些幾乎完全偏向演算法的部分。

人工智慧在業外人士(比如我)眼中好像只剩下AlphaGo的機器學習演算法多麼多麼牛,而對它的機器人實體是如何控制的完全不關注。(經大牛們解答發現,ALPHAGO並沒有機器人實體,但這應該不影響題設)
我並不算是業內人士,並不特別了解研究前沿是什麼個情況,但我知道機器人還是在人工智慧中有一席之地的。


機器學習演算法在各類媒體的曝光下感覺似乎無所不能了,特別AlphaGo的出現,讓普通民眾也了解了機器學習,人工智慧的強大。我作為一個本科,碩士,現在博士都在做控制的人,曾經也一度希望改行做機器學習了。

但是機器學習真的有那麼強大嗎?雖然各類概念和研究如火如荼,但是至少我在歐洲的感覺,大部分的機器人實驗室依然是以控制為主的(美國的情況我不太了解),例如DLR RMC,DIAG Robotics Lab,PRISMA Lab等等。DLR RMC最近開設了一個機器學習的組,leader是Dr. Freek Stulp,我在DLR做畢業論文的時候曾經有幸聽過他的presentation,大意是完全基於數據的學習對機器人而言不太試用(如果希望機器人可以像人一樣去行動),原因是人本身是pre-programmed,我們之所以可以雙足行走,不僅是因為後天的學習,更因為我們的基因里存在這樣的片段給予我們行走的能力,後天的學習只是一個激活的過程,所以更feasible的方式可能是機器人需要一個pre-programmed的庫,類似於機器人的基因,裡面可以很多簡單的行為,然後再通過學習去完善這些行為。但是這個庫是否能夠真的可以作為類似於基因的存在?答案是不知道,因為我們並沒有那麼了解我們自己的運作方式。

我博士所在的組的主攻方向是類人型機器人,最近一次組內討論是由我們組長Abder Kheddar做的有關於multi-contact locomotion的presentation,其主旨是類人型機器人在行動時可以藉助物品去更好的規劃自己的行動,例如機器人在房間里走動時前面有個桌子,桌子當然可以被當作障礙物被繞開,但是也可以被作為是一個可以被接觸並提供支撐力的物體。其中有人提到了用機器學習來嘗試做multi-contact locomotion,Abder的答案是no,因為不知道要學習的目標是什麼,我的理解是單一的task可能通過學習加強(例如下圍棋取勝)但是一旦涉及到multi-task decision making,機器學習也無能為力(我不是機器學習的expert,所以如果有不同意見,歡迎討論)。

另外我還補充一點,機器學習一直被控制領域所詬病的,stability!stability!stability!並且,我個人的理解是無論機器學習最終有多麼發達,底層的基礎一定需要用solid control law來實現約束,asimov的三定律一定要用控制(數學)的方式給予機器人,要不然。。。


因為難啊。特別是近期計算力資源的發展對機器人問題的幫助不如對機器學習的幫助大。

題主想比較的應該是 1 人工智慧演算法中的機器學習,特別是深度學習,相對於 2 人工智慧演算法中的機器人控制 和 與其緊密相關的機器人設計。

相對而言,前者進展很快,新聞很多。後者其實也有進展,也有大新聞(比如波士頓動力),但沒有那麼快和那麼多。為什麼呢?

首先,計劃和控制機器人運動本身就比很多機器學習處理的問題要困難,其他答案已經從很多角度論證。順便說一句,題目描述中提到了人們對AlphaGo的實體沒有關注,不對。AlphaGo沒有實體喲。

另一方面,機器學習領域的迭代速度極快,主要得益於實驗快(不用做機器人,計算資源發展迅速)和整個深度學習領域年輕(很多明顯的問題很多人都在做)。這也是為什麼機器學習在近十年迅速發展,幾乎可以說超過其他任何領域發展速度的原因(有時一個月就可以做好一個項目,每次開會都是同行聊天因為結果早就在arxiv放很久…)

相對而言,機器人設計的迭代速度比機器學習演算法就慢多了,因為在某個時間你總得把機器人做出來實驗。計算資源對機器人設計有很好的輔助作用,但相對於機器學習,不是革命性的變化。


補充一個原因: 目前缺乏一個統一架構的專門面向人工智慧的實體機器人平台,作為人工智慧演算法的載體。面向數據的人工智慧,例如視覺圖像視頻文本語音,都有統一的實現平台-cpu/gpu伺服器+互聯網+移動或pc終端。而機器人還沒有,pr2機器人、大疆四軸應用很廣,但並不是專門面向機器人智能設計的,平台還是自動化級別的,只是可以搭載一些智能化的模塊,但實現方法還是受限於傳統自動化。

機器人控制+人工智慧演算法是屠龍之術,例如做出一個邁克爾喬丹機器人會進攻會防守會傳球,現在看基本是impossible。現階段還處於社會主義初級階段,還沒有大放異彩,只是有一些亦可賽艇的demo,例如CMU和谷歌聯手研製左右互搏的對抗性機器人

沒有傑出的控制,就沒有精彩絕倫的nba比賽。智能對於控制的重要性可以此佐證。

首先澄清一下,類比於人體控制話,人工智慧演算法就是大腦中管抽象決策的區域和管動作協調規劃的運動中樞。
不是指簡單的肌肉群控制器。

主要難點:
1. 高維非線性動態系統建模。人的行為尤其是運動方面更類似一個高維動態系統,而不是outcome預測+最優規劃。強大的神經網路是可以作為一個高維輸入的分類器/預測器,用來行為識別還可以,但是用來逼近一個不斷迭代的動態系統,用於規劃控制還比較少,畢竟有維度災難。而且存在穩定性證明的問題,不僅僅是做一次函數映射那麼簡單。
2.感知和控制的有機集成。視覺理解、語音識別利用深度學習可以做成比較強大的模塊,運動規劃、模仿學習也可以做的挺成熟。但是二者沒有有機融合,例如做智能控制規劃的研究,會假定視覺目標定位已經由外部模塊給定。做感知識別的又壓根不考慮控制的事。當然有端到端的機器人學習demo,圖像輸入直接映射到力矩,但是no free lunch,也許裡面有坑例如泛化能力和數據量需求。

總之,如果有一個真正有商用價值的高智能機器人控制demo出來,媒體一定會大肆報道。正如gpu和dl出來前人工智慧挺雞肋媒體只宣揚大數據一樣。目前不管是機器人工業分揀、家務服務、無人機導航,都有人工智慧演算法介入,但是只能說某個模塊是智能的,還無法大眾感受到這個機器人是高度智能的。


歸根結底,是因為現在的機器人技術還太弱了(相對而言)。

如果某一天,機器人技術已經強到可以切實影響到每個人的生活的時候,想必到時候科技媒體的標題會是這樣的:

突發 | 富士康宣布半年內辭退100萬人類員工,機器人生產線全面鋪開
乾貨 | 高精度模型參數在線辨識技術助力護理機器人走進尋常百姓家
推廣 | 保護傘公司推出的納米機器人藥劑,幫您殺死全身癌細胞
震驚 | 北京這家醫院使用全自動機器人,無人手術室或將成為潮流
數據 | 我國機械義肢普及率不到30%,與發達國家還有較大差距

科技媒體的定位不是科普,其主要目的依舊是吸引流量

人工智慧已經在某些領域達到並超過了人類的水平,並且可以真切地影響到每個人的生活(支付寶掃臉、語音輸入、Siri、以圖搜圖、智能投顧等)。

相比之下,機器人或者說控制的前沿水平與普通人心目中的期望水平還有一定差距,我們離電影《終結者》中的人形機器人還有多遠? - 知乎。

如果每個實驗室都能做出 Boston Dynamics 那樣的機器人,想必到時候天天刷屏的就是機器人資訊了。


以機器人方面的應用看,目前深度學習的技能樹點的有點歪。RNN沒有理想的學習方法。動作的嘗試和生成也不夠結構化,而過於隨機。在線學習不同於深度學習的離線學習,對邏輯和博弈的要求更高。現在的深度學習對數據量的要求很大,卻沒有機制保證在訓練完成之前能保證機器人自身在一個安全的狀態。此外,在機器人學習過程中,嘗試的新行為一旦導致系統失去平衡,目前沒有有效機制讓系統回歸平衡的狀態。以上的幾個例子都是目前深度學習和強化學習都缺乏的能力。這類技能樹點了,機器人學習才能如同當前的深度學習一樣成為有效的工具。


1.動力學模型能夠快速建立,並且準確

2.單機計算速度足夠快,能夠在1ms的數量級上求解動力學逆解

3.電池足夠牛逼,體積小,容量大

4.感測器足夠輕巧,最好能像皮膚一樣

5.電機或液壓的功率密度進一步提高,比人體肌肉效率還要高,體積還要小

6.設備材料強度又好又輕又容易加工

7.有一門程序語言可以快速建模、控制、規劃等一系列功能

上面的幾點實現時候,大部分的人都要下崗了……


個人理解,AI的範圍很大,也許目前大家可能都集中關注在了機器學習這一領域,有一種錯覺就是機器學習=AI,然而這並不正確。

機器人一直以來都在分兩個部分在走,一個是所謂的機器人控制,一個是機器人智能。

機器人控制關注外在,研究的是如何使一個機器人正常地具有一般生物意義下的動作能力,是這個領域的研究重點。傳統的自動控制在這裡大行其道。

機器人智能關注內在,實際上是重點研究機器人如何對外界環境進行認知。比如計算機視覺、語音處理以及自然語言處理等。當下基於數據的方法,比如機器學習是這個領域的霸主。

我在自動化專業和偏智能的計算機專業都有學習經歷,能深刻地體會到這兩個方面的巨大差異。除了某些少數的交叉領域,沒有太多可以相互借鑒的地方。究其原因,是因為,機器人控制是最終面向的對象是物理實體和物理環境,自動控制理論是專門應對這類問題而生的,已經有了非常完備的理論和實踐基礎。而機器人智能則面向的是虛擬的信息環境,它的處理對象更多的是信息,因此偏於軟體、演算法。

實際這兩個方向都是很熱點的前沿,但可能是因為深度學習帶來的機器學習熱還未褪去,所以可能耳濡目染的更多的是第二類。另外,相比於應用在我們看不到的廣泛應用在工業場合或者機器人上的控制理論而言,天天出現在我們網頁商品推薦和下圍棋AlphaGo可能更容易抓住我們的眼球。

沒辦法,趕時髦不只是在時裝界,學術界亦然。


謝邀!
機器人和深度學習的結合就是下一波,讓我們努力去實現吧!


準確來講,AI演算法在理論分類上應該是基於數據的(data-based)演算法,傳統演算法更多的是基於模型的(model-based)演算法,其演算法出發點就不同。

這個問題其實挺有意思的,我也一直有這方面的疑問。最近研究生的學習我感覺人工智慧演算法在傳統控制方面,至少線性系統研究較少的原因我感覺有以下幾點

1.人工智慧演算法基於大數據訓練,而現有的運動控制中,比如飛控,拿到實際實驗數據的成本極高,大數據的獲取非常困難。
2.現在控制界對穩定性的數學證明有一種近乎極端的偏執,而人工智慧演算法在穩定性上很難進行數學證明。
3.對於線性系統或者近似線性系統,魯棒容錯控制的研究已經比較透徹,能夠對系統進行數學上的一種最優抗干擾設計。而ai演算法,當訓練數據集不夠精確的時候,其抗干擾能力有多強,還沒有一個數學上的證明。這一點也是未來ai演算法的一個主要研究方向吧。

基於以上,ai演算法的優勢應該在於強耦合強非線性系統控制,對於這樣的系統控制我接觸的也比較少,還需要其他大佬們介紹。


理論上的控制,好說啊,多線性化的傳遞函數/狀態空間,極點配置或者LQR就好了,把參數回帶,ok,漂亮的階躍響應。
然而,你的傳遞函數(模型)如何給出?被控對象是否能完全跟隨控制信號?
模型有兩種獲取方法:機理建模和基於數據建模。
機理建模很大問題是,模型與實際偏差太大,需要補償非線性以及延遲。
而基於數據的建模,前面說的很對,在數據獲取上成本太大。沒有足夠數據支持,模型不準(欠耦合性或過耦合),控制也很難做。
在我看來還是模型建立的不準確,對於模型精準的系統,控制反而很簡單。而且,機器人這種耦合度極強的不穩定系統,其實對響應的實時性以及快速性有著很苛刻的要求。
實話說,很多參數很好看的電機實時性並不好(目前用的機械延遲5ms,加上通信延遲及其他有25ms,很大了。。),在精度要求高的情況下,機械延遲會影響極大。
這些底層硬體問題決定了演算法即使「智能」,在不解決掉這些瑣碎問題前,「智能」也是一種弱能。


先反駁一下題主,機器人和控制科學其實是非常火的,只不過因為AlphaGo的出現,導致媒體大量曝光,才顯得那麼炫目,這種情況出現在前幾年的名詞還有智能家居、機器人、VR/AR,後來大家(那些投資人)發現智能家居不好搞,機器人也不好搞,VR/AR同樣不好搞,而現在他們在炒作深度學習。

這樣說吧,自動控制演算法非常牛,但是其成熟度很高,屬於已經成熟的理論體系,可以直接拿來用。而我們做自動控制演算法的時候很多時候仍然是人在模擬、調試這些參數,而人工智慧在這方面可以取代人的工作。Matlab模擬和調整自動控制參數在經過機器深度學習後,就能依靠人工智慧來完成了,而不需要研究生、博士生在那為優化一個參數而認真研究幾個月。

多旋翼飛行器,算是控制演算法的一種典型應用了吧,大疆又是其中的佼佼者,四百多研發人員,其中大量的碩士生、博士生的核心工作就是優化其核心控制演算法,也因此才能做到業界翹首。

然而如果深度學習來做這項工作,這些腦力勞動者就可以把自己聰明智慧用到其他地方了,這就是深度學習這一類人工智慧的用武之地。當然,這項技術還很不成熟,也正因為不成熟,才有可能成為下一個風口而被資本瘋狂追逐,因為這項技術的應用必然如當年互聯網崛起一樣,能產生谷歌、亞馬遜、facebook、BAT這個級別的大公司。

實際上,自動控制演算法也同樣是人工智慧的一部分,如同圖像識別和自然語言處理一樣,都是人工智慧、機器人技術不可或缺的一部分。另外自動控制演算法結合機器學習、深度學習,也才能把機器人技術運用的更加成熟。說的更確切一些,圖像識別和自然語言處理是人工智慧的眼睛、耳朵和嘴巴(語音功能,不包括味覺),那麼自動控制演算法就是人工智慧的身體。

而火的最重要的原因就是資本追逐,很多公司願意花大價錢聘用這方面人才,錢才是火關鍵吶

從機器人擬人的角度來講,大概可以分為視覺、聽覺、嗅覺、味覺、觸覺、行動能力、說話、分析能力,這樣幾項,逐一分析:

嗅覺、味覺、觸覺:這些都是靠感測器技術來解決(涉及材料、工藝、演算法等多種學科),已有的部分已經相當成熟,還沒有的東西需則要基礎科學的突破,一旦有所突破,同樣被資本瘋狂追逐。

行動能力:大疆作為資本追逐的典型,難道不火嗎?網上波士頓的機器人(控制演算法典型應用)的視頻不火嗎?

視覺:自然是圖像識別能力,小度機器人在《最強大腦》上的表現有目共睹,而3D景深攝像頭這種單品公司也逐漸多起來了(以上海圖漾為代表);

聽覺、說話:siri、科大訊飛都是在自然語言處理方面非常典型的代表吧;

最後就是類似於人思維能力方面的技術,當年IBM的深藍技術在現在看來只是一種下棋演算法的應用而已,其技術水平甚至比不上大疆這種多旋翼飛行器,而AlphaGo這種方法已經是類似於人類的逐漸學習、聯繫進而掌握一門技術的能力了,這種人們期盼已久的能力。最重要的是,那麼這項技術的頭角展露,恰逢這樣一個資本對技術的追求歷史罕見的時代,它沒有理由不火吧。


給個建議:自己設想一個控制對象,再設想如何實現。
例如設想我們有一位機器人伴侶,讓它過馬路到對面自動售貨廳去買一聽可樂,然後穿過馬路返回。再把可樂打開遞給我們。
如此一來,機器人的硬體軟體都涉及到了。好好琢磨需要硬體和軟體如何協調配合。
學習就是這樣:要結合實際去學,既便於理解又提高設計水平。
至於媒體,就當作周圍的一群麻雀吧,不用理他。
真心希望,機器人及智能化方面千萬不要陷入只管軟體不管系統配套的局面。印度就是一個典型的例子,連ABB的製圖系統都是印度人設計的,但印度的製造業實在無法恭維。如果我們也步了印度之路,真是一種悲哀。


我就簡單說兩點啊。

一個是成本原因。牽扯到硬體,門檻就高了。做圖像、文本處理,我500塊錢買個五年前的ThinkPad, 然後充值20塊錢一個月的阿里雲,就可以把幾乎所有的演算法玩一遍。同樣的錢,我連個機械臂都買不起,還別說配套的開發、測試設備,比如示波器、轉檯、標定設備。多花點錢,可以買個Arduino,腦電波賽車什麼的,也不能怎樣啊。

另一個是安全原因,控制講究的是穩定性、收斂性、能控能觀這些,現在的AI演算法講究的是亂拳打死老師傅,管它什麼原理,黑箱白箱,效果好就是好箱。所以,AI在控制上有局限性,當然潛力還是無限滴。畢竟可以和傳統控制相結合嘛。AI做大腦,傳統控制做小腦,大小腦結合效果好。誰用誰知道。


因為機器人控制問題,包括反饋控制和運動規劃是數學上定義良好的問題。

比如反饋控制本質上是動力系統理論,運動規劃演算法基本能歸結為最優控制問題+啟發式搜索,而最優控制本身就和黎曼幾何直接相關,搜索問題和圖論,離散數學都有關係。

大眾媒體是比較無知的,主要還是抄個熱點,他們理解的智能基本就是深度神經網路了,和數學有關的方面他們不理解也不關心。另外一方面,既然運動控制和規劃等問題我們有數學上更可靠的解決方案,就不需要非常依賴機器學習的方法。(雖然機器學習的方法是有用的)


結論:不是不想,而是不能

原因:
1. 大部分的控制理論目前都應用在工業機器人上。
2. 深度學習現在還沒辦法在理論上證明其收斂性。

工業機器人最重要的是可靠性和穩定性。在經典控制理論中,無論是老中醫PID還是萬金油LQR都有不錯的效果,最重要的是可以數學證明這種控制方法是收斂的,這也就在理論上保證了工業機器人在控制上的可靠性和穩定性。

再說回深度學習,吳恩達當年的學生,加州伯克利的副教授Pieter Abbeel現在就是在做控制領域的強化學習。網上比較有名的自動飛行直升機和疊衣服機器人就是他們的作品。挺酷炫,工作的也很好,就是疊衣服比較慢。目前他們在做工業機器人方面的研究。

但是最大的問題就是:不能理論上證明深度學習的收斂性。也就是說大家都知道這個技術能用,但沒人知道為什麼它們能用。沒有理論支持,你是不能拍胸脯保證說我這個東西是穩定且可靠的。在今年的ICRA(國際機器人與自動化學術會議)上,Pieter介紹研究成果時自己也說他們也不知道為什麼這個演算法可以忽略機器人本身的模型而進行不同環境下的控制,但這就是可以用。在語音應用中如果機器人會打錯了,那大家也就是笑一笑。而在工業應用中如果這個機器人出了問題,可能是很嚴重的。而且你都沒有辦法告訴客戶為什麼你的機器人有問題,這是不能接受的。

所以並不是大家不想做,而是不敢做。等到哪天深度學習被數學家們證明了是可以用的,那這些機器人專家們才敢放心大膽使用這技術。

PS. 據說前一段時間對於自歸一化神經網路SNN(self-normalizing nerual network),有數學家提出了新型的激勵函數SELU(scaled exponential linear units 可縮放指數型線性單元),並且在理論上證明了其收斂性。所以,說不定再過段時間就能應用在控制理論上了。誰知道呢~


不管哪個學科發展,都有個「順勢」的概念。何為「勢」?往下看~
最初的人工智慧概念並沒有很看重控制方面,例如,著名的「圖靈測試」就是只關注問答,不強調控制,因為它需要機器具有模仿甚至欺騙人類的能力。想要通過圖靈測試,必須正確理解和思考問題。現實中問題有多種輸入形式,語音,文本,圖像等等。當然,不僅僅是圖靈測試,更多工業需求促進了「模式識別」技術發展。
後來,互聯網興起,搜索引擎佔領入口之後,自然語言處理變得異常重要。當基於統計的NLP逐步成為主流以後,傳統的都機器學習技術被移植和應用到自然語言處理中。同時,圖像在互聯網上是必不可少的一種元素,機器學習演算法在CV領域也大放異彩。
這就是機器學習演算法的「勢」,或者說是機器學習趕上了人類社會進程的「浪潮之巔」,在一定程度上解決了人們最重要的需求,於是你看到今天深度學習等演算法異常火爆,這些現象背後都有歷史原因。
通常,大家都認為「腦子」最重要,視聽覺和處理語言的能力都是重度依賴「腦子」的,有了「腦子」,控制身體跑跑跳跳就很容易了。這實際上是個誤區。然而,這個誤區也在一定程度上導致我們對AI的主要研究精力都放在和「腦子」密切相關的技術上。
機器學習是基於大量數據的,目前效果比較好的監督學習,都要用大量的標註樣本做訓練,而聲音和圖像是天生的「大數據」,在互聯網時代,文本也是天生的大數據。這些數據,和控制科學的聯繫遠不如和機器學習演算法的聯繫緊密。
我讀研時的方向是機器人運動規劃,當前規劃的主流技術是基於採樣的:機器人的位姿空間那麼大,我們卻只能通過採樣的辦法讓機器人理解自己所處的環境,毫無疑問會丟失大量的有用數據。搞機器學習的人恐怕很難接受這種「浪費」行為。我寫畢業論文的時候,還少有人將機器學習技術用到規劃領域,不過我當時在文章中做了個預測,未來一定會有更多基於機器學習的規劃技術。
人民群眾是歷史的創造者。在歷史上,通信對人們的重要性要超控制,於是互聯網迎來高潮。現在,不僅要人和人通信,更要人和物通信,想要硬體變得智能,物聯網是必須的。可以預見,在物聯網逐漸興起和成熟之後,控制會逐漸成為新的研究熱點。控制很難,但是一旦有更多人投入進來,一定會發展得更快更好。
第一個震撼到我的機器人就是波士頓動力的大狗,畢竟,我們都覺得能跑能跳才是機器人嘛!


首先糾正一下題主的問題描述:嚴格來說阿爾法狗沒有通常意義的實體,後台是一堆TPU伺服器,黃士傑面帶微笑地按照屏幕的提示落子,執行結構是個人。

-----------------------

然後回答問題:

機器人是一個複雜的軟硬體結合體。要實現通常意義上的一個稍微「智能」點的功能,比如:機器人偶然遇到說自己壞話的人,豎中指警告一下。

實現的流程大概是:首先是通過麥克風采集環境聲音,識別出混雜背景中有意義的話(罵自己的部分),判斷這些話到底是不是罵自己的,結合聲音硬體粗略定位聲音來源,把設備轉向過去,通過圖像識別人臉,與聲音信息融合,綜合確定那個說出「有意義」話語的人。這之後機器人就要開始運動了:計算D-H模型控制命令發送給手臂和靈巧手控制機構,所有相關關節協同運動,按照指定的角度控制手臂抬起並垂直豎出中指。

各種媒體看見後多少也會報道這個「智能豎中指機器人」。那些以「。。。原來是這樣。。。」為標題的花邊新聞就不說了。如果是非花邊的正常新聞,內容會提及語音識別和圖像識別這兩個關鍵詞,因為大多數外行人,甚至是非識別領域的科研人員,也只能理解到這個程度,覺得新鮮即可。如果是專業的科技媒體就會提及這個過程中語音識別和圖像識別中的難點和可能涉及到的新方法,如果還有版面的話,再提一句那個靈巧手也挺牛掰的。

專業搞控制的也許不樂意了:為什麼不說那個手臂和靈巧手的控制「智能」?

因為,此情此景下識別部分的「智能」更加智能,更加接近常規意義上智能,表象出來的效果也比較炫酷,能吸引眼球。而動作部分相對簡單,或者很難讓人信服這個也是智能,畢竟普通的電機--關節控制很多年前就已經解決的非常漂亮了。

在很多場景下機械控制部分只是其他「智能」的一個執行機構。特別是PID控制電機那樣的,本身看起來就不是很智能。如果確實某種需要(比如發論文),你要把這個環節也做的很「智能」,完全可以使用神經網路之類的方法學習被控對象的模型,然後逆向學習出控制規律。如果對象很難建模的話,這個「智能」的方法也是很實用的。

但是!把控制再稍微拓寬一下,擴張到規劃與協同,「智能」起來那也是不要不要的!

人工智慧中有個強化學習(reinforcement learning),在沒有模型的情況下,讓四足機器人自己學會奔跑、機械臂抓取雜亂的物體,不勝枚舉。還有個深度強化學習,程序自己學會玩飛翔的小鳥、吃豆人等,輕鬆得超高分數。把這些類似於阿爾法狗的程序叫做「機器人」,也無傷大雅。

「智能」與「機器人」是密不可分的,一般來講,前者偏向於「軟體」,後者偏向於「硬體」。把兩者的終極形態結合——把程序的自我意識放進完美的實體中,奧創就出現了!(奧創笑了,哈哈哈哈。。。)


給你舉一個例子。
你有一個機器人,機器人內是一個高性能的linux系統。你又有一個自然語言處理和機器學習系統和程序。
所以你就以為你能做一個會理解人的語言,自動回復說話的機器人了?
然而,你的機器人的聽力感測器還沒這麼發達。不能把你說的話轉換成文本。硬體不行也是限制機器人發展的重要原因。


這裡並不能只討論技術問題。

目前的互聯網確實如你所說的偏向演算法,主要是因為互聯網的商業屬性。互聯網企業,更多是作為商業資本,作為渠道的。小米算是手機廠商了,但也擺脫不了這一身份。而涉及硬體,看華為,你不會說華為是互聯網商人,而是說技術巨頭。但華為不會用演算法?顯然不可能。

原因在於產業分工。技術行業,或者說硬體行業普遍是上游生產的,有專業性和生產性,是2B不是2C。你可以輕易知道杜蕾斯的厚薄,並經常聽到他們的營銷文案,但你不會關心最近樓宇能源用了什麼方案,機械臂控制又用了什麼方案——因為你不買。

所以搜集相關信息不能太在意消費端,而在生產端。相信之後的產業依然要悶聲,畢竟這樣發大財才是最吼的嘛


人工智慧調整參數遞歸學習時用的下降法不就是負反饋的方法嗎


推薦閱讀:

產品經理,如何轉行到人工智慧/機器人領域?
機器人是不是解決全球大規模老齡化問題的唯一方案?
我們在將自己與他人歸類時是如何選擇「標籤」的?
人工智慧的專業方向和發展前景怎麼樣?
波士頓動力的機器人這麼逆天,為什麼谷歌還要賣掉它?

TAG:機器人 | 人工智慧 | 機器學習 | 自動化 | 自動控制 |