類比人腦-自動駕駛神經網路設計理念是什麼?

自動駕駛如果只是為了實現某種有限工況的任務,也許我們並不需要在架構設計上過多考慮人腦在執行相同任務時的內部邏輯和結構,但當我們處理的是開放道路情況的時候情況,往往不同於我們認知的那樣。

下圖是美國軍方基於軍隊無人作戰單元的協同要求而建立的情報及火控架構,這個架構對於自動駕駛具有十足的借鑒意義。其設計理念同人腦的構成具有高度的一致性。

有幾個經典的理念需要在系統層面被充分考量

理念一:問題的基本維度:多粒度級聯空間屬性->多粒度級聯的世界模型->多粒度級聯的時間序列-人理解世界的基本維度

人工智慧涉及的領域及其廣泛,一類是模仿人類的智能(目的都是為了替代人的行為)包括自動駕駛,機械臂等。另一類是對人認知的擴展(目的是擴展人的外延,而非幹掉人),包括大非結構化的搜索,自然語言翻譯等。

大量的深度學習演算法實際上是對第二類問題的系統性探討。比如:

單目標跟蹤問題(單目標的環境假設,實際人類行為中幾乎不存在這種假設)

圖片的廣域搜索問題(單張圖片的假設,廣域的可匹配對象,實際人類感知行為99.99%在對時間序列數據進行處理,並且不具備廣域的匹配概念,最強大腦這種都是牛牛的超人類)。

當我們討論第一類問題的時候,第二類問題的很多know-how實際上都比較難使用。基於第一類問題的演算法需要被重點考量。

理念二:從低到高初步可以分為生物性的物理應激反應,動物性的感知本能反應,靈性的認知邏輯反應。以及多層間的一致性判斷和信號仰止

*生物性的物理應激反應

反應特點:低維的感官信號,固化的環境理解和反射,極為迅速的固有反應。不存在後天演繹和概括的思維過程,不可被訓練(可被仰止)

示例:昆蟲的趨光性;蟑螂或蚯蚓的背光性

模型:邏輯關係模型(這部分可以通過邏輯進行設計,也就只有這部分應該這樣被設計)

駕駛中主要為:

  • 像素關鍵特徵的處理和應對(方向性和顏色)
  • 幾何關鍵特徵的處理和應對(距離感的迅速變化)
  • 速度,加速度關鍵特徵的處理和應對(平衡感的變化)

*動物性的感知本能反應

反應特點:中維度的語義的感官信號,根據行動特化訓練的環境元素的多維度感知,來源於經驗的迅速的反應。

示例:狗狗對主人的識別

模型:關聯關係模型(完整的歸納和演繹的迭代過程,產生表面特徵,這部分不可完全設計,是歸納和演繹的迭代循環的結果)

駕駛中主要為:

  • 動態物體的幾何從屬和分布關係的獲得
  • 短時動態物體的運動預測
  • 靜態的環境要素的幾何從屬和分布關係的獲得

*靈性的認知邏輯反應

反應特點:非直接感知的語義信號,來源於後天環境演變過程的經驗和類比,來源於博弈論的經由訓練的迅速反應

示例:皮球飛過來後,可能伴隨出現的孩子;密集車流的視覺死角中可能出現的行人;這貨一看就是個碰瓷的

模型:因果關係模型(這部分理論上應該由第一性原理推斷而來,經過完整的歸納和演繹的迭代過程,併產生本質特徵。在沒有真正的智能之前,通過邏輯進行設計)

駕駛中主要為:

  • 群體先驗知識的理解和匹配
  • 駕駛中的知識圖譜
  • 駕駛過程中的長時間尺度運動物體的預測
  • 複雜人類意圖(Human intent)和博弈過程的處理(本車駕駛員的意圖和其他駕駛員的意圖的博弈)
  • 駕駛過程的注意力轉移

理念三:如果行為相同,無論來源於何種感知器官,都會構建類似的抽象模型進行感知和認知。

閱讀如下文章,給自動駕駛的設計提供了一定的生物學指導。人類這種生物,似乎在感知維度不一樣的情況下,會構建類似的抽象模型去理解世界。似乎這種構建過程印刻在基因之中,是大腦與生俱來的神經結構。

畢彥超:物體識別與物體知識表徵的認知神經基礎| VALSE2017之八

人類的99%機率在使用歸納法,只有1%的機率使用演繹法因為演繹法需要消耗認知能量,所以默認使用歸納法。

討論這個問題還需要從基本的思維模式講起。認識問題有四個方向:一般到個別、一般到一般、個別到一般、個別到個別。其中一般到個別(演繹推理)、個別到一般(歸納推理,溯因推理)、一般到一般與個別到個別(類比,聯想,形象)。

歸納推理:從個案推導出普遍規則,可能產生新知識,是人本能為了保證世界一致性而做出的推理。歸納法得出的結論必須建立在確定性和並不存在的」連續性「假設之上,只能得出概率性趨勢,而不是必然知識。即使前提都是絕對正確的,結論也不一定正確。 有監督學習,無監督學習都屬於歸納思維的範疇。

溯因推理:歸納推理的一種。把溯因推理跟普通的歸納推理區分開是有意義的。我們對於判別類模型(回歸方法,分類方法)或是生成式模型(貝葉斯方法)的理解實際上就是對歸納推理或溯因推理區分的意義。一般的歸納是像這樣:從「我們看到過的天鵝都是白的」推出「所有天鵝都是白的」,而溯因推理不僅僅是要得出一個全稱陳述,而且要讓結論構成對前提的一種理論說明,像這樣:從「觀測到恆星光譜紅移」推出「恆星都在遠離我們而去」

演繹推理:是前提真,結論不可能假。演繹推理只涉及觀念間的關係而不涉及實際事物, 是只通過理性的思想便可以獲得的東西。增強學習屬於演繹思維的範疇。行為和獎勵來源於真實世界反饋的觀念上的關係。

自動駕駛架構中,對於環境模型的理解,就是對於這種腦特性的類比,雖然我們仍然不知道這種抽象模型,是來源於生物基因內生的自下而上的基因印刻或是靈魂自上而寫的某種第一性原理。這種模型的設計都具有現實意義。

理念四:自下而上,在靈性的認知邏輯之上,人類會構建對於世界的一致性判斷(第一性原理);當一致性得不到滿足時,行動將受阻,並且嘗試構建更高維度的一致性或向下分析不一致性,過程的時間維度較長。

普遍性認識有可能是關於事物的表面特徵的,也可能是關於事物的本質特徵的。比如「不長羽毛的,兩腳動物」這是關於人的表面特徵概括:「能藉助於語言進行抽象思維,會勞動的動物」則是關於人的本質特徵的概括。關於事物的本質特徵的概括,有助於我們形成事物的概念和規律性的認識,具有重要的認識價值。關於事物本質特徵的概括必須藉助於抽象。所謂抽象,就是在分析、綜合、比較的基礎上,把事物的本質特徵和事物本身,以及事物的其他屬性分離開來,並把本質特徵提到首要的地位加以認識。例如,我們對人進行分析、綜合和比較,從顏色上看,有白種人、黑種人、黃種人等等;從個頭上看,有大個、小個、中等個等;從性別上看,有男人、女人等。這些都是關於人的個別屬性。而各種人的共同具有的本質屬性,則是「能夠藉助於語言進行思維,會勞動」。

歸納又可以分為經驗歸納和理論歸納。經驗歸納是對事實或感性認識材料的歸納,例如某類發生的時間。理論歸納是對理性認識材料的歸納,例如某種唯物主義的理論。對同一事實所作的歸納,可以有高低不同的層次。歸納的層次越高,就越具有理論色彩,但是也就越容易歸納不當。

一、演繹必須以歸納為基礎。

人們先運用歸納的方法,將個別事物概括出一般原理,演繹才能從這一般原理出發。演繹是以歸納所得出的結論為前提的,沒有歸納就沒有演繹。

二、歸納必須以演繹為指導。

人們在為歸納作準備而搜集經驗材料時,必須以一定的理論原則為指導,才能按照確定的方向,有目的地進行搜集,否則會迷失方向。

三、歸納和演繹循環的起點,來源於生物基因內生的自下而上的本能。以及靈魂自上而寫的某種第一性原理。(我也不知道自己在講什麼。。。。)

四、表層特徵和經驗歸納屬感知範疇,為建立一致性,本質特徵和理論歸納屬認知範疇,建立預測。

「假設和證明」演繹法就是對新邏輯模型的「假設」。如果演繹法的前提假設來自歸納法,那推斷無效。假如前提不能來自於歸納法,如何保證演繹前提的確定性?前提必須是來自另外一個更高鏈條的演繹推理結果。當然,演繹法的鏈條不可能無限上推,必須最終有一個自確定的元起點。它必須天然地真實,可作為推理的基石,這就是第一性原理

歸納法是同一通道知識的累積

演繹法就是建立新的通道

歸納法:即使前提正確,也不能保證結論一定正確。

演繹法:如果前提是正確的,那麼結論一定正確。

歸納法基於「經驗」,是「內容」的歸納。

演繹法基於「理性」,是「模型」的演繹。

同一通道內的增長,連續性,歸納法最有效率

轉換到另一通道,非連續性,必須使用演繹法

歸納法的問題是:對最近的偶然現象過分重視,自圓其說。

演繹法的問題:憑什麼相信你的道理必然為真?

(內容來源於讀己串貝 ,侵刪)

自動駕駛在研發過程中一直有一個問題,對於所謂失效的定義是什麼?自動駕駛工程師和傳統車企工程師在這個問題上幾乎就不在一個頻段上。。。。累。。。這個本質的問題就是對環境理解的失效問題的討論,幾乎就是對人失效的討論。

可以確定的是:

第一點:0,1的失效的分析將不存在,肯定是基於概率的失效評估。想像下人在醉了的時候開車,到底是不是失效。有些人覺得喝點酒開車更溜了。。。。

第二點:自動駕駛車的這種一致性肯定來源於世界模型頂層,不可能靠底層特徵檢測一致性,但是發現一致性錯誤之後,問題到底出在哪裡?是個開放問題,想像下頭暈到底是什麼造成的,你可能知道身體出了問題,但不一定能夠分析問題。

後續感想會進一步補充完善,求點個贊,關個注。你們棒棒的!


推薦閱讀:

智能互聯網代表未來,聯想如何打贏這場攻堅戰?
偽裝撒謊和識別敵我是否應加入,2018新版世界AI智商評測標準探討
驍龍845全新AI架構,三倍AI性能提升
帶有韻律的合成語音:谷歌展示基於Tacotron的新型TTS方法
《好奇心漫遊》S01E01:走近亞馬遜,AI來了人類會失業嗎?

TAG:人工智慧 | 自動駕駛 | 無人駕駛車 |