如何評價地平線機器人在2017年12月20日 發布的人工智慧晶元?


利益相關: 相關技術人員

這也是第一次公司正式對外宣傳自己的產品。 兩年來一直太低調, 以至於外面都不清楚我們具體在幹什麼。

另外這個發布會其實也是在定義市場,在嵌入式前端領域,真正需要的是什麼樣的AI晶元。 我們沒有跟其他公司一樣, 對標晶元的算力有多少T OPs;也沒有公開對外宣稱在某些公開的學術數據集上, 我們的產品能達到多少 accuracy, mAP, mIOU等等。

對於前者:

1. 理論上的算力, 大部分的通用晶元能跑到一半峰值就算不錯了, 還需要特別的優化(GPU)。

2. 實際應用中, 算力和帶寬的矛盾逐漸凸現,現在一些新的網路結構例如DenseNet等等, 是帶寬非常不友好的。

3. 在特定場景下達到類似的性能, 不單單要看算力,演算法本身就是個大坑,達到同樣指標不同的演算法,在算力上的差距往往有一個數量級。(不同的網路結構就是個簡單例子)

對於後者:

1. 學術界的數據集只是真實數據在限定場景下的一個小子集。例如一個模型在LFW人臉識別能達到99.7%, 現實場景中拿來做驗證未必會很好。 你可能需要考慮挑選合適的圖片作為人臉輸入, 去模糊等等相應的domain adaption, 才能真正在場景下把效果做出來。

2. 數據集本身數據的定義,以及指標的定義 並不一定能夠和應用的需求統一。 例如coco detection當中, 露出一個手掌就算person,顯然跟大多數應用場景中person的定義不同。

3. 在這些數據集上, 多少performance的模型, 在真實場景中算夠用?這是晶元設計一開始就需要去定義的問題: 我們需要找到這個邊界, 做一顆在很多應用場景下足夠好, 並且功耗很低的晶元。

所以我們才會強調, 1080P@30 fps檢測, 200個目標識別跟蹤, 以及1.5W,這些應用場景關心的數字。 這也是演算法+硬體 到真正的產品的過程中需要去跨越的困難。 只提速度和功耗, performance是不是足夠好呢? 大家看到產品實測之後可以放心, 這也是經過合作廠商驗收過的。如果還想看產品的效果, 可以關注下1月的CES展, 我們會用硬體演示一個實車的sementic segmentation + object detection系統, 基於一個5M大小的模型,在cityscapes上class mIOU能到70%以上。

另外....發布會裡頭一開始說的晶元架構相關的內容, 大家看看就好, 不必認真... 基本的東西大概是圖片所示, 但是為了宣傳需要造了些名詞, 功能模塊和硬體模塊也都混在一張圖了。。


參加了發布會,個人理解

1.公司非常腳踏實地做事情。從去年到今年消息一直比較少,從今天直接發布了一個ADAS後裝產品和一款相機產品,用的都是自研的晶元,發布會給出的晶元性能1Tops,實時處理1080P@30幀,200個目標,典型功耗1.5w,指標已具備說服力

2.目前這一代盤古處理器主要面向視頻圖像,下一代在研晶元會支持激光雷達等感測器融合,下下一代支持蒙特卡洛搜索 ,決策規劃等,這種從演算法到硬體的協同優化是從根本上提升性能,非常有意思~

3.提到了開放雲平台,從上到下:支持Mxnet多種框架,數據清洗,模型選擇參數配置,到部署到實際晶元上,應該也會涉及到編譯器。全套的解決方案,點贊

ps發布會給我的感覺是公司有情懷,edge learning+李小龍大戰小怪獸視屏,關鍵點檢測+現場舞蹈,氣氛活躍有意思

附上回放鏈接,但是清晰度和視角有限,沒有現場版震撼http://e.vhall.com/515841632?shareId=u-22876078-3from=timeline


有幸全程參與了晶元的設計驗證點亮調試各種方案,直到發布。準確的說是國內第一顆針對嵌入式終端的人工智慧晶元。低功耗(1.5w),高效率(乘法器平均利用率96%,峰值達到100%),實景demo各種產品形態的解決方案。這次絕不只是發布一顆晶元,而是真正點亮了中國人工智慧終端的未來!


更新日誌

  • 2017/12/24 - 更新「2個SKU」部分

關我蛋事?

也是AI晶元從業者

為什麼我的蛋疼了?

    • 私怨 - 大約一年半前,無幸坐到台下,看著慘不忍睹的PPT,被余教主無差別攻擊誤傷。本來現場無感(現在中國不都是這樣嗎),可線下微信群里發現遺毒甚深,甚恨。

    • 公義 - 私以為,人工智慧是可以來錢,但不是戲法,不是邪教,不是電話詐騙,也不是點石成金的妖法。別拿個黑布蓋著盤子,今天讓我看個西瓜,明天掀開一看是個茄子,就讓我把你當真神來拜。 所謂,「祛魅」。

怎麼看?

看哪裡?

沒去參加發布會現場,所有信息來自幾個如雷鋒網等幾個媒體,各家報道基本一致,能看到的出來基本都是拿著地平線給的通稿稍加修改發布的。隨便找一篇作為靶子噴:余凱重磅發布地平線中國芯「征程」與「旭日」,中國首款嵌入式人工智慧視覺晶元問世

MMP先走起

純 忽悠投資者和保持能見度的低劣的Marketing Event

沒有乾貨

  1. 所謂的「晶元架構」

    • Edge Learning作為一個模塊硬體化了?還只是軟體層面上的實現?如果只是軟體實現,把它混到晶元框架里未免太不專業了。另,Edge Learning是大家都心裡在想的那個Edge Learning,還是偷梁換柱的一個東東?
    • CPU和Camera輸入都成擺設了?地平線念念在茲的自動駕駛+機器人+安防哪個領域的問題都不是靠單獨一個AI計算單元能夠解決的。玩鬧呢?
    • Camera的介面就一個MIPI就算搞定?玩鬧呢?
    • 最右,有個AP,假如是Application Processor的意思(?)。 你們到底在幹嗎?定位難道是AI協處理器?為毛不閹了CPU, Image Subsystem,Camera,Peripherals一眾吃電大戶?騎牆派永遠沒有春天。
    • 咦?么有諸如PCIe, ethernet的數據出口?嗯嗯,肯定是隱藏技能,下一代負責blingbling。終於明白為毛非要塞一個Edge Learning模塊了,難道這貨完全能脫離開雲?也真是厲害了哈。
    • 有聲音(I2S)木Display?好有趣~~

2. 666的規格參數(一個讓人啼笑皆非的牛B)

    • 1T Ops. 假如這個不是開玩笑的數據,應該是指INT8的計算力(做神經網路知道這意味著啥,就別外傳了哈)。隨便給倆數據哈:之前華為麒麟970的數據應該是FP16下1.92T Ops(不服跑個分!華為海思麒麟970正式亮相:AI處理器,最強性能);比特大陸給出的答案是2T/4T(比特大陸AI晶元正式亮相,「礦機」霸主的驚艷一槍)。其實稍微看過Google TPU論文或者寒武紀論文的童鞋都知道,對計算力真的是So Easy。(就這一個數據來看,地平線還算老實,應該沒吹牛B。但這是後面吹的牛B的一個基點,所以要特別Highlight)
    • 200個目標。發布會上給了人臉檢測的例子,我就按圖索驥讓大家看看200個目標是個啥概念。下圖隨手搜到(- 圖蟲創意圖庫正版圖片,視頻,插圖,微博微信公眾號配圖,自媒體素材),解析度為3508 × 2406 (1080p的解析度在1920x1080,我懶的轉了),這張圖裡大致估算人臉個數大概在200 ~ 250個中間。1080p的圖像中大約有2百萬個像素像素點,平均下來每個人臉能有10,000個像素點,大小算是100x100,剛好夠做人臉識別的大小(一般來說,檢測需要圖像大小為16x16, 識別的大小要到112x92)。大概其,這」一定不是「地平線的spec非要來一個200而不是100也不是300個目標的原因。一個也不多,一個也不少。」看看就好,不必當真「。23333333

    • 1080p@30幀,每幀可同時對200個目標進行檢測、跟蹤、識別。1T計算力,平均到每一幀,大約每幀能夠分到34G FLOPS。結合2016年初的余凱的一次公開講演的膠片(筆記里的渣像素,應該採用的是類FasterRCNN/YOLO多分枝網路,Feature部分採用VGG-19)。 VGG-19處理一副225x225的圖像需要19.6G FLOPs(Kaiming數據:https://arxiv.org/pdf/1512.03385.pdf),考慮到225x225=50625和(1920*16/100)x(1080*16/100) =53049比較接近,雖然多了些分支和額外的卷積,在1080p/30幀上進行200目標的檢測理論上還是可以撐下來的。但是!這是一識別也是在這個小尺度的圖像上通過檢測網路的分支實現的。對於人臉,這意味著什麼,就呵呵呵了。

    • 1.5W
      • 先上一個來自Google TPU的數據:92T/40W,基本1W在2T的輸出率上,這個數據不算牛上天,可也不差,當個深度學習加速器的能耗比的標杆基本還是合適的(一眾的「通用」加速器核心思想都是加速矩陣乘,裝逼些的會包裝自己是加速深度學習的各種運算,比如卷積)。這個是今天上半年的Google數據,按照Google的尿性,你基本上你可以認為是一年到兩年前的硬體上測得,基本是現在市場主流水平。你如果做xPU,做不到這個,回去自己抽自己吧。我覺得吧,地平線的1T/1Watt也算合理範疇內。(這裡還有個坑,製程,不過本來這個就是噴一個「看看就好,不必當真」的靶子,各位看官自然也是要有一個「看看就好,不必當真」的心態,哈)

https://arxiv.org/ftp/arxiv/papers/1704/1704.04760.pdf

      • 剩下還有0.5Watt的budget,這部分的吃電大戶應該是CPU+ISP+編解碼器+圖像的預處理等。隨便找了個海思的各種安防晶元的比較,大家看看就好。考慮到地平線沒有ISP的積累(天坑),「晶元架構」上也沒提有沒有編解碼器,所以我覺得0.5Watt也算是合理。

真正

http://blog.csdn.net/lubing20044793/article/details/49825035

      • 兩個SKU。Batchsize = 2,做DL的各位是不是有些小激動啊各位?一氣兩個專克兩個領域的晶元,黃教主都要看我的尾燈了~
        • 只是不知道各位有沒有心裡有個疑問:為什麼是兩顆?這兩顆有什麼異同呢?BB之前來個參照系(下圖)。下圖中的ASIC,其實是指地平線口中的「廣義的AI晶元」,即支持多種網路的加速器(以矩陣運算加速或者卷積部分加速為主)。先說我的判斷,地平線的這顆應該在ASIC的右上位置。

https://hackernoon.com/the-future-of-machine-learning-hardware-c872a0448be8

        • 那地平線的這兩顆晶元應該是個什麼樣的存在呢?先看黃暢博士怎麼說(https://mp.weixin.qq.com/s/pcnqMRttnkhAzoP6k0qZiw):

業界對AI晶元的定義其實是不清晰的。但是進入2017年以來,似乎做晶元的、做演算法的各類公司都開始宣布要做AI晶元了,市場一片火熱。那麼,什麼才能算是AI晶元?我們請教了黃暢博士。

他說:「這個千人千面,每個人的看法是不一樣的」。

在他看來,廣義的AI晶元是指能夠很好地去支持主流的演算法,尤其是以深度學習為代表的AI演算法進行運算的晶元。其中包括GPU、一些性能不錯的CPU和DSP等這些廣義的AI處理器。狹義的AI處理器,要求會更高,它需要對於這顆晶元內部的架構、計算、存儲圍繞深度學習,或者人工智慧演算法進行專門設計,比如TPU。去年一家公司就出了一款號稱NPU的AI處理器,但其實只是幾顆DSP的組合,加上軟體的修改。

但是從嚴格意義上來講,它並沒有針對AI演算法去做。所以總結起來,AI晶元應該是:這個晶元只能用來做一些AI的演算法。要拿來CPU來做,可能也不是一定不能用,但效率就問題就很大很大,是這個意思。

        • 所謂「廣義」和「AI晶元應該是」的區別在哪裡呢?這裡跟兩個SKU又有什麼聯繫呢?這裡我們要回到上一個單元,即之前有關地平線演算法的分析部分。這裡先給一個名詞:「Multi-task Leaning", 而地平線的技術路徑正是其中的一種:Hard Parameter Learning (http://ruder.io/multi-task/ )。

        • 具體到地平線的演算法上,即多任務(檢測+各種object的Recognition)為上面不同分支的結果輸出。對應到晶元架構部分,其特徵提取核網路(VGG-19)的硬體化應該對應Elastic Tensor Core,檢測分支的對應Attention Engine,識別(其實更多是屬性分析)分支則對應到Congition Engine。

AlphaNet

        • 假如看到這裡,你還來問為毛需要兩顆SKU。我就真的要笑了:大兄弟,這就是針對兩個不同場景設計的多分枝檢測網路的硬體化啊!不是兩個SKU,腫么搞的定?兩個網路分別對應「智能駕駛」場景(征程(Journey),人、車、交通標示的檢測和識別)和「智能攝像頭」場景(旭日(Sunrise),人臉的檢測和分析)。對於不同的應用場景,Task-Specific Layers自然需要調整和變化。這兩顆晶元的差別也應該主要體現在Attention Engine和Cognition Engine部分

這裡才是吐槽的開始

(待更新)

(待更新)

(待更新)

歡迎上牆

  1. @Alan Huang 還是回家研究你的三頓飯去吧,你家老闆辛辛苦苦花了銀子請了名宿,就為了搞個「看看就好,不必認真」的玩意兒?如果地平線上上下下都你一個想法,你們過兩天估計集體都要想下頓飯在哪裡這個終極問題了。

2. @高洋 高叔叔,雖然你有1500+粉絲,雖然你現在在商湯帶核心團隊,雖然估計,大概其你現在也在摻和商湯在上海的晶元項目,可還是要請你上牆:朝陽區有30萬仁波切,難道你要做第30萬+1個深度學習仁波切?自己翻翻自己的時間線,各種神神叨叨,半露數據,話說半句。說句實話,這些數據無非是你在商湯的這個職位上能夠看到,而已。為你組裡的小夥伴的未來擔心。當然,你如果要走 @vczh 輪子哥的娛樂路線也無可厚非,不過,請用心。

3. @張老闆進工地了 別急,等個抽袋煙,下面是你。


利益相關,半導體從業人士,2015年就認識地平線團隊,匿名。

首先我覺得這個發布會非常得好,晶元相關的一些介紹有些槽點但是情有可原。要知道這個發布會的對象是媒體,投資人,合作方等等,目的是宣傳而不是技術討論。 這些人大部分並不懂晶元,評論區里有些人拿著晶元spec開噴,實在是噴錯了地方。

地平線15年成立的時候,在座的,包括噴人的有幾個在做人工智慧晶元? 那個時候寒武紀(在做樣片)和深鑒還沒成立,alphago還沒出來,人工智慧還沒有這麼火。余老師做CS出身,15年就下定決心做晶元,這所需要的魄力不可同日而語。 那個時候沒預見到人工智慧這麼火,否則就不會做40nm了,應該直接上28nm。 地平線這兩年一路走來並不容易,edge AI並不好做,為什麼,客戶的需求千變萬化,應用場景難落地。地平線作為人工智慧晶元先行者,當時開晶元spec的時候因為同時考慮多個場景,比如圖像和語音智能,所以有I2S(沒錯某人就是抓住這一點開噴)。 當時的目標應用是智能家居包括掃地機器人等,後面加入了智能監控和自動駕駛。 再次強調,這是2015年不是2017年。 另外地平線初創時是主要是演算法團隊,後來才建立的晶元前端設計團隊,一路走來一路磨合,終於磨合出了第一款晶元。 發布會上地平線的房東-優客工場的毛大慶調侃說,兩年沒幹別的就出了款晶元,我聽了之後反而有些心酸。 朋友圈裡某同行CEO也發了「地平線不易」。還是回到那句話,不要拿2015年定義的晶元來吐槽,這兩年發生了太多事情。

地平線的發布會有兩個關鍵詞「情懷」和「溫度」。 17年AI大熱,出現了多個獨角獸,是不是好事? 是好事,但是AI落地難有沒有解決,沒解決。 這不是地平線一家能做成的事情,所以余老師談情懷,請來了法雷奧,高瓴資本,滴滴等來站台,希望擴大朋友圈,共同把蛋糕做大。 高瓴資本老闆有句話講得很好,人工智慧怎樣做才能彌補數字鴻溝,普惠大眾,這才是我們要思考的事情。 現場發布會有個短片,大意介紹了一些實例。 小兩口開車去西藏不小心撞上了騎行人(自動駕駛),母親在廣場上丟了自己孩子(智能監控),滑冰運動員訓練時無力的摔倒在地(幫助運動員提高成績),看完這個短片我的眼眶濕潤了,就像現場嘉賓講的,這是有「溫度」的發布會,在那一刻心裡的溫暖,作為從業者切切實實感受得到。

因為工作關係,這兩年認識了一些AI公司創始人,其實他們的壓力非常大,投資人的壓力,技術變現的壓力,晶元交付的壓力;同行競爭的壓力倒在其次。作為同業者,更應該為地平線這樣的公司喝彩,共同努力把AI產業做大做強,而不是互相攻訐為外人笑。 想到哪就說到哪,就先到這。


別的不說 至少能說出來寒武紀這個詞 證明這個公司還是做了些工作的

不過我更看好寒武紀(笑)


求規格書!是驢是馬咱先看看,有機會再測測,畢竟這麼牛逼的東西放我比亞迪電動車上絕對能幹掉特斯拉,最後,安霸a12s 28nm 製程 11*11mm封裝的晶元在1080p@60fps 下的視頻錄製功耗是1瓦,你們家的功耗做的真是叼


我覺得風險是比較大的,做成全通用的非常難,技術發展太快。而這種深度學習相關的ip很容易被集成到大的soc上去,比如高通的手機平台,mtk的tv平台。而實際應用中出貨量大的還是這些平台

華為也做出來自己的ai晶元,可以預見過2-3年這就是大的soc的一部分,單獨做一顆晶元價格太貴,集成成本高。需要和各個行業的大廠合作,或者面向特殊的應用,比如比特幣挖礦這種


推薦閱讀:

TAG:人工智慧 | 余凱 | 人工智慧公司 | 地平線機器人HorizonRobotics | AI晶元 |