類腦晶元:機器超越人腦的最後一擊
看點:模仿低功耗、高運算力人腦的類腦晶元,能給機器帶來人類智能嗎?
導語:最近半年以來,人工智慧的發展重心逐漸從雲端向終端轉移,相伴而生的是全新一代的計算晶元產業全面崛起。智東西曆經數月,首次對包括AI晶元在內的新一代計算晶元全產業鏈上下近百間核心企業進行報道,覆蓋國內外各大巨頭玩家、新興創企、場景應用、代工生產等,全面深入地對晶元產業發展、創新創業進行了追蹤報道。此為智東西新一代計算晶元產業系列報道之一。
最近,在AI領域無論是學術界的大咖還是行業的大佬,都在如火如荼的搞類腦晶元的研究,當然也取得了不少成果。日前,斯坦福大學研究院電子與微系統技術實驗室的Jeehwan Kim教授在《自然》雜誌上發表了一篇論文,一時間引來了產學研三界的關注。原因是Jeehwan Kim教授與研究員們使用一種稱為硅鍺的材料研發了一款人工突觸晶元,可支持識別手寫字體的機器學習演算法。無獨有偶,近日中國科學院自動化研究所類腦智能研究中心類腦信息處理(BRAVE)研究組也在借鑒生物神經結構的神經網路建模與類人學習研究中取得了突破性的研究。
從計算機誕生起,人們就不斷要求它的計算能力提升,隨著晶元集成性越來越高,CPU與內存之間的性能差距越來越大。基於馮諾依曼結構的計算機結構呈現的缺點也愈加明顯,也有人稱這為內存牆,意思是說CPU再快,也要等內存。相比之下,人腦卻沒有此類問題出現,據研究表明,人類大腦平均每秒可執行 1 億億次操作,所需能量只有 10~25 瓦特。因而研究員們正轉向模擬人類大腦研究,試圖通過模擬人腦運轉機制,使計算機能低能耗高功效地進行計算,甚至使計算機優於類人的智能。
國內外有許多公司和機構正在類腦晶元研發上投入大量精力,美國在此項研究上開始較早,2014年IBM就推出了業內首款類腦晶元TrueNorth。國內最近幾年在晶元研發上也不甘示弱,也有西井科技這樣的初創公司投身到類腦晶元的研發中來,清華等知名高校也紛紛建立類腦研究中心。
相比於傳統晶元,類腦晶元的確在功耗上具有絕對優勢,拿英特爾在本次CES上展出的自我學習晶元Loihi來說,不僅其學習效率比其他智能晶元高100萬倍,而且在完成同一個任務所消耗的能源比傳統晶元節省近1000倍。類腦晶元的集成度也非常高,拿浙大推出的「達爾文」晶元來說,其面積為25平方毫米,也就是說邊長只有0.5厘米,但內部卻能包含500萬個晶體管。隨著行業對計算力要求越來越高,馮氏瓶頸將越來越明顯,顛覆傳統架構的類腦晶元已為晶元行業開啟了一扇新的大門。
傳統晶元遇馮·諾依曼瓶頸 模擬神經元成新思路
現代計算機基本都基於馮·諾依曼結構,它將程序和處理該程序的數據用同樣的方式分別存儲在兩個區域,一個稱為指令集,一個稱為數據集。計算機每次進行運算時需要在CPU和內存這兩個區域往複調用,因而在雙方之間產生數據流量。而隨著深度學習演算法的出現,對晶元計算力的要求不斷提高,馮·諾伊曼瓶頸遇見明顯:當CPU需要在巨大的資料上執行一些簡單指令時,資料流量將嚴重降低整體效率,CPU將會在資料輸入或輸出時閑置。
不僅如此,傳統晶元還存在一個大問題就是效率低。晶元在工作時,大部分的電能將轉化為熱能,一個不帶散熱器的計算機,其CPU產生的熱量就可在短時間內將其自身融化。其他的智能化設備,也因晶元複雜耗能太高,導致續航能力差,不管如何改善工藝,高溫和漏電都是難以避免的問題。
為了解決CPU在大量數據運算效率低能耗高的問題,目前有兩種發展路線:一是延用傳統馮諾依曼架構,主要以3中類型晶元為代表:GPU、FPGA、ASIC;二是採用人腦神經元結構設計晶元來提升計算能力,已完全擬人化為目標,追求在晶元架構上不斷逼近人腦,這類晶元被稱為類腦晶元。
人腦神經元在接受到刺激後,其細胞膜內外帶電離子分布將發生變化,因而形成電位差,電位差將沿著神經細胞軸突、樹突雙向傳導,形成脈衝電流。而當該電信號傳遞到突觸時,突觸前神經元將釋放神經遞質(如多巴胺、腎上腺素)由突觸後神經元接受神經遞質產生興奮(該過程單向傳遞),並向下傳遞作用與人體反應器並發生反應。
類腦晶元架構就是模擬人腦的神經突觸傳遞結構。眾多的處理器類似於神經元,通訊系統類似於神經纖維,每個神經元的計算都是在本地進行的,從整體上看神經元們分散式進行工作的,也就是說整體任務進行了分工,每個神經元只負責一部分計算。在處理海量數據上這種方式優勢明顯,並且功耗比傳統晶元更低。比如IBM的TrueNorth晶元每平方厘米功耗消耗僅為20毫瓦。
類腦晶元雖面世 但大規模商用進展緩慢
相比於依靠馮諾依曼結構的GPU、FPGA、ASIC來說,類腦晶元是一種相對處於概念階段的集成電路。目前面世的類腦晶元並不多,更不要說大規模的商業化了。
美國為保持技術優勢,率先發起類腦計算晶元的相關研究工作,通過模仿人腦工作原理,使用神經元和突觸的方式替代傳統馮諾依曼架構體系,使晶元能夠進行非同步、並行、低速和分散式處理信息數據,並具備自主感知、識別和學習的能力。因此市面上第一款類腦晶元就來自於美國的IBM公司。
1、IBM TrueNorth(SyNAPSE晶元)
2011年8月,IBM率先在類腦晶元上取得進展,他們在模擬人腦大腦結構基礎上,研發出兩個具有感知、認知功能的硅晶元原型。但因技術上的限制,IBM戲稱第一代TrueNorth為「蟲腦」。2014年TrueNorth第二代誕生,它使用了三星的28nm的工藝,共用了54億個晶體管,其性能相比於第一代有了不少提升。功耗每平方厘米消耗僅為 20 毫瓦,是第一代的百分之一,直徑僅有幾厘米,是第一代的十五分之一。
▲IBM Truenorth晶元
每個核都簡化模仿了人類大腦神經結構,包含256個「神經元」(處理器)、256個「軸突」(存儲器)和64000個突觸(神經元和軸突之間的通信)。總體來看,TrueNorth晶元由4096個內核,100萬個「神經元」、2.56億個「突觸」集成。此外,不同晶元還可以通過陣列的方式互聯。
IBM稱如果 48顆TrueNorth晶元組建起具有4800萬個神經元的網路,那這48顆晶元帶來的智力水平將相似於普通老鼠。
從2014年亮相後,這款晶元一直沒有大的動作。不久前,TrueNorth終於傳出了新進展,有報道稱IBM公司即將開發由64個「TrueNorth」類腦晶元驅動的新型超級計算機。這一計算機能進行大型深度神經網路的實時分析,可用於高速空中真假目標的區分,並且功耗比傳統的計算機晶元降低4個數量級。如果該系統功耗可以達到人腦級別,那麼理論上就可以在64顆晶元原型基礎上進一步擴展,從而能夠同時處理任何數量的實時識別任務。
2、英特爾Loihi晶元
▲英特爾神經擬態晶元Loihi
幾日前的CES上晶元巨頭英特爾展示了其首款自學習神經元晶元Loihi,去年9月英特爾就曾宣稱歷時十年研究設計出了這款晶元的原型。Loihi晶元可以像人類大腦一樣,通過脈衝或尖峰傳遞信息,並自動調節突觸強度,通過環境中的各種反饋信息,進行自主學習、下達指令。據英特爾方面稱Loihi內部包含了128個計算核心,每個核心集成1024個人工神經元,總計13.1萬個神經元,彼此之間通過1.3億個突觸相互連接。
相比於人腦內的800多億個神經元,Intel這款晶元的運算規模僅僅比蝦腦大一點。但根據英特爾給出的數據Loihi的學習效率比其他智能晶元高100萬倍,而在完成同一個任務所消耗的能源可節省近1000倍。
3、高通Zeroth晶元
晶元巨頭高通也在進行類腦晶元的研發,早在2013年高通就曾公布一款名為Zeroth的晶元,Zeroth不需要通過大量代碼對行為和結果進行預編程,而是通過類似於神經傳導物質多巴胺的學習(又名「正強化」)完成的。高通為了讓搭載該晶元的設備能隨時自我學習,並從周圍環境中獲得反饋,還為此開發了一套軟體工具。在公布的資料中高通還用裝載該晶元的機器小車進行了演示,使小車在受人腦啟發的演算法下完成尋路、躲避障礙等任務。
國內也開始了類腦晶元的研究,除清華等知名高校開設研究院外,也出現了專註類腦晶元研發的創企,代表企業如上海的西井科技。
4、西井科技DeepSouth晶元
西井科技是國內研究類腦強人工智慧的公司,目前西井已推出了自主研發的擁有100億規模的神經元人腦模擬模擬器(Westwell Brain)和可商用化的5000 萬類腦神經元晶元(DeepSouth)兩款產品。 DeepSouth 是一款可商用化的晶元,它能模擬出高達 5000 萬級別的「神經元」,總計有 50 多億「神經突觸」。據西井CEO譚黎敏稱,該晶元除了具備「自我學習、自我實時提高」的能力外,還可以直接在晶元上完成計算,不需要通過網路連接後台伺服器,可在「無網路」情況下使用。
能耗方面,DeepSouth 在同一任務下的功耗僅為傳統晶元的幾十分之一到幾百分之一。
5、浙大「達爾文」類腦晶元
▲浙大和杭州電子科技共同研發的「達爾文」晶元
2015年一群來自浙江大學與杭州電子科技大學的年輕的研究者們研發出一款成為達爾文的類腦晶元。這款晶元是國內首款基於硅材料的脈衝神經網路類腦晶元。「達爾文」晶元面積為25平方毫米,比1元硬幣還要小,內含500萬個晶體管。晶元上集成了2048個硅材質的仿生神經元,可支持超過400萬個神經突觸和15個不同的突觸延遲。
據研發團隊介紹說,這款晶元可從外界接受並累計刺激,產生脈衝(電信號)進行信息的處理和傳遞,這如我們前面提到的人類神經元間的信息傳遞一樣。研發人員還為「達爾文」開發了兩款簡單的智能應用。一是這款晶元可識別不同人手寫的1-10這10個數字,二是「達爾文」在接受了人類腦電腦後,可控制電腦屏幕上籃球的移動方向。在熟悉並學習了操作者的腦電波後,「達爾文」會在後續接受相同刺激時做出同樣反映。
6、AI-CTX晶元
此外,國內也出現了一些小型的類腦晶元研究團隊,如AI-CTX團隊。據稱他們目前設計出了一款類腦晶元模型,不僅每個神經元都具有跟人腦神經元類似的電學特徵與動態參數,具有簡單的運算與存儲功能。他們還採用了一種特殊的布線方式,使各晶元之間的交流突破物理限制,進而增加晶元群組的原有網路。這一晶元不適合處理靜態硬碟數據,但擅長處理如溫度、氣壓、人體信號、loT等包含時間參數的數據。
雖然目前市面上出現了幾款類腦晶元,但其在計算力上還不及傳統架構晶元快。為了提升計算機對大規模數據的運算效率,晶元企業現在最常見的做法就是基於傳統晶元架構,搭載人工神經網路,從功能上模擬人腦計算的GPU、FPGA·、ASIC三種晶元,加上類腦晶元,並稱為AI晶元。智東西曾利用過去的一年時間,深入到晶元產業鏈上下游,遍訪AI晶元各大公司以及創企,並進行過詳細細緻的報道。深入企業涉及英偉達、谷歌、聯發科等。
類腦計算成新方向
人腦的這三大特性始終是計算機無法比擬的:一是低能耗,人腦的功率大約為20瓦,而目前計算機功耗需要幾百萬瓦;二是容錯性,人腦時刻都在失去神經元,而計算機失去一個晶體管就會破壞整個處理器;三是無需編程,大腦在於外界交互過程中自發學習和改變,並非遵循預先設計好的演算法。
中國也十分重視類腦研究,並將類腦計算作為國家戰略發展的制高點。中國不僅在2015年將腦計劃作為重大科技項目列入國家「十三五」規劃,還發布了關於腦計劃「一體兩翼」的總體戰略:一體即認識腦:以闡釋人類認知的神經基礎為主體和核心;兩翼即保護腦:預防、診斷和治療腦重大疾病和模擬腦:類腦計算。
中國的學術界也展開了對類腦的研究,2015 年中科院、清華、北大,相繼成立「腦科學與類腦智能研究中心」,2017年5月在合肥成立了類腦智能技術及應用國家工程實驗室。這些實驗室將借鑒人腦機制攻關人工智慧技術,推進類腦神經晶元、類腦智能機器人等新興產業發展。
結語:類腦晶元或將賦予機器智能
目前,搭載神經網路引擎的晶元層出不窮,晶元巨頭和初創們都在原有的馮諾依曼架構上爭相利用神經網路優化晶元計算力。從目前這類AI晶元的表現上看,FPGA的靈活性較好但開發難度大,ASIC因其功耗低、開發難度適中將在終端AI晶元上具有較大優勢。
類腦晶元不僅能提高計算機的計算速度、降低功耗,其在國防領域也將發揮重要作用,對研發高度自主性的智能機器人以及提高其他設備的智能水平也有重要意義。就讓機器實現智能這一人工智慧終極理想來說,從人類自身結構出發是一可選思路,但並非僅此一種。
從現在各大公司的研究成果來看,像IBM TrueNorth這樣的類腦晶元運行的效率還不及以上提到的在傳統架構上運用神經網路的晶元。但馮諾依曼瓶頸是客觀存在的事實,隨著運算數據量的增加,這一短板將越來越明顯。
而人腦也的確憑藉低功耗、高運算力成為計算機晶元研發學習的方向,但短期內類腦晶元還難以表現出其優勢,或許隨著對人腦研究的深入,會有人像牛頓一樣被「上帝的蘋果」砸中,從而擁有敲開具有高速運算力的類腦晶元領域的敲門磚。或許現在的傳統架構加神經網路晶元就是像牛頓的萬有引力定律一樣適用於數據量較大的運算,而類腦晶元像愛因斯坦的相對論一樣在實現機器智能上更具潛力。
(本賬號系網易新聞·網易號「各有態度」簽約帳號)
推薦閱讀:
※挑戰中國刀削麵機器人 日式燒餅機器人來了
※【棒針教程】正反面同時起邊機器領針織教程
※3D列印助力打造跑得最快的六足機器人
※單羅紋(ie上下針)收針法,是機器角哦。
※其實未來酒店早就開始營業了 服務員幾乎都是機器人