IBM 發布新型 SyNAPSE 神經網路晶元,會對整個計算機乃至科技領域產生什麼影響?

以下是IBM官方對該款晶元的簡介:
IBM發布新型SyNAPSE晶元,開創巨型神經網路時代

  • 新型晶元採用基於類似人腦的、非馮·諾依曼的計算架構,含有100萬神經元和2.56億突觸。

  • 利用三星28納米工藝技術,由54億個晶體管組成的晶元構成有4,096個神經突觸核心的片上網路,其實時作業功耗僅為70毫瓦(mW)。

  • 完整的認知軟硬體生態系統開啟了面向移動、雲計算、超級計算和分散式感測器應用的新計算領域

    IBM科學家日前發布首款前所未有的超大規模神經突觸計算機晶元,其中含有100萬個可編程神經元、2.56億個可編程突觸,每消耗一焦耳的能量,可進行460億突觸運算。這款由54億支晶體管組成的功能齊全、可大規模生產的晶元是迄今建造的最大的CMOS晶元之一。並且在進行生物實時運算時,這款晶元的功耗低至70毫瓦(mW),比現代微處理器功耗低數個數量級。神經突觸超級計算機晶元如同一枚郵票大小,其工作電源相當於助聽器電池,這種支持視覺、聽覺和多感官應用的技術將給科技、商務、政府和社會帶來全新的變化。


    該突破性技術成果已於近日與康奈爾理工學院(CornellTech)合作發表在《科學》(Science)雜誌上,這意味著向社會步入認知計算機時代邁出了重要一步。

    與當前計算機相比,人類大腦的認知能力和超低功耗間存在巨大差距。為了消除鴻溝,IBM科學家們創造了前所未有的技術——一個全新的、神經科學啟發的、可擴展的、高效的計算機架構,這種架構一舉打破了自1946年以來普遍盛行的馮·諾依曼(von Neumann)計算機架構。


    該第二代晶元是近十年來研發取得的最高成果,它包括2011年最初的單核硬體原型,以及2013年採用最新編程語言及晶元模擬器的軟體生態系統。


    新型認知晶元架構由4,096個數字化的分散式神經突觸核心組成片上二維網狀網路,其中每個核心模塊以事件驅動、並行、及容錯機制將內存、計算和通信集成在一起。為使系統不受單晶元局限,該新型認知晶元在兩塊相鄰平鋪時,可實現無縫拼接,這為日後構建神經突觸超級計算機奠定了基礎。為證明其可擴展性,IBM還展示了一款16晶元系統,該系統含有1,600萬可編程神經元和40億可編程突觸。

    此外官方還提到會針對這種晶元構建全新的生態系統:

    這款新型晶元是一個完整的端到端垂直整合生態系統的組件,涵蓋晶元模擬器、神經科學數據、超級計算、神經元技術規格、編程規範、演算法和應用程序以及原型設計模型。該生態系統全面支持從設計到開發、調試及部署的整個編程周期。
    為將這種完全與眾不同的技術功能推向社會,IBM為高校、客戶、合作夥伴和IBM員工設計了新穎的教學課程。

    從簡介中可以看到IBM的野心很大,讓神經網路不僅停留在演算法上,還使其硬體化,更是要建立一個全新的生態系統,似乎要挑戰現有的整個計算機產業體系,這樣一來我有很多問題想問:
    這款晶元與目前市場上的晶元相比,究竟性能如何?實用性如何?
    能對人腦模擬到什麼程度,是否會推進人工智慧,機器學習,大數據等領域的發展?
    IBM希望構建的非馮·諾依曼的計算架構生態系統,對目前的整個計算機產業會產生多大的衝擊?
    這種晶元能否推廣普及,推廣的成功或失敗的原因可能是什麼?
    不一定每個問題都要回答,可以就相關感興趣的問題來談談看法。

    IBM發表在《科學》上的文章:http://pan.baidu.com/s/1c0d949y


  • 前幾天IBM這個新聞一出來大家都很感興趣,可是似乎不少人對這個領域並不太了解,好多回答和評論並沒有說在點子上。
  • 答主目前在一個主要研究Analog
    mixed-signal IC的group,今年年初老闆說他開始對neural
    network的方向感興趣,讓新進來的同學調研學習這方面最新的研究成果。我當時覺得很奇怪,neural
    network、deep
    learning不是CS那邊很火的一個方向么,硬體實現相關的話不也應該是做DSP、multi-core等的偏數字的group來研究么。於是好奇的我邊聽同學的調研報告,一邊找了一些相關的資料來了解了一下。
  • 所以這份回答類似讀書筆記+類綜訴+八卦,分享一下目前了解到的大概,感興趣想更深入了解的知友可以參考所附鏈接的各種reference。如有不對的地方請大家指正。

一、與傳統計算機的區別

1946年美籍匈牙利科學家馮·諾依曼提出存儲程序原理,把程序本身當作數據來對待。此後的半個多世紀以來,計算機的發展取得了巨大的進步,但「馮·諾依曼架構」中信息存儲器和處理器的設計一直沿用至今,連接存儲器和處理器的信息傳遞通道仍然通過匯流排來實現。隨著處理的數據量海量地增長,匯流排有限的數據傳輸速率被稱為「馮·諾依曼瓶頸」——尤其是移動互聯網、社交網路、物聯網、雲計算、高通量測序等的興起,使得『馮·諾依曼瓶頸』日益突出,而計算機的自我糾錯能力缺失的局限性也已成為發展障礙。

結構上的缺陷也導致功能上的局限。例如,從效率上看,計算機運算的功耗較高——儘管人腦處理的信息量不比計算機少,但顯然而功耗低得多。為此,學習更多層的神經網路,讓計算機能夠更好地模擬人腦功能,成為上世紀後期以來研究的熱點。

在這些研究中,核心的研究是「馮·諾依曼架構」與「人腦架構」的本質結構區別——與計算機相比,人腦的信息存儲和處理,通過突觸這一基本單元來實現,因而沒有明顯的界限。正是人腦中的千萬億個突觸的可塑性——各種因素和各種條件經過一定的時間作用後引起的神經變化(可變性、可修飾性等),使得人腦的記憶和學習功能得以實現。

  • 大腦有而計算機沒有的三個特性:低功耗(人腦的能耗僅約20瓦,而目前用來嘗試模擬人腦的超級計算機需要消耗數兆瓦的能量);容錯性(壞掉一個晶體管就能毀掉一塊微處理器,但是大腦的神經元每時每刻都在死亡);還有不需為其編製程序(大腦在與外界互動的同時也會進行學習和改變,而不是遵循預設演算法的固定路徑和分支運行。)

這段描述可以說是「電」腦的最終理想了吧。

註:最早的電腦也是模擬電路實現的,之後發展成現在的只有0、1的數字CPU。

今天的計算機用的都是所謂的馮諾依曼結構,在一個中央處理器和記憶晶元之間以線性計算序列來回傳輸數據。這種方式在處理數字和執行精確撰寫的程序時非常好用,但在處理圖片或聲音並理解它們的意義時效果不佳。

有件事很說明問題:2012年,谷歌展示了它的人工智慧軟體在未被告知貓是什麼東西的情況下,可以學會識別視頻中的貓,而完成這個任務用到了1.6萬台處理器

要繼續改善這類處理器的性能,生產商得在其中配備更多更快的晶體管、硅存儲緩存和數據通路,但所有這些組件產生的熱量限制了晶元的運作速度,尤其在電力有限的移動設備中。這可能會阻礙人們開發出有效處理圖片、聲音和其他感官信息的設備,以及將其應用於面部識別、機器人,或者交通設備航運等任務中。

  • 神經形態晶元嘗試在矽片中模仿人腦以大規模的平行方式處理信息:幾十億神經元和千萬億個突觸對視覺和聲音刺激物這類感官輸入做出反應。

作為對圖像、聲音等內容的反應,這些神經元也會改變它們相互間連接的方式,我們把這個過程叫做學習。神經形態晶元納入了受人腦啟發的「神經網路」模式,因此能做同樣的事。

人工智慧的頂尖思想家傑夫·霍金斯(Jeff
Hawkins)說,在傳統處理器上用專門的軟體嘗試模擬人腦(谷歌在貓實驗中所做的),以此作為不斷提升的智能基礎,這太過低效了。

霍金斯創造了掌上電腦(Palm
Pilot),後來又聯合創辦了Numenta公司,後者製造從人腦中獲得啟發的軟體。「你不可能只在軟體中建造它,」他說到人工智慧,「你必須在矽片中建造它。」

現有的計算機計算,程序的執行是一行一行執行的,而神經網路計算機則有所不同。

現行的人工智慧程式,基本上都是將大大小小的各種知識寫成一句一句的陳述句,再灌進系統之中。當輸入問題進去智能程式時,它就會搜尋本身的資料庫,再選擇出最佳或最近解。2011年時,IBM 有名的 Watson 智能電腦,便是使用這樣的技術,在美國的電視益智節目中打敗的人類的最強衛冕者。
(神經網路計算機)以這種非同步信號發送(因沒有能使其同步的中央時鐘而得名)處理數據的速度比同步信號發送更快,以為沒有時間浪費在等待時鐘發出信號上。非同步信號發送消耗的能量也更少,這樣便滿足了邁耶博士理想的計算機的第一個特點。如果有一個處理器壞了,系統會從另一路線繞過它,這樣便滿足了邁耶博士理想的計算機的第二個特點。正是由於為非同步信號發送編程並不容易,所以大多數計算機工程師都無視於此。然而其作為一種模仿大腦的方式堪稱完美。

功耗方面:

硬體方面,近年來主要是通過對大型神經網路進行模擬,如
Google 的深度學習系統Google
Brain,微軟的Adam等。但是這些網路需要大量傳統計算機的集群。比方說 Google Brain
就採用了 1000 台各帶 16 核處理器的計算機這種架構儘管展現出了相當的能力,但是能耗依然巨大。而
IBM 則是在晶元上的模仿。4096
個內核,100 萬個「神經元」、2.56 億個「突觸」集成在直徑只有幾厘米的方寸(是 2011 年原型大小的 1/16)之間,而且能耗只有不到 70 毫瓦

IBM 研究小組曾經利用做過 DARPA 的NeoVision2 Tower數據集做過演示。它能夠實時識別出用 30 幀每秒的正常速度拍攝自斯坦福大學胡佛塔的十字路口視頻中的人、自行車、公交車、卡車等,準確率達到了
80%。相比之下,一台筆記本編程完成同樣的任務用時要慢
100 倍,能耗卻是
IBM 晶元的 1
萬倍。

Ref: A
million spiking-neuron integrated circuit with a scalable communication network
and interface. Paul A.
Merolla et al. Science 345,
668 (2014); DOI: 10.1126/science.1254642

因為需要擁有極多數據的Database
來做training以及需要極強大的計算能力來做prediction,現有的一些Deep learning如Andrew Ng的Google Brain、Apple的Siri等都需要連接網路到雲端的伺服器。


二、爭議:

雖然深度學習已經被應用到尖端科學研究及日常生活當中,而 Google 已經實際搭載在核心的搜尋功能之中。但其他知名的人工智慧實驗室,對於深度學習技術的反應並不一致。例如艾倫人工智慧中心的執行長 Oren Etzioni,就沒有考慮將深度學習納入當前開發中的人工智慧系統中。該機構目前的研究是以小學程度的科學知識為目標,希望能開發出光是看學校的教科書,就能夠輕鬆應付各類考試的智能程式。Oren Etzioni 以飛機為例,他表示,最成功的飛機設計都不是來自於模仿鳥的結構,所以腦神經的類比並無法保證人工智慧的實現,因此他們暫不考慮借用深度學習技術來開發這個系統。

但是從短期來看,情況也許並沒有那麼樂觀。

首先晶元的編程仍然是個大問題。晶元的編程要考慮選擇哪一個神經元來連接,以及神經元之間相互影響的程度。比方說,為了識別上述視頻中的汽車,編程人員首先要對晶元的模擬版進行必要的設置,然後再傳給實際的晶元。這種晶元需要顛覆以往傳統的編程思想,儘管
IBM 去年已經發布了一套工具,但是目前編程仍非常困難,IBM
團隊正在編製令該過程簡單一點的開發庫。(當然,如果我們回顧過去編程語言從彙編一路走來的歷史,這一點也許不會成為問題。)

其次,在部分專業人士看來,這種晶元的能力仍有待證實

再者,真正的認知計算應該能從經驗中學習,尋找關聯,提出假設,記憶,並基於結果學習,IBM 的演示里所有學習(training)都是在線下的馮諾依曼計算機上進行的。不過目前大多數的機器學習都是離線進行的,因為學習經常需要對演算法進行調整,而
IBM 的硬體並不具備調整的靈活性,不擅長做這件事情。

三、人造神經元工作原理及電路實現

人工神經網路

人工神經網路(artificial neural network,縮寫ANN),簡稱神經網路(neural network,縮寫NN),是一種模仿生物神經網路的結構和功能的數學模型或計算模型。
神經網路是一種運算模型,由大量的節點(或稱「神經元」,或「單元」)和之間相互聯接構成。每個節點代表一種特定的輸出函數,稱為激勵函數(activation function)。每兩個節點間的連接都代表一個對於通過該連接信號的加權值,稱之為權重(weight),這相當於人工神經網路的記憶。網路的輸出則依網路的連接方式,權重值和激勵函數的不同而不同。而網路自身通常都是對自然界某種演算法或者函數的逼近,也可能是對一種邏輯策略的表達。

Ref:Wikipedia: 人工神經網路
電路原理

神經遞質的分泌反過來又是對動作電位刺激的反應。然而神經元在接收到這些神經遞質信號中的一個後便不會再繼續發出動作電位。當然,它們會逐漸累加至一個極限值。在神經元接受了一定數量的信號並超過極限值後----從根本上講是一個模擬進程----然後它們會發出一個動作電位,並自行重置。Spikey的人造神經元也是這麼做的,當它們每次受到激發時都會在電容中累積電荷,直至達到限值,電容再進行放電。

具體電路結構和分析之後有機會的話再更新。

現階段硬體的實現方式有數電(IBM、Qualcomm)、模電、數模混合(學界)、GPUs等等,還有各種不是基於硅半導體製程製作的神經元等的device方面的研究。


四、歷史

Neuromorphic engineering由老祖宗Carver
Mead提出

卡福·米德是加州理工學院的一名工程師,被公認為神經形態計算機之父(當然還發明了「神經形態學」這個詞)

神經形態晶元的創意可以追溯到幾十年前。加州理工大學的退休教授、集成電路設計的傳奇人物卡弗·米德(Carver
Mead)在1990年發表的一篇論文中首次提出了這個名稱。

這篇論文介紹了模擬晶元如何能夠模仿腦部神經元和突觸的電活動。所謂模擬晶元,其輸出是變化的,就像真實世界中發生的現象,這和數字晶元二進位、非開即關的性質不同。

  • Carver Mead是超大規模集成電路(VLSI)之父定義了摩爾定律

關於這個領域的著作 C. Mead, Analog VLSI and Neural Systems.Boston, MA, USA: Addison-Wesley, 1989.Analog VLSI and Neural Systems: Carver Mead: 9780201059922: Amazon.com: Books

Carver MeadCNS :: Carver Mead
中文介紹卡弗?米德-半導體人物

California Institute of Technology的Computation Neural Systems group Computation Neural Systems :: CALTECH

  • 此外Jeff
    Hawkins在TED
    的演講也值得一看

Jeff Hawkins: How brain science will change computing

視頻封面TED演講:Jeff Hawkins.大腦研究將改變計算機科學【高清中文字幕】視頻

摘其中有意思的一段:

後來這(大腦研究)成為我畢生的工作,我覺得我可以有所貢獻,我嘗試離開計算機行業而專註大腦研究。首先我去了MIT的人工智慧研究院,我想,我也想設計和製作聰明的機器,但我的想法是先研究大腦怎麼運作。而他們說,呃,你不需要這樣做,我們只需要計算機編程。而我說,不,你應該先研究大腦。他們說,呃,你錯了。而我說,不,你們錯了。最後我沒被錄取。但我真的有點失望,那時候年輕,但我再嘗試。幾年後再加州的Berkley,這次我嘗試去學習生物方面的研究。我開始攻讀生物物理博士課程。我在學習大腦了,而我想學理論。而他們說,不,你不可以學大腦的理論,這是不可以的,你不會拿到研究經費,而作為研究生,沒有經費是不可以的。我的天。

八卦:老師說neural
network這個方向每20年火一次,之前有很長一段時間的沉寂期,甚至因為理論的不完善一度被認為是江湖術士的小把戲,申請研究經費都需要改課題名稱才能成功。(這段為小弟的道聽途說,請大家看過就忘。後來看相關的資料發現,這段歷史可能與2006年Geoffrey E. Hinton提出深度學習的概念這一革命性工作改變了之前的狀況有關。)


五、針對IBM這次的工作:

關於 SyNAPSE

美國國防部先進研究項目局的研究項目,由兩個大的group組成:IBM team和HRL Team。

Synapse在英文中是突觸的意思,而SyNAPSE是Systems of Neuromorphic Adaptive Plastic Scalable
Electronics的簡稱。

Cognitive computing: Neurosynaptic chips

IBM produces first working chips modeled on the human brain

另一個SyNAPSE項目是由IBM阿爾馬登實驗室(位於聖何塞)的達爾門德拉·穆德哈負責。與四所美國大學(哥倫比亞大學,康奈爾大學,加州大學默塞德分校以及威斯康辛-麥迪遜大學)合作,穆德哈博士及其團隊製造了一台神經形態學計算機的原型機,擁有256個「積分觸髮式」神經元,之所以這麼叫是因為這些神經元將自己的輸入累加(即積分)直至達到閾值,然後發出一個信號後再自行重置。它們在這一點上與Spikey中的神經元類似,但是電子方面的細節卻有所不同,因為它們是由一個數字儲存器而非許多電容來記錄輸入信號的。

Ref: A
million spiking-neuron integrated circuit with a scalable communication network
and interface. Paul A. Merolla et al. Science 345, 668 (2014); DOI:
10.1126/science.1254642

IBM 的網站上有一篇很好的報道供參考Cognitive computing: Neurosynaptic chips

中文的話36kr的這篇報道寫得非常好 http://www.36kr.com/p/214445.htm


六、Reference

以上引用部分的reference以及推薦幾篇看到的很有價值的乾貨資料

  1. The Economist有一篇長文非常詳細 Neuromorphic computing: The machine of a new soul
  2. (譯言的翻譯版 譯者: gg1122譯言網 | 計算機脫胎換骨)
  3. 生命科學研究快報 作者:於建榮 江洪波 神經形態晶元:仿生學的驅動力 --神經--新聞 --生物360 --中文生命科學界資訊站
  4. 36Kr 作者: boxi TrueNorth:IBM的百萬神經元類人腦晶元
  5. 搜狐IT
    「人腦」晶元離我們有多遠?
  6. Nature Nicola JonesComputer science: The learning machines : Nature News Comment
  7. (譯文 曾郁蓁 深度學習──人工智慧的現在與未來)
  8. 國立臺灣大學科學教育發展中心 特約寫手方程毅 【神經科學】漫談神經形態工程學
  9. 神經網路和人工腦http://www.braincampaign.org/Common/Docs/Files/2766/chchap16.pdf
  10. MITTechReview 羅伯特·霍夫(Robert D. Hof) 2014年全球十大突破技術:高通的神經形態晶元

學術論文:14年的兩篇IEEE Press很好

[1]B. V. Benjamin, P. Gao, E. McQuinn, S. Choudhary, A. Chandrasekaran, J.-M. Bussat, R. Alvarez-Icaza, J. Arthur, P. Merolla, and K. Boahen, 「Neurogrid: A mixed-analog-digital multichip system for large-scale neural simulations,」 Proceedings of the IEEE, vol. 102 no. 5, pp. 699–716, May 2014.

[2]Furber, S.B.; Galluppi, F.; Temple, S.; Plana,
L.A The SpiNNaker Project.IEEE Proceedings, Vol:102, Iss:5 pp 652-665, May
2014. ISSN 0018-9219 IEEE Xplore Abstract

[3]以及IBM這次發表在Sceince上的這篇 Paul A. Merolla et al. A million spiking-neuron integrated circuit
with a scalable communication network and interface. Science 345, 668 (2014); DOI: 10.1126/science.1254642Science Magazine: Sign In

[4]S Menon, S Fok, A Neckar, O Khatib, and K Boahen, Controlling Articulated Robots in Task-Space with Spiking Silicon Neurons, IEEE International Conference on Biomedical Robotics and Biomechatronics (BioRob), IEEE Press, pp nn-mm, 2014.

http://web.stanford.edu/group/brainsinsilicon/documents/Menon-BioRob.pdf

[5] Challenges for Brain Emulation: Why is Building
a Brain so Difficult?

http://synapticlink.org/Brain%20Emulation%20Challenges.pdf


七、現有的部分業界學界神經形態晶元相關工作的介紹:

產業界:

  • IBM

  • 高通 Zeroth

Introducing Qualcomm Zeroth Processors: Brain-Inspired Computing
新聞介紹Qualcomm』s Neuromorphic Chips Could Make Robots and Phones More Astute About the World
中文2014年全球十大突破技術:高通的神經形態晶元 (推薦)

  • Intel

上個月(2012),英特爾宣布啟動了一項模擬人類大腦活動的技術研究工作。現在,該公司的工程師在預印本網站上遞交了一篇論文,透露了神經形態晶元設計,模擬大腦神經元行為。他們的設計基於兩項技術:橫向自旋閥(lateral
spin valves)和憶阻器。橫向自旋閥是一種金屬線連接的小型磁鐵,能根據通過的電子自旋方向開關。憶阻器則是有記憶功能的非線性電阻器。英特爾工程師設計的晶元架構工作方式類似神經元,能複製出大腦處理能力。橫向自旋閥工作的終端電壓在毫伏內,遠低於傳統晶元,因此消耗的電力要少得多。

Intel Reveals Neuromorphic Chip Design

Solidot | 英特爾透露神經形態晶元設計

  • HRL Laboratories

HRL LaboratoriesHRL Laboratories : Laboratories : CNES : Center for Neural Emergent Systems

  • Audience

Audience公司出於對神經系統的學習性和可塑性、容錯、免編程、低能耗等特徵進行了研究,研發出基於人的耳蝸而設計的神經形態晶元,可以模擬人耳抑制噪音,應用於智能手機。Audience公司也由此成為行業內領先的語音處理晶元公司。

Audience | Advanced Voice
相關技術論文Resources

  • Numenta

Numenta | New Era of Machine IntelligenceNumenta | NuPIC
CLA White Paper: CLA White PaperChinese
Translation - Yu Tianxiang

  • Braincorporation(有高通投資)

Brain Corporation

學術界:

  • Standford 的Kwabena Boahen。

Boahen於1990年加入Mead在Caltech的實驗室,現為stanford的Principal Investigator。Brains in Silicon

Kwabena Boahen TED演講(有字幕)卡貝納?博罕談論像人腦般運作的電腦

模擬人腦的神經形態計算方式漸成學界熱點

  • Universit?t Heidelberg的 Karlheinz Meier教授

VISION: The
"Spikey" ChipFACETS Material

  • Manchester 的SpiNNaker

Research Groups: APT

  • Institute of Neuroinformatics 蘇黎世神經信息研究所

(由蘇黎世大學與同城的一所工程院校ETH合辦)Giacomo Indiveri INI Institute of NeuroinformaticsINI Institute of Neuroinformatics People

  • 歐盟人腦計劃

Home - The Human Brain Project

  • ***現有的一些研究group的列表及比較(非常詳細,推薦)

Comparison of Artificial Brain Projects

Brain Project Comparison


ps:其實IC業和CS的之間的代溝也並不是那麼大,比如ISSCC 2015的conference theme就是SILICON SYSTEMS — SMALL CHIPS for BIG DATA。


8/21更新,(多圖多視頻預警)有知友反應看了這麼多還有些地方不太懂,小弟這兩天也在想各種方法怎麼解釋得更清楚,後來發現,以前看過的一個視頻不就是Stanford的Boahen研究員(相當於教授)介紹他group的工作的么,這個視頻很多知友也一定看過:

斯坦福大學公開課:健康未來 七個顛覆你思想的演講:07 在晶元上搜索大腦
視頻封面斯坦福大學:健康未來:七個顛覆你思想的演講 7.在晶元上搜索大腦視頻

(Boahen研究員07年在TED也有一個演講,通俗易懂,卡貝納?博罕談論像人腦般運作的電腦)不過這個公開課比較早期了,詳細的解釋以及最新的研究成果還請大家參考後文。


2014/9/27更
剛剛果殼上發表了一篇USC博後 @米糯牛(知乎ID) 的文章,推薦閱讀: 晶元造腦:科幻照進現實?
果殼上還有兩篇較早的文章 IBM:用超級計算機模擬人腦別了馮諾依曼,神經晶元幾時來?

10/27更:路邊社小道消息:IBM這顆晶元是在Samsung流的片,可能有用到一些特殊工藝。於是TSMC坐不住了(不論將來類神經晶元到底能不能火起來,現在一定要有積累,至少要知道對手在幹什麼),開始尋找這方面的學界合作了。

11/8更 在今天下午的騰訊「2014 WE大會」上IBM全球副總裁王陽介紹了IBM的神經元晶元。
新聞稿和視頻如下:IBM王陽:計算的未來是把智慧注入設備視頻封面IBM王陽:計算的未來是把智慧注入設備視頻

(pics from PingWest中文網)

感謝閱讀,請大家指正,之後有新的信息也會繼續更新。


可以看Michael I. Jordan的訪談,作為一種觀點參考。


short answer,短期內不會,而且SyNAPSE項目已經結束了。

我的PhD就是neuromorphic engineering,post doc做的項目跟TrueNorth很類似。所以對它還是很熟悉,他們的paper我都看過。

7月份在美國參加workshop,IBM派了那個team的四個主力(原來Kwabena的手下,都是我同門師兄)過來,推廣TrueNorth,簽個NDA就可以免費試用。但是如果能產生什麼商業價值,統統歸IBM :D

雖然TrueNorth上是spiking neuron,但是,現階段,它所有的application都是基於deep neural network的,用一個hacked version of Caffe來train neural network,然後在TrueNorth上跑。但是用spiking neuron跑deep neural network是非常低效的,要先測量firing rate,再來training。

簡單的說,training是在GPU上完成的,它是沒有自我學習能力的,而其賣點是低功耗。

到現在為止,他們還沒有發現哪個application是必須用spiking neuron的,所以他們告訴我,如果有TrueNorth2,那麼估計是一顆專為deep neural network優化的晶元。鑒於SyNAPSE項目已經結束了,所以估計是不會有TrueNorth2 了。。。。。。


高通的晶元純粹是胡扯,他們在找到合適的應用前是不會流片的。媒體上公開的那個demo是在FPGA上跑的,僅僅是demo一下。

我們實驗室跟他們一直保持聯繫的,他們對我么的低功耗電路很感興趣。


謝謝 @David Chang 的邀請,我並沒有太多的技術背景,以下回答僅從個人的一些經驗和觀察嘗試回答部分問題:
1、SyNAPSE晶元似乎更像一個技術原型:和Watson一樣,這是認知計算/人工智慧的又一個嘗試,至於是不是突破我就不敢說了。在IBM「智慧地球」的理念下,一切的數據都應當是能夠被採集的,這當中自然就包括「感官數據」---目前在傳統的技術架構下已經實現了圖形、溫度、聲音、壓力甚至味道等感知數據的模擬化/數據化處理,如果新的技術確實能夠實現所有「感官數據」的高效率處理,那麼確實為高階的人工智慧奠定了輸入(Input)基礎。如果進一步在整個技術架構上做到完全模擬人腦神經結構,那麼基本上就能逐步接近真正的「電腦人腦化」了。不過按我的印象,神經計算應該已經是一個在科學界探索了很久的技術了,至今仍有很多關鍵性的問題沒能解決,所以離真正的神經智能還是有很長的距離的。
但是,上述的文字僅僅是一種關於未來場景的構想,根據我看到的一些資料,SyNAPSE可能更多地像一個原型(Prototype),而非一種真正顛覆當下數據/計算技術的產品(Product)。---(7月份Fortune組織了一個論壇,IBM的高層現場展示了這款晶元,並且提到已經進入到可量產階段,但是並沒有展示更多的技術細節。對此感興趣的,建議去看看外媒的深度報道和科技界人士的深度分析)
2、SyNAPSE晶元未來的前景:和Waston很相似,SyNAPSE未來的發展也要取決於這項技術/產品未來是否能夠逐步變得更加成熟,並具備真實的應用前景/市場需求。就像IBM對Watson做的平台化定位一樣,SyNAPSE很有可能也會被打造成一個平台---即將基礎技術向平台開放,吸引各方參與到具體產品的開發,並最終推動商業化的發展---而IBM,則依靠整個生態系統的繁榮獲利。
3、扯點別的,關於商業公司的研究體系:我之前在微軟研發體系做過實習產品規劃師(Product Planner),後來加入IBM後也大致了解過IBM的全研發體系。像微軟、谷歌、IBM這樣的公司,都會建立大致三級的研發體系:

  • 第一級---基礎研究體系:一般被稱作研究院,主要承擔一些基礎研究工作。雖然是在企業內部,但研究人員並沒有太大的商業化/產品化的壓力,只要通過學術研究去追蹤甚至引領技術趨勢即可;
  • 第二級---工程開發體系:一般被稱作工程院或開發實驗室,這個部門往往承擔將基礎研究向技術/產品原型轉化的職能(有時候也會反向,即根據市場的需求進行初期的產品研發)。和基礎研究體系不同的時,它更加關注一項技術的可實現性(這也是「工程」和「研究」的不同),並且需要考慮技術實現後對於公司產品體系的作用。在某種意義上,我們可以將其看做是企業商用產品的「孵化中心」。
  • 第三級---業務部門內部的產品體系:這一階段主要就是成熟產品的商業化運營了,也會有一些技術上的開發與升級。因為承擔收入/利潤壓力,所以一般不太會花太多精力做前瞻性的技術工作。

扯這個也是希望大家能夠從類似的三個階段去理解一項新技術---究竟是處於基礎研究階段,還是工程開發階段,還是成熟產品階段?從而避免對技術新聞做出偏誤的解讀。


就像亞當·斯密所揭示的那樣:具有利己本性的個人和組織其實是可以對公共的利益做出貢獻的。從這一點出發,我還是很佩服像微軟、谷歌、IBM這樣的公司的。


「腦科學和神經系統的研究已經有很長的歷史。長期以來,人們一直夢想著通過對神經系統的研究,發明一種仿效人腦信息處理模式的智能式計算機。自從四十年代馮·諾曼發明基於串列符號處理的數字電子計算機以來,雖然獲得了巨大的成功,但在諸如模式識別、人工智慧等方面都碰到極大的困難,促使人們以更大的興趣去研究並行處理模式為特徵的神經計算學。八十年代初,在美國、日本和歐洲,都掀起一股神經網路理論和神經計算機的研究熱潮。各個先進國家都相繼給出巨大的投資,制定出強化研究計劃、開展對腦功能和新型智能計算機的研究。並著重將神經網路原理應用於圖象處理、模式識別、語音綜合及智能機器人控制等領域。目前,有關神經網路的研究機構,遍及美國各大學、公司及國防、宇航的研究部門。1987年6月在美國召開第一屆神經網路國際會議、並發起成立國際神經網路學會(INNS)。之後,以IBM 公司、Bell 研究所和日本的富士通、NEC 等大公司,紛紛研製各種神經晶元、相繼推出各種軟體、硬體產品。為神經計算機的實現,邁出了第一步。神經網路的主要特徵是:大規模的並行處理和分散式的信息存貯,良好的自適應性、自組織性。並且具有很強的學習功能、聯想功能和容錯功能。通過神經網路的研究,將對探索更加完善的智能計算機系統和相應的人工智慧技術,開闢新的途徑。目前,國外神經網路的研究熱潮仍方興未艾。為了向讀者系統地介紹有關神經網路和神經計算機的基本理論、學習演算法和應用技術。特開闢這個專題講座。本講座共分八講。第一講:神經網路模型。第二講:神經網路的學習演算法。第三講:神經器件。第四講:神經計算機。第五講:光神經計算機。第六講:神經網路在視覺信息處理中的應用。第七講:神經網路在模式識別中的應用。第八講:神經網路在機器人控制中的應用。」[1]
[1]庄鎮泉,王熙法,王東生. 神經網路與神經計算機[J]. 電子技術應用,1990,04:41-45+22.


那麼現在問題來了:
1、怎麼評價過去的工作,是非常成功、還是非常失敗?或者雖然不成功,但是還是有重大的意義?為什麼?
2、IBM這個工作與過去的工作有什麼區別。為什麼?


這個晶元,以後可以用於神經網路加速。

就像顯卡一樣,專用加速晶元組。

而且市場非常非常大,因為人工智慧是趨勢,說不定以後像智能手機一樣普及了呢

非常可能會催生出相關廠商競爭,像amd和英偉達。以後商業用途廣泛,大佬們快投資吧
============================
當神經網路可以和人類交互的時候,人手一個,每天都和他說話,就像溜寵物一樣,它同時也是助手,最智能的助手,奇點就在不遠處,快來了
=======================
修正,最後偷偷告訴你們,智能大爆炸不會來了,神經網路就是最智能的東西,和人腦同級,不會有想像中的超級智能了


這個問題,大家應該都回答的非常清楚了。
我只想補充幾句。
IBM創造的產品不是一種傳統工業化的產品,也不是既得利益的產品,這個是IBM產品的一個特性。很多時候,企業需要生存下去,需要關注商業利益。追溯IBM的發展,尤其是郭士納的改革之前,IBM的學院研究型氣息是非常濃厚的。這與它商業機器的性質格格不入。

自從引進了華爾街的金融投資之後,IBM更加註重對外財務報表的質量。到了年底,以一個不專業的財務人員去看,IBM報表裡面的成本和利潤,都有許多的水分參雜其中。這僅僅是為了好看,為了重新讓那些投資者相信IBM這個百年公司的盈利能力。說到報表,我看了最近一年IBM的一份年度報表,好像是2014年的吧。報表裡面出現的盈利居然只有19億美元,其中,還要剝離用於金融投資收益的1億美元——這算IBM不務正業的收入。但是,之前IBM投資子公司的成立也算是對IBM進入金融界正名了吧。這樣一個大公司,相對與去年的利潤,下降了90%!這在別的企業來看估計是毀滅性的災難了吧。究其原因,IBM在年底,又收購了一家IT公司。IBM soft layer(日本公司)。是的,我在這裡說了一個「又」字,這個又字包含了太多的感情!經過BPS不斷的調整,公司在2015年開年之前,就做好了ITsupport team內部的合併重組,很多小的team被合併成一個大團隊,管理了全球相似業務的絕大部分。這也是IBM為了瘦身,將相似業務合併的第一步。確實,在我看來,IBM的確需要合併了。從人員來看,IBM在全球現在有40W(到2014年底)員工(employees),這些當然包括一部分的外包(venders,但是在IBM內部沒有這個稱呼,正式員工叫regular,非正式員工統稱CSP)和供應商(Suppliers)。相比微軟不到10w的員工(2014),我還是無法想像:一個擁有這麼龐大員工集群的公司,是怎麼樣一步步開始自己的轉型升級的。

大象起舞,說實話真的很艱難。沒有在IBM呆過,估計也沒有人能體會到在流程和變革之間,那些一線經理人承擔了多大的壓力。在IBM所有的業務部門都有自己的流程,許可權,操作,啟動,請假,出差了,無所不包,但是公司層面又在不斷的做出調整和變更。就比如在我任職的時候,一個簡單的運維工具就經歷了三,四次的變化。(也正巧趕上從C/S到B/S的一個技術升級浪潮)

因為是在技術支持部門,屬於GTS,GBS和GPS(現在的GPS部門已經拆分,這種叫法在內部比較 廣泛,可能是沿襲舊制吧。而且這樣的一個劃分,各自功能區別明顯,易懂。)接觸不是很多,但是我能直觀的感受到這個公司的一點點轉變,這些轉變也是郭士納在整理改革了IBM之後的墮落時期(我個人的稱呼,大家請勿效仿)。因為IBM也開始慢慢的推銷自己的產品了,它不再關注客戶真正需要的IT服務,而是說IBM的產品能夠幫到他們。這一點我們能從IBM新的公司形象廣告和跟多的產品廣告上找到答案。是IBM的產品變了嗎?還是其他科技公司追趕上來了?不然,我認為IBM在技術還處於優勢地位。導致其變low的,其實是IBM再也沒有那個基因了。一邊除舊,去除官僚體制,去除臃腫的管理機構,去除多餘的審批和許可權,同時,也讓積澱很久的文化基因被剔除出去;一邊變革,從業務,模式,管理,改變了很多東西,為的是讓IBM存活下來並一點點回復。我不知道這是好事還是壞事。至少,你可以去看看現在炒的很多的IBM裁員,IBM賣部門,IBM業務不行等等唱衰的論調。我不知道是不是某些企業的有意為之,還是事實就是如此。不置可否。但至少有些傳聞被坐實了。之前,我就有跟12年之前進IBM的同事有聊過,他們給我的同一感受就是IBM越來越坑了,所有的培訓和報銷,外企式的員工服務,晉陞和員工關愛等等的東西全部不翼而飛。所有人都在苦惱,基層的員工都有一種焦躁的情緒。顯然,他們對這樣的剝奪非常不適應。

市場是在競爭的,IBM終於放下了身段,趟到了這一場渾水裡面。它的產品不斷被同質,它的市場不停的被掠奪,它的技術已經達不到完美。

而現在IBM能做的,就是在自己以前擅長的高精尖領域佔據鰲頭,以此來博得大家的眼球。試問,就像現在的這樣一款晶元產品,能有幾個公司能用的起?它的市場和盈利能有多大?說白了,這只是一場技術的盛筵,是自己對自己付出的肯定,是業內人士聊天的談資,是最in技術的代表。但它一時半會也成不了市場。就像IBM在很久之前就推出了電子商務一樣,而且它也提出了10年的電子商務計劃。到後來,所有的對手都在電子商務上獲得回報,而IBM卻這樣默默的離開,心疼的看著阿里巴巴,淘寶的崛起。換句話說,IBM它有市場的洞察力,但是他不知道怎麼去培養市場,並在市場需要他的時候守住市場。這一些關鍵點,它,沒能做好。這樣看來,IBM是一個很好的預言家,卻總預知不了自己會落得什麼樣的境地里。

這讓我想起了中國社會的一種現象,早在70年代,80年代,大學在很多人眼裡,就是心目中的象牙塔,它照亮了社會的方向,給了年輕人奮鬥的目標,而那個時候的目標都是這麼具有文人情懷。在那個時候的大學裡培養出了現當代各個領域裡面的泰斗和國寶,很多的我們無法企及的大家都會不約而同的懷念起那個時候純粹的時光。正如大學的精神內涵所定義的一樣,大學就是要去做脫離社會的一種學術,它不參雜任何的功利色彩,所有的研究的問題,探討的領域,似乎脫離了實際社會,但是它所研究的東西,就是未來社會將要發展的方向。這樣看來,哲學,是到現在為止,在大學裡面還唯一具有大學本來意義的學科了。

我嚮往和崇拜具有如此精神的大學,它研究是的學術本身,而不是學術的作用,它帶來的是社會和人類的發展,而不是經濟的進步。但與此同時,大學學術的發展制約著一個社會國家將來的經濟發展和進步。大學教育是所有領域的基石和起點。

而我也是在接觸到IBM之後,我忽然產生的這樣一種相類似的比較。IBM過去的研究,就像是一個對於先進技術追求的發展。它超越現在社會,很多的研究成果看似根本沒有了實際效果。但是到現在,IBM的專利數一直保持著全球第一的位置。是什麼讓它這樣痴迷瘋狂,這並不是對利益的追求,因為在IBM的基因裡面,追求卓越,並推動人類社會的發展就是根植於它本質裡面的一種情懷。

這樣看來,

IBM 發布新型 SyNAPSE 神經晶元

的社會意義,遠比其具有的技術意義要重要的多。而IBM這個新的產品就像是老大學裡面的一篇專業素質非常高的論文或者科研教室里一台高精尖的科學實驗裝備。

現在社會,尤其在中國,越來越功利的思想和頭腦,使我們形成了單一的思維。很多的大學,研究機構,學術研究,已經墮落到讓人無法直視的地步。如果,在這樣沒有未來的社會環境裡面,還能有一盞,兩盞思想澄澈的明燈,能穿透霧霾,照亮我們前進的路,我們應該學會保護,學會珍惜。同樣的,當我們在行業裡面還能看到像IBM這樣擁有如此高逼格情懷的公司時,請大家能給它更多的同情和關注。因為這個社會正是因為有了這樣一群與社會格格不入的人和事,我們才會得到進步和發展。


其實前段時間我在想,一直以來機器學習都是用的GPU,但是卻是模仿人腦的思維方式,可能會出現一種跟人腦結構類似的硬體,這樣用來機器學習或者計算機視覺效率會不會大幅度增強。
然後這個新聞出來了...我看了看歷史,項目是08年創立的...也就是說我的思維落後了6年...讓我一個人靜一靜...
仔細想想6年前我才15歲,好吧那時候我也想不出來這玩意兒...


@門徒 朋友,我跟你講,這麼幾十個回答的人裡邊,也就你靠一點譜是和那個 @穆盼盼 以及得分最多的搬資料最詳細的那個人靠半點譜的。
你靠半點譜啊,是因為你身邊有接觸到IBM這個晶元的圈子,在一線。
穆盼盼靠半點譜,是因為他說出來了這個東西的一個實用的低智力應用這點。
至於題主是因為搬資料勞苦功高。
其他人吧,在我回答的這個時間點來看,除去你和穆盼盼倆,都是外行在看熱鬧,用自己的理解去說人工神經網路和理解現在這個東西。
當然了,我感覺門徒你不知道是不是專搞IC但沒有過深度學習相關的項目的呢(我個人感覺不一定對)。因為你雖然說中了一些點,比如說你說了,這個晶元在目前(我是說目前,不是說以後一直都是這樣)上邊跑的spiking neuron模型,需要依靠外部的深度神經網路的一個框架的實例(比如Caffe)來對一個特定的數據集完成訓練後通過將參數提取出來之後,再通過特定的方式上傳到這個晶元中,再由這個晶元來執行具體的「輸入原始數據」----"神經元分類"-----&>"輸出分類結果"這樣的模式識別的功能,沒錯他是功耗低的,因為不用在內存中模擬這些個神經元的拓撲結構和進行權值計算了,從硬體上來模擬,效率當然高了。
只不過雖然可以加速啊,但實際上依我說,IBM是吹大了。
這是低智力應用能用的,只能做模式識別,不能做我們有眼耳口鼻手的人類能幹的真正的模式創造,所以,對不起了,各位,你們都在開腦洞,但你們要想開腦洞的話,我改天給你們抽空講個貼子好好講講什麼叫真正的智能,段子一大堆的。要實幹活的話,這類型的晶元的加速思路是可以有的。
不過我是的這幾年我是想自己搞個團隊來流一個片出來的,所以需要一些PhD幫忙的,我並不打算用IBM的東西條件還苛刻,他們以為他們算老幾呀?
我現在手上有很好的變現能力的項目,國內的幾家所謂的比較前沿的搞深度學習落地的公司他們做的產品我看到都沒放在眼裡的,在我看來他們都只是靠炒作自己來獲得資本支持,我跟你講,真正的好的能變現的項目是不需要這樣做的,所以啊。。。。自己腦補吧。

另外,門徒朋友,你還算有點自知之明的,只自稱為」偽科學家「,而不是自稱為」科學家「,不像Caffe的作者,自稱為Scientist,正所謂,人貴有自知之明啊。
啥叫科學家,我希望那些年紀輕輕就自稱為科學家的,自己好好讀讀歷史。
要是隨便一個碼農/EDA農都能自稱為科學家呀,那還得了啊。
Linux的作者能自稱為科學家不?那是可以的,因為人家關於某個點真的可以發Paper的,對計算機的發展是做出巨大貢獻的,要經過得時代的考驗的,那點小小貢獻都敢自稱科學家的,可能真的是以為自己去谷歌上了個班,拿了幾十萬美刀,就了不起飄飄然了,哎。。。。。這種優越感會害了他們這些年輕人的。


個人觀點。
其實深度學習或者說神經網路成敗的關鍵在調參,層數,每層的節點數,等等,做成硬體等於沒法調參了。所以靈活性很差。
不過1600萬神經元,意味著至少幾十億條邊,已經幾乎達到百度的深度學習集群(200億條邊)水準,解決特定的問題還是很厲害的。


神經晶元技術現狀如何?晶元能多大程度上逆向人類神經元?
IBM SyNAPSE晶元能顛覆傳統計算機領域嗎?需要多久?

看了一下樓上沒有乾貨(現在有了),我也沒有乾貨,找了點過來。


Yeah, as mentioned before, this is more like a prototype.
Several months before, a senior researcher from IBM, Prof. Chung H. Lam, delivered a speech entitiled "The future of semiconductor industry

" and talked something about this nerual computing chip. Maybe it is their preparation for the end of Moore"s law. :)


自己從事晶元設計多年,也對神經網路有些淺薄的了解,從電路結構角度我覺得神經網路的設計應該更單元化,相對現在的CPU應該更簡單。但是問題來了,現在的CPU不只是一個硬體產品,而是需要軟體去配套的,那現有的驅動程序估計需要從0再開始研發。應用和優化都需要幾十年的時間去進行,最重要的其實還是神經網路的學習問題,這個是現今神經網路最難突破的一關,這個不解決,生產出一堆dead brain意義也遠不足夠代替現今的CPU結構主宰人類運算的領域。。。。。

很多大公司黑科技研發太多,最後因為離市場成熟太遠(過早的進入市場),而步子大了扯到檔的案例已經見得太多了。在我們有生之年估計能摸到神經元晶元大量應用的頭幾年就不錯了。這個只能算是為子孫後代造福的事了,而且這麼年,誰知道什麼時候再來個黑科技把它取代。當新聞看看就好了。不比太認真。


看到Synapse瞬間想起了電影Antitrust……回到正題,這個技術更像是原型機,可能會被用於諸如索尼的機器狗之類,但其串列計算能力(也就是運行現有軟體的能力)肯定不如普通的晶元。不過想必IBM本來也沒打算用它搶佔現有市場,應該只是拿來展示自己的技術力量。或許IBM也正在摸索這類非馮結構計算機,用來搶佔下一世代的AI市場。
這個晶元的神經元的數量略少,觸突連接也略少,不足以支撐很高端的智能,但無疑可以加速現有ANN程序的運算速度。或許各種ANN程序會針對這類晶元做優化,就像過去10年來各種程序對多核CPU做優化一樣。
從長遠看,這款晶元在真正用於高端AI之前估計就會被它的下個版本所替代了。


大學時了解過一些神經網路,當時也有想過用硬體電路直接模擬神經元和突觸,做成大規模晶元,由於是並行結構,在某些領域如語音識別、圖像識別、機器學習或許將會有極大應用(嗯,我也只是想想罷了)。原來IBM早就在研究這個了,如今晶元實物已出來了,那至於說會不會顛覆如今的計算機體系,這個我認為是不會的,應是一個強大的補充而已。人腦對於普通計算是很慢的,比如咱們計算兩個9位數相乘,是不可想像的。對於現有計算機來說,1個納秒都不要。我覺得純粹的仿人腦的神經網路晶元也會有這樣的不足。所以,如果神經網路晶元真的成功了,也不會顛覆現有計算機,但是以後的計算機架構中很可能會有一個單獨的神經網路晶元。在平時的事物處理時,只使用傳統CPU,在涉及語音識別、圖像識別、機器學習、人工智慧的時候,直接由神經網路晶元來處理。那時候的電腦不知會不會成為skynet。


謝邀, 懂一點點演算法,可編程元器件和生物,在計算機體系上不專業。

看起來這個架構目前最大的優勢在針對特定用途的軟硬體整體優化上。根據具體演算法/應用的需要針對性地調取計算和存儲資源來達成超低功耗。利用並行結構和動態路由突破數據匯流排的瓶頸,同時具備一定容錯性。比單純的可編程器件靈活且可以和演算法,應用緊密對應。似乎在和各種感測器/感測器網路以及控制系統的結合上也大有可為。當然,針對各種用途的優化非一日可成,生態系統能否順利建立更是要看運氣。至於未來用途,反正就是更小體積更低功耗,就隨意暢想啦


笑,看了一眼獲得贊同最多的答案,還真是逗。
講的大部分都是人工智慧的東西,和 SyNAPSE並沒有什麼關係……
關於IBM 開發的這個新型晶元,我可以負責任地說,它 沒有任何使用價值。並且至少20年內不會有。
論計算能力,它根本比不上當前的晶元。因為關於人類和動物的大腦計算機理目前理論研究都尚且不清楚,談何應用到工業界。而所謂的低能耗……我相信沒誰願意節約一度電而把計算速度減慢100倍。
IBM的這個「創新」說到底就是商圈的抖機靈。然而,媒體界和知乎一樣——

是個抖機靈就能獲得高贊的地方。


歪個樓,請大家關注 清華大學類腦計算研究中心。施老師,我在給您打廣告哦!


不是很專業,但說兩句:
對移動設備的影響:手機會被佩戴產品取代,這是必然的,只是時間問題,比如google研發的智能眼鏡產品,可以試想一下手機的發展趨勢,現在是觸屏智能手機,在過幾年,家庭智能手機將會以路由器為終端,手機智能控制各種家電產品,如窗帘、冰箱等等,也有可能手機的投影功能的出現,從而取代電視機的功能。想知道未來想這種晶元的發展,從美國的科幻電影中似乎就能看到許多的影子。


思維革命帶來技術革命,技術革命帶來商業革命


推薦閱讀:

IBM 的 POWER 處理器的架構比 X86 強嗎?

TAG:人工智慧 | 計算機 | IBM | 晶元(集成電路) | 神經網路 |