為何總感覺人工智慧和神經科學(神經網路)被綁在一起?

有些混亂,麻煩各位大神給解析這個,具體的聯繫是什麼?拜謝


簡而言之,這兩者捆在一起的時候構成了一門極為宏大而重要交叉學科,叫做認知科學,研究的對象是思想和認知的形成和工作機理。

但是我想扯點遠的。

其他的答案里提到說神經網路和神經科學沒關係,這是不準確的,且不說神經網路和神經科學千絲萬縷的淵源,就是現如今的認知神經科學研究里也還是有不少用神經網路的。君不見Neural Computation至今仍還是神經網路,計算神經科學,人工智慧等若干領域的重要期刊之一。

雖然現在不是主流了,但是大約在80年代時候,以UCSD的David Rumelhart和Jay McClelland為代表的PDP (parallel distributed processing)學派可謂獨領風騷。這夥人以認知神經科學為研究出發點,以人工神經網路為工具方法,在Vapnik攜SVM殺到美帝,統計學派佔領機器學習前沿陣地前的相當長的一段時間內,引領著神經科學(主要是cognitive science方向)和人工智慧(主要是machine learning方向)領域的發展。

80年代前期UCSD的PDP門下,除了McClelland和Rumelhart之外還有兩個人不得不提,因為這兩個名字在如今的機器學習領域之響亮,有如泰山北斗,少林武當。他們一個叫Geoff Hinton,是visiting professor,另一個當時是Rumelhart的Ph.D. 學生,叫Mike Jordan... 後來的二三十年里,正是這幾個人和他們的門生們重塑了認知科學和機器學習的整個領域。

80年代後期Hinton和McClelland去了CMU (於是CMU的CS和psychology department成了貌似現在為數不多的還在發揚PDP的地方之一), Rumelhart後來去了Stanford,他的老朋友McClelland在CMU成立了第一個交叉學科的認知神經科學中心,後來也去了Stanford並領導了類似的交叉學科中心。Hinton一直專註於神經網路特別是Boltzmann machines,在CMU呆了幾年後去了U Toronto,後來輾轉去了UCL,創立了著名的Gatsby Computational Neuroscience Unit,至今那裡仍是計算神經科學和機器學習的重地。之後的故事就廣為人知了,Hinton又回到了Toronto,2006年之後隨著深度學習而再一次名動天下。Jordan在博士畢業後據傳投奔Hinton未果,後來去了U Mass,兩年後在MIT找到教職,後來又轉去了Berkeley. Jordan最重要的成就並不在神經網路而在統計學習,他在九十年代那一波統計學習的風潮中可謂是領袖群倫,如今他的弟子們活躍在machine learning的各個主戰場。

PDP的領導者們如今早已是桃李滿天下的學界泰斗,而Rumelhart已於2011年病逝。在深度學習和深度神經網路火遍天下的今天,回頭看這一段歷史,不由得讓人唏噓感慨啊。在2001年,為紀念Rumelhart的成就和貢獻,他的學生Robert Glushko捐資設立了Rumelhart Prize,這是認知科學領域的最高獎項,至今已有15位獲獎者。Hinton於2001年獲獎,McClelland 2010年獲獎,而2015年該獎將授予Mike Jordan.


人工智慧,如果摳掉抽象智能考慮機器學習

機器學習的幾個頂級會議裡面,就得算上NIPS,NIPS的全稱裡面就包含計算神經科學

再看機器學習的大佬,Hinton以前在劍橋讀心理學的

後來博士去搞認知了,最後才變成的Deep Learning大佬。。

很多老牌的大師也都是搞認知出身的。。

要說聯繫也基本就是這樣,基本就在哲學層面

從實際搬的磚來說

認知的人致力於在猴子腦袋上貼電極什麼的,然後看看能不能真的模擬出那樣

人智的人一般致力於刷數據集。。。。


What I cannot create, I do not understand.

——Richard Philip Feynman


機器學習里的神經網路是人工神經網路,用來包裹隱式邏輯的玩意,跟神經科學關係不太大…最多說是仿生式的模型構建…

難道說蟻群演算法和昆蟲學有關係?遺傳演算法和基因有關係?模擬退火跟冶金有關係?一個道理


同意王芊同學的前部分--「神經網路是機器學習的一小部分,機器學習是人工智慧的一部分。」

但是人工智慧和神經系統有著千絲萬縷的聯繫。

人工智慧的早期願望是模擬神經系統,但是發展到後來,因為神經系統實在太複雜,發現實在是模擬不了,逐漸發展成了兩派。

一派是以McCulloch and Pitts(1943)為先驅的人工神經網路派,他們忽略生物神經系統的種種細節,高度抽象神經系統(因為當時對生物神經系統的理解有限,具體不了),從數學優化的角度出發,設計各種沒有生物依據的學習演算法(如梯度下降),使人工神經網路具有universal approximation能力。因此,人工神經網路從本質上說,是一種高級統計回歸,屬於數據統計科學。代表人物有Widrow, Hinton和Hopfield。

另一派是以Hodgkin and Huxley(1952)為先驅的生物神經建模派,他們研究生物神經系統的種種細節,使用數學模型描述其動態,從生物實驗和動態系統的角度出發,對神經的長期/短期可塑性進行建模,提出了spiking-timing-dependent plasticity等有生物基礎的學習演算法,使其模型具有類似生物神經系統的功能,例如神經震蕩,時空模式存儲(如工作記憶)。目前這一領域已有不同的名字,叫做計算神經學(或理論神經學)。代表人物有Wolfgang Maass, Wulfram

Gernster和Eugene Izhikevich。

兩派各有優缺點。人工神經網路派靠近實際應用,例如google和百度都投資hinton的deep learning,卻遠離生物神經系統;生物神經建模派靠近生物神經系統的基本原理,卻遠離實際應用,公司投資很少見。

當然也有一些神經網路,例如spiking neural network,融合了這兩派的優點,目測在未來(10-20年)會有長遠的發展。


人工智慧發展到今天,主要分為符號主義,連接主義,行為主義三個流派,在過去的幾十年里,依靠謂詞邏輯表示法的符號主義佔據了絕對的主流,但是到了上世紀90年代,符號主義具有的先天缺陷開始暴露出來。符號主義相對於其他方式,更符合人類的思維方式,在邏輯推理方向具有明顯優勢。但是符號主義的學習能力很弱,添加新的知識需要人類自主添加。

符號主義依據了結果為先的思想,放棄考慮人類智能的真實作用機理,而只追求功能上的統一,依靠人類在數學和邏輯學的積累,從實用主義考慮,遠遠走在了神經網路前面。

神經網路則與之相反,在弄清楚人腦結構和作用機理之前,最保險的方法便是仿造一個人腦結構,事實顯而易見,雖然我們不清楚人腦是怎麼工作的,但是這樣的結構確實可以產生「智能」,那麼只要模擬它,就有可能獲得相同或相似的功能。但是,到今天,即使從最簡單的網路規模考慮,人工神經網路也不能和人腦相比。

和符號主義採用數學方法不同,以神經網路為代表的連接主義採用了仿生學原理,利用硬體或者軟體模擬出神經網路的連接機制,相對比符號主義,這種方式更加符合生物學事實。

不過,今天的神經網路也並非完全依照神經學原理,比如BP網路,在人腦中並不存在絕對精確的輸入層,隱含層,輸出層,而層與層之間的連接,層內的連接也不是BP網路可以描述的。相對比,Hopfield網路雖然採用了Hebb學習規則,但是對於腦內不斷強化的神經迴路就無法描述,反而是自組織網路有一點這個意思。

總之,神經網路是目前人工智慧領域最熱的研究流派,而神經科學可以看做神經網路在網路建模方面的基礎學科,沒有神經科學的支撐,神經網路也只能實現聚類,分類,照貓畫虎的學習等基礎功能,距離實現真正的智能,還有很長的路要走。


作者:許鐵-巡洋艦科技

鏈接:https://zhuanlan.zhihu.com/p/21539285

來源:知乎

著作權歸作者所有。商業轉載請聯繫作者獲得授權,非商業轉載請註明出處。

人工智慧和機器學習相關的技術代表人類的未來, 未來從家政服務到金融交易都將以這種技術為基礎。但是它到底是否和我們真實生物的大腦有關呢? 我們是否應該以人類自己的腦袋為師,還是可以直接通過我們巧妙的設計來超越自然本身? 亦或者這就是上帝的計劃的一部分? 讓人類產生甚至超越自己的東西?

回答這些問題都為時過早。但是目前已知的是,所有的人工智慧演算法都利用了和我們神經系統學習和處理信息類似的原則,比如多層網路處理信息。 在視覺處理領域,2012 年一個叫深度卷積網路的技術脫穎而出, 瞬間拿下了所有視覺信息識別的計算機大賽。 深度卷積網路(Deep Convolutional Neural network )是深度網路的一種(見下圖), 完全符合前文提到的神經網路的基本原理第一條。

圖:用於視覺處理的深度神經網路。從局部到全局,由圖像最後判斷圖像背後的人物是誰。

因此我認為人工智慧和計算神經科學具有某種內在的同質性, 唯一的區別可能是人工智慧可以不必拘泥生物的限制,或者也是為什麼他最終或許會比生物網路表現更好。

* 有一種觀點認為好的人工智慧演算法無需一定是仿生的,我們可以完全從一般性原理出發設計。 比如說常見的數學優化問題, 用隨機優化進行學習的機器人已經能夠較好的模擬很多人的動作。 事實上我認為一定程度上依然和生物問題殊途同歸,甚至能夠幫我們更好的理解生物。


不邀自答。

本科是學計算機的,想研究點高大上的智能就來學認知神經科學了~那時候覺得智能只能從人腦入手,計算機科學的人工智慧都是歪門邪道。

現在兩方面都有了更深的理解,才發現真的是殊途同歸,計算機智能方法為了追求更高的效率,常常會不知不覺符合了生物腦的機制。比如做深度學習的人必定會炫耀下多層神經網路和卷積的做法和人腦視覺加工中大腦皮層的V1到V4的過程是一樣的(雖然差的還是很遠啦)

人腦是經過上億年自然選擇後的高級貨,奧秘無窮,許多任務中的效率奇高,計算機界的學者們嚮往著模擬人腦的計算機,也確實收到了成效。神經網路也只算是初步的嘗試,更遠的探索需要靠計算機界和認知神經科學兩個領域的結合啦~

PS. 除了追求計算效率的人工智慧,還有一種追求模擬人腦認知結果的計算神經科學,我認為這個也很有前途yo!

----2016.10.12更新一句話---

神經科學的希望藉助機器學習分析自己日益複雜的數據,AI圈的希望神經科學能為自己提供理論基礎和hint


人工神經網路(Artificial Neural Networks,簡寫為ANNs)或稱作連接模型(Connection Model),它是一種模仿動物神經網路行為特徵,進行分散式並行信息處理的演算法數學模型。這種網路通過調整內部大量節點之間相互連接的關係,從而達到處理信息的目的。


我說三點(目錄):

一、為什麼是網路——網路的高大上

現在什麼高大上的東西都和網路相關,網路究竟有什麼特別的地方?

二、人工智慧為什麼需要網路——智能(intellectual)的本質

神經網路可以看做是一種通過網路手段的模擬。智能是什麼?人工智慧究竟有什麼特別的需求,必須藉助網路實現?

三、背後的科學問題——更大的背景(未填坑)

簡單說點複雜性學科(這是一門新興學科,就叫複雜complexity),以及科學哲學的問題

……以及對評論的回復(截止10月30日)。

為了方便不想看細節傢伙們,以下是回答該問題的核心內容:

========第一次回答,哲學和基本原理(參加正文1和2節)===========

人工智慧要想高級,功能更多、更聰明,必須要足夠「複雜"(不是規模),才能容納這些功能(產生足夠的「響應」)。

神經網路的自學習(自組織)是用最低的成本(時間、人力)實現這種功能的最簡單的方法。

自我學習(自組織)才能脫離人類,超越人類(開發工程師)的極限(不學習的學生不能超過老師)。

========第二次補充,更具體的描述(參見對評論的回復3.3.1)=======

基於神經網路的神經計算原理,能夠學習和聯想,最適合處理多輸入多輸出的任務。傳統計算機最擅長少輸入少輸出的任務。

人們覺得「智能」、「不智能」的評價是和人腦對比的結論,神經計算和人腦處理方式接近,被認為是智能,程序計算被認為是不智能,即使後者處理能力再快也被認為是理所當然。

對基礎科學沒有興趣只對該應用性問題感興趣的跳過正文直接看3.3.1

===========推薦閱讀============

對複雜系統感興趣?推薦閱讀:

科普性讀物:

第一推動系列叢書,綜合系列,《複雜》,[美]梅拉尼·米歇爾,湖南科學技術出版社,2011.6

進階讀物:

《複雜系統與複雜網路》,何大韌 劉宗華 汪秉宏 編著,高等教育出版社,2009.1

《神經計算原理》,Fredric M.Ham Ivica Kostanic著,葉世偉 王海娟 譯,機械工業出版社,2007

============正文開始的分割線==============

一、為什麼是網路——網路的高大上

1.1 網路的可能

假設我吃一個餅。只有一種吃法:吃!

如果把這個餅切成4塊,於是我就有4+3+2種吃法。

只是這樣么?呵呵。我們把四塊餅命名為ABCD,上面其中一種吃法「A→B→C→D」(注意,我使用了箭頭,表述方法從擺列組合開始向有向圖轉變),我可以文藝的吃為「A→B+C→D」,於是有了跟多的吃法。

等等,這裡隱含條件是「吃」,也就是一塊餅只能經歷一次。如果我不是「吃」,而是「舔」,我們又有更多的花樣可以玩了!再等等,吃可以兩塊三塊一起吃,舔每次之能舔一個,我把這個限制也解除,改為「摸」!或者不那麼噁心,「塗醬」,最多可以同時塗兩個餅。或者不是我自己的手來塗,同時塗一個兩個、三個四個都沒問題。當我們除去所有限制後,四個節點ABCD的網路就豐富起來:

左圖是一個簡單的塗法。中間這個描述起來比較複雜。先塗A;再塗BC;C不放開塗D,同時增加一個機械臂塗C;C繼續不放開塗A,C再增加一個機械臂;然後可以繼續也可以不繼續,因為我沒有定義A到C的次數是一次還是兩次。注意右邊的圖,可以是描述很複雜的塗法,也可以是很簡單——全部一起塗。這說明網路的鏈接數不是越多越複雜。

網路是什麼?網路是一種描述方法。簡單的規則、複雜的規則、知道的規則、不知道的規則、能定義和不能定義的規則,都可以用網路描述。所以網路牛,因為網路包含了大量,甚至無限(如果沒有步數限制的話)的可能。

網路只是表現形式,知其然而不知其所以然。比如大數據,買了《火鍋製作大全》的人,15%的人也買了《痔瘡防治》(這是虛構的例子),因果關係可以猜。但買了《四川火鍋》的人為什麼要買《規模化安全養奶山羊綜合新技術》(這是真實的例子,來自亞馬遜),就比較匪夷所思了。難道每家火鍋都要配羊奶、而且還要自己養?網路中的結果都是客觀存在的,是事實。但是原因可能經過了很多層傳導,不深入研究不清楚。然而網路那麼多「相關關係」,不可能依次研究。於是網路(特別是大數據)留下了很多「知其然不知其所以然」。這不是我在嘲笑大數據的無能,恰恰相反,這是認知的規律。人類先發現了火藥、煉丹,然後才懂得了化學。其中的差別在於理解現象要比理解原因容易,理解原因要比理解規律容易。發展早期,知識儲備不夠,認知系統不夠複雜,人類社會發展水平(計算能力)不夠,理解不了。充分發展後,知識的積木已經搭好,自然水到渠成。

上圖截取自網路

神經網路演算法,是通過計算機來實現數學上的網路。 眾所周知數學超前於現實應用上百年,神經網路的限制是計算機性能的瓶頸而不是數學的瓶頸,因為網路(以及圖論等)可以把未來無數的可能,包括超級人工智慧,都包含了。

1.2 網路更屌的地方——分型維度

網路畫在紙上,它就是一個二維的網路對不對?

答案還真不一定。這涉及到數學上的分型,和分型維度。分型維度是一種描述細節程度的指標。立方體是3維的,每條邊同時對半分,能得到2^3=8個小正方體;正方形是二維的,每條邊對半分可以得到2^2=4個小正方形;線段是一維的,線段對半分可以得到2^1=2條線段。

然而:科赫曲線(Koch Curve)是1.25維的;生物是三維的但循環網路(血管)是卻表現為四維(West等,1999)(搜索「科赫曲線」、「科赫雪花」可直達一系列關於複雜系統、混沌理論的科普。下圖是網上搜來的圖)。現實中的網路(經過充分演化了的),都會呈現冪函數特徵,也就是常說的」二八定律「,這是網路用最經濟的方式實現最複雜的功能的結果,因為演化總會遇到很多硬限制、天花板。最常見的限制是節點個數有限,只能通過組織方式來提升效率。舉例來說,城市道路會有寬闊的主幹道和狹小的小巷,因為經濟需要人類聚集,但交通產生的衣食住行的困難阻礙了這種需求,於是道路是樹狀的,並且需求進一步推動了地鐵和高架的建設,增加了網路中的細節,變相增加了網路的維度,卻永遠不是真正的三維交通(汽車在飛)。

上圖來自於網路。

二、人工智慧為什麼需要網路——智能(intellectual)的本質

2.1人工智慧對複雜性的要求

老總叫來新來的程序員:「小李,我要寫一個做一個智能軟體。它的功能很簡單:讓我老婆安在手機上,定時把她的位置發送給我,看她出軌了沒有。」

小李應下後,心想:這個簡單。我要實現更智能的功能,直接提示老總有情況還是沒情況,不然怎麼顯得我水平高,以後升職加薪……做人生贏家呢。

於是小李開始構思。最基本的功能就是定位,這個簡單。

然後要識別長時間停留的地方是不是酒店。唔,這個要對接地圖API才行。

唔,萬一車震怎麼辦,對了,還要識別是不是在一個偏僻的地方停留太久。

唔,萬一有專職司機開著車震怎麼辦,對了,還要識別在車上的時間,行車路線,是不是在高速繞圈。萬一出差的路上?還要檢查沿途異常停留。

唔,萬一關機怎麼辦,對了,看我修改手機,關機不是真關機,是偽裝成關機。

唔,萬一去住宅怎麼辦……怎麼辦怎麼辦,對了,經常去的住宅一定不正常!等等,萬一那是幾個常跑的客戶呢,對了可以結合手機聯繫人識別。

唔,萬一在聯繫人上是偽裝過的能,看了還有擴大識別範圍,每個聯繫人要搜索資料,進行身份識別……

要死了!這根本是一個無法完成的項目啊!

於是小李只做了GPS發送功能。

過了一個月,老總說,小李!你這個什麼破程序,一點都不智能。她在哪裡我打電話問就知道了嘛!我要知道的不僅僅是她現在在哪裡,還有她去過了哪裡!

小李一想恍然大悟,增加了位置記錄功能。把經常停留的地方、停留時間列了個表。老總一看心知肚明。

這個故事(純屬虛構)給我們的啟示有3個:

(1)主動型的人工智慧是很複雜的。

主動型要考慮所有的可能,並且提前準備好應對方式。主動型是超前準備,由於必須提前考慮好所有的可能,因此準備工作和實現難度是最大的。同時,也只能又高級系統(人類)來準備低級系統(人工智慧),後者的水平不可能超過前者。

(2)被動型是最經濟的。

被動型就是讓系統自動學習,神經網路就是這樣的,必須經過一段時間的學習。因此是滯後的,必須經過學習的。優點是簡單,準備好模型讓它自己學就行了,缺點是滯後,無法應對突發情況、罕見情況。

(3)信息的價值和使用者相關。

同樣的位置信息,對於小李而言就是位置而已,因此他要使用這些信息,必須重新搜集資料。而對於老總而言,這些位置信息有不同尋常的意義。信息給小李無法發揮作用,小李必須把老總已知的信息再重複搜集一次,浪費。現在的人工智慧,所!有!的! 「人工智慧」,都是依附於某個系統。這個例子中,剛好補充被依附系統是最優的。位置信息補充老總的信息是最優的;補充小李的信息則存在斷節,無效;補充老婆的信息是冗餘的無效的,老婆做了什麼她自己最清楚。我們需要的人工系統,最重要的是補充我們生活中「瑣碎」的部分。它不需要有創造力,也不能太笨,

因此神經網路的方式就最合適了。因為是重複的、瑣碎的工作。

如果我們要開發一個科研型的人工智慧(可預見的將來還不可能實現),首先不能由人類事先編輯邏輯(包括機器人三大定律),因為會制約智能程度。其次創造方式必須經過學習,像培養小孩一樣,讓人工智慧一步一步自我完善,人工智慧不能是某種已有智能(人)的依附,否則無法超越。最後,有實現上述目標的物理條件。現在最後一個條件尚未實現。

2.2 智能的本質(本小結涉及大量專業辭彙,不感興趣可以跳過)

智能是複雜性的表現。一個系統能夠溝通交流,是其能夠和對外界的信息產生越豐富的響應,就越智能。最初的複雜系統產生於臨界現象(請自行搜索「化學震蕩」視頻做參考),於是產生了自組織行為,從無序中產生了有序,進而又有了耗散系統。一些系統存在「吸收負熵並壯大自己」的本能,這樣的系統保存了下來,並繼續吸收負熵並維持運行,逐漸向更複雜演化;其他的系統自然逐漸消亡。

這裡必須要提及「臨界現象」。回想一下化學震蕩的美妙視頻。有序是突然產生的。複雜學科有一個詞描述有序的產生——「湧現」。產生有序的過程後來被發現,叫做「臨界現象」。簡單說就是很有很多相互作用的子系統,因而是非線性的,當系統處於臨界態,本來的的小擾動被非線性放大,在臨界點附件就產生了有序。

複雜=更強的計算能力=更豐富的響應。通俗來說,適應性更強。對複雜學科而言,一切適應性行為、一切對外界的改變、都叫做一種「響應」,都是這個系統的「計算」行為。比如食物鏈的調整是生態圈的計算、社會分工的深化和經濟增長都是經濟系統的計算、吃多了變胖是身體的計算。人能夠主動減肥以保持健康是人的計算高於豬的地方,因為人能產生減肥這種響應,而豬不會。可以把一個系統的計算的能力和「智能」、「聰明」掛鉤,因為複雜等價於更多的響應和計算,等價於「看起來聰明」。

演化的結果是越來越複雜,智能程度也越來越高。Wissner-Gross(2013)就將「智能」定義為一種以「使自己保持最自由狀態」的「熵力」,感興趣的可以參考TED視頻《有關智能的新公式》。請不要在意那個公式,還有爭論(雖然我喜歡他的簡潔),看這個視頻時牢記我們的理論基礎是複雜系統,複雜系統,複雜系統。

複雜系統是逐漸演化形成的,複雜系統在演化中形成了很多層次,每一個新的層次都是上一層的複雜系統,作為新系統的子系統形成的。新層次的形成通過臨界現象形成。

最初的系統是細胞,單細胞生物有基礎的功能。更複雜的系統(生物)是多細胞生物,由細胞分工協作構成。再複雜的系統(群落)是多細胞生物分工協作而成的。最複雜的系統(經濟)是由群落(或者公司、或者工廠、或者社區)分工協作而成的。

競爭是複雜系統演化的動力。勝者享有最大的自由,整個系統(包括所有的失敗者)是圍繞勝者運作的。因為勝者在網路中佔據更好的位置,享有控制利益和信息利益。請牢記,勝者不是全部系統,只是其中最重要的部分。人類社會系統其實並不僅僅是人類,你能不吃不喝么,所以人類社會系統其實包括了整個生態圈,包括各種人類的食物(動物和植物),為食物提供環境的生物、細菌、一直到土壤和陽光。土壤是植物腐爛形成的有序,陽光是地球撿到的便宜。

生命開始於自組織,並且不斷追求更複雜。

更複雜的途中,自身的能力合成無法滿足需要,我們演化為動物,通過進食直接獲取能量(負熵)。

複雜化的途中,我們在競爭中成為了更強大的生命體,從而獲勝:多細胞生物、器官分化、循環系統更是將每個細胞融為一個集體。這個層次結束,失敗者或者消亡,或者成為食物,或者被同化。

複雜化的途中,我們通過競爭獲得了更強的發育和行動力:內骨骼、有氧呼吸、

複雜化的途中,我們擺脫了環境的限制,陸生、恆溫、胎生。再這個層次,站在食物鏈頂端的我們,失敗者都成了食物,或者食物的食物,或者以下 T_T。

複雜化的途中,我們成為了更強大的超生命系統:交流能力、部落和合作、經濟分工、知識的積累和傳承、形成了文明。在這個層次,失敗者被同化,或者被滅絕。

在未來,我們即將徹底全球化、成為卡爾達舍夫I類文明,走出地球、成為卡爾達舍夫II類文明,佔領宇宙、成為卡爾達舍夫III類文明,直到某個時候被更複雜的系統被擊敗,或者自我毀滅,或者走向宇宙的終結。

為什麼複雜系統是一層一層的啊?因為複雜系統產生於臨界態,推力和阻力平衡。推力就是系統演化的需求,通過吸收負熵實現;阻力就是物理限制,規模到一定程度就必定遇到不可逾越的瓶頸。比如為什麼地球上的生物都是這麼大,沒有幾百米的哥斯拉啊?因為地球的重力係數下,再大的生物自重就足夠自毀了,於是不可能存在幾百米、幾千米的生物。但是我們可以通過合作分工形成超生命體——比如60億的人類(中的大部分)。

2.3 系統足夠複雜了以後,便能夠應對突發情況。

舉個例子:第一次遇見蛇,無所適從是很正常的情況,因為不了解。但是如果你在書上看過相關資料,聽到過老人的告誡,你就知道不能移動、不能驚動等注意要點。人類的知識最初都是從經驗中來,或者說「對客觀現象的捕捉」。你之所以能應對蛇,在於你不是一個人。人類社會整體構成了一個超級計算機(複雜系統)。應對能力從學習中來,來自於超級計算機。即使人類是很高等的生物,但計算能力遠遠不夠。只有人類社會整體才有足夠的計算能力。

人類站在食物鏈頂端,是因為每個人背後有整個人類的支撐。 魯濱遜之所以能夠生存下來,因為他擁有一把小刀、有生活的經驗。他生活的經驗來自於人類社會的生活經歷,包括什麼可以吃、什麼不可以吃,工具怎樣加工、怎樣使用等等。生活經驗還屬於對人類系統複雜性要求不高的信息,原始部落也知道,但小刀絕對是文明的結晶。生產一把小刀,需要人類積累幾千年的冶煉技術。製造一把高工藝的小刀,特別是現在的合金刀,往往還要用到大型機床(魯濱遜的到估計工藝比較差,所以現在如果你漂流的話,可以比魯濱遜過的舒服些,只是一點點)。說到大型機床,有必須要依賴電子、機械,一大堆工藝技術,然而這些不僅僅是技術,還有人類的組織方式。所以任何時候,那怕手無寸鐵,你的經驗知識都是一個幾千年的人類文明在支持著你!

然而這種支持並不是萬能的,設計到相關係統的獨立性。舉個例子。一張坦克製造圖紙,拿到原始社會去,屁用都沒有。因為沒有條件。如果是天然草藥的經驗,寄生蟲和疾病防治的知識,特別是對細菌的認識,卻有莫大的幫助。一般來說,越是高端的、複雜的系統,依賴也越廣泛,於是適用性也越小,經濟學家只有在上百萬人口的地方才有用,一個只有10戶的小島派他去只能吃白飯。

結論,於是一個系統能夠產生多少響應,取決於其背後包含有多少完整的計算。它自己產生的計算顯然是完整的。但學習來的知識,也就是依附的計算,影響可能更大。一個只純程序員寫出來的「智能」,和一個與客戶經理充分溝通後的程序員寫出來的「智能」,千差萬別,就是因為依附的系統不同,計算能力也不同。

2.4 現在的人工智慧為什麼這麼笨

那要看現在的人工智慧是怎麼形成的。如果是「智能電器」那種程度,受制於開發者的水平和時間,預先編寫的應對程序,永遠也不可能有多「智能」。更聰明一點的,就是互聯網公司開發的智能了。比如小冰、小度之類的聊天機器人。因為是自學習型的,接觸的環境變數更多,再加上系統也夠複雜,能夠產生很多響應,要智能的多。然而用戶只當做聊天消遣,沒有其他接觸的渠道,只智能說說俏皮話,高級活做不了。再更聰明一點的,就是為某個用途設計的專業AI,比如國際象棋。因為專註,系統的複雜性都用於特定目的,也就是響應都是針對某一特定用途的,要更智能。因為覆蓋面高:AI產生的響應,覆蓋了(由人類產生的)全部可能的響應的比例高,所以更「智能」。要做真正的智能,創造者就要像對待一個孩子一樣,用心去教,讓它接受各種系統的知識,系統內部自主的形成網路拓撲,而不是聽那些市井的條款,和啃爹的對白。

============回答結束===========

三、背後的科學問題——更大的背景

暫不準備填坑。和問題相關性不大,也不是每個人都對理論感興趣,根據反饋選擇性填坑。列了些提綱,感興趣的可自行搜索。

主題1:混沌與平均場理論。蝴蝶效應(初值敏感)的意思可不是「無法判斷、不可參考」哦!恰恰相反,個體值沒有意義,平均值很有意義!當然複雜系統的另一個結論是:經濟危機不可避免……

主題2:複雜性的演化。核心觀點已經提及了。

主題3:網路的形態。網路的形態大都是樹狀的、符合冪律的(無標度),這是基於效率、反脆弱的選擇。

主題4:複雜系統演化的啟示:外星人必有一戰!(爭取自由和主動。)機器人或有一戰!(取決於機器人是獨立的智能還是依附於人類的智能。)競爭等於系統的活力(相當於新陳代謝),沒有競爭就沒有活性。

主題5:社會經濟中的複雜系統,有很多。大多可以用網路描述:經濟主體的組織形式、行業內的分布、技術和知識的鏈條,知識網路。

=============評論回復==============

3.1 這是一個答非所問的答案?

我們總結一下:題主提問是因為觀察到「神經網路」和「人工智慧」經常一起出現,具有統計上的相關性。然而狹義的「神經網路」和「人工智慧」其實並沒有什麼關係,就好像統計學和經濟學也經常在一起而已,只因為恰好他們都很搭而已。本回答的真正內容其實不是「神經網路」與「人工智慧」的相關性,而是為什麼他們很搭——前者適合描述複雜問題、後者很複雜。於是後半段的回答就涉及什麼是複雜、怎麼複雜了。順便一提,統計學和經濟學很搭是由於「平均場原理」,這也屬於複雜學科(在混沌理論中的交叉)。

3.2沒錯,這是宇宙中最基本的規律。

任何科學問題到了深處,都是哲學問題。因為越是追究為什麼、為什麼會為什麼,我們就越接近宇宙的本質(根源之渦?怪不得理工男們多是魔法師——生理意義上的)。然而我們並不能總結或者歸納出宇宙的本質規律,即使它只需要一張紙就能寫下。我們只能描述規律、討論規律下的現象,不斷接近規律的真諦。因為,說到底,人類文明的認知能力(計算)也是有限的,除非我們徹底佔領全宇宙,並且洞悉每一個物理現象。

3.3複雜學科太基礎了,應用性不足,要聽真正神經網路的內容?

我並不是搞神經網路的,因此我只能涉及我知道的內容,不能瞎吹。「神經網路」方面真幫不上忙。

關於神經網路,我手裡剛好有一本書,推薦一下:《神經計算原理》(詳見前言推薦書目)。這本書講的是「神經計算」的基本原理和應用,是如何實現具體問題的,並不是那種側重於神經網路結構和實現的主題。(以我外行人的眼光,這本書最恰當的描述是「充滿了各種掛著『神經網路』稱號的『電路圖』 (T_T),以及每頁超過1/3的公式 (- -b))

3.3.1此條目中重新回答一次,為什麼「人工智慧」總和「神經網路」綁在一起

神經網路(即「神經計算」)(與「程序計算」相比),信息處理方式不同,能夠自適應的響應輸入(即學習),這使得神經計算特別適合(即擅長)處理諸如模式識別之類的任務(特點是輸入多輸出多),不適合處理一些具體數學函數諸如散列(hash)(特點是輸入少輸出少)。

人工智慧需要這樣的信息處理方式。人腦是神經計算而不是程序計算的,人工智慧要模擬人腦,當然選擇神經計算效果更好。神經計算能夠進行例子學習和泛化,更接近人的思維方式。所以他們總是「綁在一起」。

神經計算和程序計算的信息處理差異,是結構不同產生的。程序計算本質上是圖靈機,有一個寄存器——紙條,所有信息是儲存在寄存器中的。電腦就是圖靈機的翻板:規則=CPU指令集,紙條=CPU緩存+內存+硬碟,讀寫頭=主板等其他電路。神經計算沒有存儲介質,信息就是網路的拓撲。宏觀抽象結構=計算規則,被抽象忽略的拓撲結構=信息。

從物理學上,不同的計算方式是沒有差別的。我們覺得計算機有時候很傻、而加減法又算的特別快的觀點,完全是基於和人腦對比的結果。哪怕傳統計算機能夠計算出過去未來,人們還是會覺得它不智能,因為只是個工具。程序計算從一開始就是一個輔助工具,補充人類的計算,因為「寄存器」中數據、數字,一開始就是只對(有正常認知能力的)人類才有意義的。


神經網路和腦科學關係不大 神經網路是一個優化模型 數學模型

腦科學之所以重要只因為人工智慧終極目標是要模擬一個和人腦功能一致的人工智慧體,如果不知道人腦的工作原理,那甚至連人腦到底有什麼能力都搞不清楚,怎麼模擬?


單純圍觀學習,新手渣前來膜拜


人腦是自然界中最複雜的系統之一。 據估計, 一個成年人的大腦中約有1011 個神經元細胞, 這些數量巨大的神經元細胞通過大約 1015 個突觸互相連接,形成了一個高度複雜的腦結構網路。越來越多的證據表明, 這個複雜而龐大的網路是大腦進行信息處理和認知表達的生理基礎。 近年來, 一些神經科學家們充分認識到了構建人腦結構網路的重要性, 並正式提出大腦功能網路(human connectome)的概念,以期喚起不同領域的廣大科研工作者對該問題的重視。

大腦功能網路力圖從宏觀(大腦腦區)到微觀(單個神經元)的各個層次上、全面而精細地刻畫人類從總體到個體水平的大腦結構網路圖譜, 並進一步挖掘該網路的連接規律。另一方面, 在大腦的結構基礎上,神經元的自發活動以及受外界刺激而產生的興奮過程和抑制過程通過突觸傳遞到其他相關的神經元,使得各神經元之間、神經系統各部分之間的神經活動能夠相互配合、相互協調的進行。因此, 大腦結構網路上動力學過程的同步化將大腦在廣泛的時空尺度上連接形成了動態的複雜功能網路, 從而使人腦連接組的研究從大腦結構網路擴展到了大腦功能網路。

對於大腦功能網路的構想, 美國國立精神衛生研究所的負責人 Thomas Insel 如此評論, 「就像現代基因學需要基因組一樣, 大腦的研究也需要大腦連接組,這是我們理解大腦如何工作以及洞悉當出現某些問題時大腦內部究竟發生了什麼的唯一方法」。

20 世紀末啟動的人類基因組計劃致力於解開人體內 2~3萬個基因的編碼, 同時繪製出人類的基因圖譜。人類基因組計劃的完成對整個生物學的發展都具有深遠的影響。同樣, 大腦功能網路的構建也是一項艱巨且意義重大的工程。

人腦中大量不同類型的神經元細胞,數以萬億計的突觸, 加上它們之間複雜的連接模式和動態變化使得構建人腦連接組的難度較人類基因組計劃有過之而無不及。但同時, 大腦功能網路可以幫助我們全面而細緻地刻畫大腦內部的組織模式, 改變長久以來我們研究大腦的方式, 即不再將大腦視為數量巨大的離散的解剖單元或者化學物質的集合體, 而是由彼此縱橫交叉相互連接的神經元細胞構成的複雜統一體。這種觀念上的變革將為進一步深入地窺探大腦內部的神經活動規律以及各種神經精神疾病的發病機理等重大神經科學問題提供全新的視角。

現代腦成像技術和統計物理學,尤其是複雜網路理論的發展為人腦連接組的研究提供了必要的工具和分析方法。

2005 年, 美國著名複雜腦網路分析專家 Sporns 教授指出, 人腦連接組可以從 3 個空間尺度, 即微尺度(microscale)、中間尺度(mesoscale)和大尺度(macroscale 或 large-scale) (分別代表神經元、神經元集群和大腦腦區 3 個水平)上進行研究。

但鑒於現有的技術手段, 目前該領域的研究主要集中在大尺度水平上通過結構磁共振成像(structural magnetic resonance imaging, structural MRI)、擴散磁共振成像(diffusionmagnetic resonance imaging, diffusion MRI)等成像技術來構建大腦結構連接網路或者採用腦電圖(electroencephalogram, EEG)、腦磁圖(magnetoencephalography,MEG)和功能磁共振成像(functionalMRI,fMRI)等技術建立大腦功能連接網路, 然後結合基於圖論(graph theory)的複雜網路分析方法, 揭示其拓撲原理, 進而理解大腦內部的工作機制。

神經網路研究發展

http://group.medlive.cn/topic/9990

神經網路NEURAL NETWORK THEORY是一門活躍的邊緣性交叉學科.研究它的發展過程和前沿問題,具有重要的理論意義.神經網路理論是巨量信息並行處理和大規模平行計算的基礎,神經網路既是高度非線性動力學系統,又是自適應組織系統,可用來描述認知、決策及控制的智能行為.它的中心問題是智能的認知和模擬.從解剖學和生理學來看,人腦是一個複雜的並行系統,它不同於傳統的Neumann式計算機,更重要的是它具有「認知」「意識」和「感情」等高級腦功能 .我們以人工方法摸擬這些功能,毫無疑問,有助於加深對思維及智能的認識.80年代初, 神經網路的崛起,已對認知和智力的本質的基礎研究乃至計算機產業都產生了空前的刺激 和極大的推動作用.

事實上,探究大腦—思維—計算之間的關係還剛剛開始,道路還十分漫長,關於腦的計算原 理及其複雜性;關於學習、聯想和記憶過程的機理及其模擬等方面的研究已受到人們的關注,它未來的發展必將是激動人心的.神經網路理論的前沿問題將滲透在 21世紀科學的挑戰性 問題中,可能取得重大的突破.

神經網路誕生半個多世紀以來,經歷了5個階段:

(1)奠基階段.早在40年代初,神經解剖學、神經生理學、心理學以及人腦神經元的電生理的研究等都富有成果.其中,神經生物學家McCulloch提倡數字化,從人腦信息處理觀點出發,採用數理模型的方法研究了腦細胞的動作和結構及其生物神經元的一些基本生理特性,他們提出了第一個神經計算模型,即神經元的閾值元件模型,

簡稱MP模型,他們認識到了模擬大腦可 用於邏輯運行的網路,有一些結點,及結點與結點之間相互聯繫,構成一個簡單神經網路模型.其主要貢獻在於,結點的並行計算能力很強,為計算神經行為的某此方面提供了可能性,從而開創了神經網路的研究.這一革命性的

1952年英國生物學家Hodgkin和Huxley建立了長槍烏賊巨大軸索非線性動力學微分方程 ,簡稱H-H方程,他們榮獲了諾貝爾生理醫學獎.他們的著名方程引起了許多學者的關注,方程中包含了豐富的內容,對理論和實踐產生了極大的作用.

(2)第一次高潮階段. 1958年計算機科學家Rosenblatt 基於MP模型,增加了學習機制,推廣了MP模型.他證明了兩層感知器能夠將輸入分為兩類,假如這兩種類型是線性並可分,也就是一個超平面能將輸入空間分割,其感知器收斂定理:輸入和輸出層之間的權重的調節正比於計算輸出值與期望輸出之差.他提出的感知器模型,首次把神經網路理論付諸工程實現.美國上百家有影響的實驗室紛紛投入這個領域,軍方給予巨額資金資助,如,對聲納波識別,迅速確定敵方的潛水艇位置,經過一段時間的研究終於獲得了一定的成果.這些事實說明,神經網路形成了首次高潮.

在神經網路中,出現一種持續不衰減的周期性興奮波,稱為迴響(reverberation)現象.人們關心的問題是產生迴響的條件,網路的參數對迴響的周期、幅度等性質的影響,以及如何通過外部來控制迴響波.從而利用神經網路的節律性,並解釋腦電波中的α 節律.60年代,美國在視感控制方面曾熱過一陣子,由於識別視覺特徵的功能一直得不到增強,於是受到冷落,主要是缺乏理論的正確指導.不言而喻,要解決這樣複雜的問題就應該建立它的基本理論.

直到80年代初,Ullman指出了似運動機制的計算理論、Marr的視覺理論,他們為 這一領域的發展奠定了堅實的理論基礎.

(3) 堅持階段. 神經網路理論那遙遠但並非遙不可及的目標著實吸引了很多人的目光,美國軍方認為神經網路工程應當比「原子彈工程」更重要,並對它的投資興趣非常大,而對其實踐的效果也比較滿意.這時,Minsky警覺的是,人工智慧的發展與前途問題.以順序離符號推導為其基本特徵與神經網路大相徑庭.他引發學術界的爭議,導致對人工智慧投資的增加.他從感知器的功能及局限性入手,在數學上進行了分析.

(4) 第二次高潮階段.  Kohonen提出了自組織映射網路模型映射具有拓撲性質,對一維、二維是正確的,並在計算機上進行了模擬,通過實例所展示的自適應學習效果顯著.1982年Hopfield向美國科學院提交了關於神經網路的報告,其主要內容是,建議收集和重視以前對神經網路所做的許多研究工作,他指出了各種模型的實用性.從此,第二次高潮的序幕拉開了.

Marr開闢了視覺和神經科學研究的新篇章,他的視覺計算理論對視覺信息加工的過程進 行了全面、系統和深刻的描述,對計算理論、演算法、神經實現機制及其硬體所組成的3個層 次作了闡述. 另外,有些學者試圖建立實用穩定性,有一定理由,它可以體現容錯能力.

此外,我國系統科學家錢學森在80年代初倡導研究「思維科學」.1986年他主編的論文 集《關於思維科學》出版,書中有關神經網路方面的論文:劉覲龍對「思 維神經基礎」的探討;洪加威對「思維的一個確定型離散數學模型」的研究;陳霖的長篇文 章「拓撲性質檢測」.這本書引起了國內學術界有關人士的極大反響.

1988年Chua和Yang提出了細胞神經網路(CNN)模型,它是一個大規模 非線性計算機模擬系統,具有細胞自動機的動力學特徵.它的出現對神經網路理論的發展產 生了很大的影響.另外,Kosko建立了雙向聯想存儲模型(BAM)[46~48],它具 有非監督學習能力,是一種實時學習和回憶模式,並建立了它的全局穩定性的動力學系統.

這次高潮吸引了許多科學家來研究神經網路理論,優秀論著,重大成果如雨 後春筍,新生長的應用領域受到工程技術人員的極大讚賞.

(5) 新發展階段. 從神經網路理論的發展史看,它的高潮階段是很容易度 過的.IJCNN91大會主席Rumelhart意識到這一點,在他的開幕詞中有一個觀點,神經網路 的發展已到了一個轉折的時期,它的範圍正在不斷擴大,其應用領域幾乎包括各個方面.半 個世紀以來,這門學科的理論和技術基礎已達到了一定規模,筆者認為,神經網路到了新發 展階段,需要不斷完善和突破,使其技術和應用得到有力的支持.

90年代初,對神經網路的發展產生了很大的影響是諾貝爾獎獲得者Edelman提出了Darwini sm模型,其主要3種形式是DarwinismⅠ、Ⅱ、Ⅲ.他建立了一種神經網路系統理論,例如 ,DarwinismⅢ的結構,其組成包括輸入陣列、Darwin網路和Nallance網路,並且這兩個網 絡是並行的,而它們又包含了不同功能的一些子網路.他採用了Hebb權值修正規則,當一定 的運動刺激模式作用後,系統通過進化,學會掃描和跟蹤目標.該系統中關於群(group)的 作用,他早在1984年就闡述了,即神經模式的選擇階段是群限制、群選擇和群競爭.

對於不變性模式識別機制的理解,是對理論家的一大挑戰,尤其是對於多目標的旋轉不變 分類識別問題的研究,具有廣泛的應用前景.最近,申金媛、母國光等人提出 一種新方法,即基於聯想存儲級聯WTA模型的旋轉不變識別.當識別多個模式時就可聯 想出一個模式,針對該問題,他們採用了全單極形式,對互連權重進行二值化截取,並把聯 想存儲模型與WTA模型級聯起來,從而提高了存儲容量和容錯性,實現了多目標旋轉不變分 類識別.他們選擇四大類型飛行器作為模擬模擬,其方法可行和有效.

90年代以來,人們較多地關注非線性系統的控制問題,通過神經網路方法來解決這類問題 ,已取得了突出的成果,它是一個重要的研究領域.1990年Narendra和Parthasarathy提出 了一種推廣的動態神經網路系統及其連接權的學習算 法,它可表示非線性特性,增強了魯棒性.他們給出了一種新的辨識與控制方 案,以multilayer網路與recarrent網路統一的模型描述非線性動態系統,並提出了動態BP 參數在線調節方法.他們研究的是,假定對象為線性或非線性離散時間系統.有些學者對它 的學習演算法計算量大和收斂速度慢進行了一定改進.值得重視的是,連續時間非線性動態系 統,如,仿射非線性系統可直接應用於廣泛而真實的物理系統.值得一提的是,戴先中等人提出了連續非線性系統的神經網路α階逆系統控制方法,他們一方 面用靜態神經網路逼近靜態非線性函數;另一方面用積分器或微分器來體現系統的動態特性 ,並結合線性系統理論和方法,從而構成一種滿足系統要求的複合控制器.可以說,這種控 制策略具有一定代表性和啟發性.

必須指出,神經網路的計算複雜性分析具有重要意義.有些學者產生了極大興趣,如1991年Hertz探討了神經計算理論;1992年Anthony出版了一本論著 Computational Learing Theory; 1995年閻平凡討論了神經網路的容量、推 廣能力、學習性及其計算複雜性.可以說,這方面的理論成果越多,對應用的作用就越大.

從上述各個階段發展軌跡來看,神經網路理論有更強的數學性質和生物學特徵,尤其是神經 科學、心理學和認識科學等方面提出一些重大問題,是向神經網路理論研究的新挑戰,因而 也是它發展的最大機會.90年代神經網路理論日益變得更加外向,注視著自身與科學技術之 間的相互作用,不斷產生具有重要意義的概念和方法,並形成良好的工具

真實世界中的很多系統,包括交通、能源、生物、社會等,都可以由節點和邊構成的網路來描述,其中節點表示系統的基本單元,邊表示基本單元間的相互作用。這樣的簡化雖然忽略了系統基本單元本身的性質及在其上發生的動力學過程,但卻強調了系統基本單元間的相互作用和系統的組織結構。

儘管不同系統之間存在著固有差別,但是研究表明,很多由不同的真實系統抽象而來的網路都表現出了共同的拓撲性質,而且通過研究網路的拓撲性質可以揭示真實系統的組織原理,形成機制和演化規律等問題。

在日常生活中,有時你會發現,某些你覺得與你隔得很「遙遠」的人,其實與你「很近」。小世界網路就是對這種現象(也稱為小世界現象)的數學描述。用數學中圖論的語言來說,小世界網路就是一個由大量頂點構成的圖,其中任意兩點之間的平均路徑長度比頂點數量小得多。除了社會人際網路以外,小世界網路的例子在生物學、物理學、計算機科學等領域也有出現。許多經驗中的圖可以由小世界網路來作為模型。萬維網、公路交通網、腦神經網路和基因網路都呈現小世界網路的特徵。

越來越多的研究表明來自不同領域的網路, 包括社會網路、經濟網路、生物網路等都具有「小世界」性和無標度性。 這使得人們認識到, 真實網路既不同於規則網路, 也不同於隨機網路, 而是介於規則網路和隨機網路之間, 具有與兩者不同的統計特徵的複雜網路

人腦結構連接網路的研究是神經科學中的一個極其重要的課題。 長久以來, 科學家們致力於從單個神經元到大腦腦區等不同的空間尺度上研究人腦結構的特徵, 但由於缺少合適的無創性實驗手段,人腦結構連接組的研究進展緩慢。 而對低等動物和哺乳動物大腦結構網路的研究, 卻因神經生物實驗方法的廣泛應用而取得了一些非常重要的成果.1986 年, Brenner 等人首次構建了低等動物線蟲的大腦連接組。 線蟲腦內包含大約有300 個神經元。由於技術的限制, Brenner 等人構建的線蟲腦連接組比較粗糙, 但是他們的工作卻使人們第一次在神經元水平上看到了腦連接的全貌。

20 世紀90 年代,科學家們開始應用網路分析的方法研究哺乳動物的皮層網路。 1991 年,Felleman等人通過總結以往基於神經示蹤法獲得的解剖連接矩陣, 得到了猴子視覺皮層32個區域和305 條軸突連接的有向結構連接網路。 進一步他們發現大多數的連接是相互的, 並且網路的結構具有分層特性, 若干相互分離的通路間是獨立的, 僅通過少量的連接使通路間聯繫起來。 後來的研究發現,他們所提到的通路就是現在廣泛被人們所接受的視覺加工的腹側和背側通路。1992 年,Young構建了猴子視覺系統的結構連接網路, 並採用非計量多元尺度法分析了由30個區域和301個連接構成的猴子有向加權網路, 發現初級視皮層網路背側和腹側團塊內部連接密集, 而團塊間連接卻相對稀疏。 隨後, Young又通過類似的方法分析了貓的皮層網路, 構建了由65個皮層區域以及皮層區域之間的1139 條連接形成的加權網路。 分析得到了四個分離的團塊, 分別是視覺、聽覺、軀體感覺運動區和額葉邊緣區, 團塊內部存在緊密的連接, 而團塊之間連接比較稀疏。 1999 年,Scannell等人採用類似的度量方法分析了貓的有向加權網路, 得出了相似的結論。 2000年,Hilgetag等發現分層網路結構中腹側團塊相比背側團塊有更明顯的分離, 節點有更多的傳出連接。 2004 年, Sporns 等人研究了猴子視覺皮層、大腦皮層和貓大腦皮層的結構網路拓撲屬性,證實了這幾種網路都具有「小世界」特性。

雖然動物大腦結構的研究成果已經非常豐富,但對人類大腦結構網路的研究卻寥寥無幾。 這主要是由於獲取動物大腦結構連接的侵入式方法無法用於研究活體人腦, 使得人腦結構連接網路的研究進展極其緩慢。 另一方面, 雖然一些研究者曾試圖根據哺乳動物大腦結構網路的實驗結果對人腦結構網路的拓撲模式進行推斷, 然而, 需要注意的是, 1993 年,Crick 和Jones在Nature 上撰文指出, 由於進化上的差異, 人和動物的腦具有明顯的結構和功能上的不同, 用動物的腦連接模式來推斷人腦的連接網路是不恰當的。 因此, 如何利用現有技術無創地獲取人腦的結構連接成為了構建人腦結構網路的一個難點。

最近, 研究者發現結構磁共振成像和擴散磁共振成像能夠獲取活體人腦的結構連接信息, 這使得構建活體人腦結構網路成為可能。構建大腦結構網路關鍵的兩步: 一是如何定義網路節點; 二是如何定義網路連接(邊)。 其中, 節點的定義依賴於研究的空間尺度。 雖然腦網路可以從微尺度、中間尺度和大尺度3 個水平上進行研究, 但由於人的大腦皮層具有巨大數量的神經元(約1011 個)和神經元集群(約108 個), 而且它們之間的關係是一個非常複雜的動態過程, 以現有的技術從微尺度和中間尺度來構建大腦網路充滿了困難。 而在大尺度水平上, 人腦包含了大約幾十個到幾百個腦區, 因此目前複雜腦結構網路一般都建立在大尺度範圍上,以圖像體素或由先驗模板劃分的腦區定義大腦結構網路的節點, 而網路連接的定義則依賴於不同模態的成像技術。

採用結構磁共振成像可以獲得腦的形態學數據, 比如灰質密度、灰質體積以及皮層厚度等,腦結構網路的形態學連接就是根據腦區之間形態學數據的相關性來定義的; 而通過擴散磁共振成像可以檢測到不同腦區之間的白質纖維束, 利用白質纖維的連接數目、密度、強度、概率等可以定義大腦的結構連接(即解剖連接)網路。


人們苦於無法實現人工智慧,所以借鑒了人的大腦的原理在試圖實驗此類智能。但是呢,儘管所謂的借鑒,可是人類對於大腦的研究還沒取得太大的成果,所以目前所謂的借鑒,也可能是種「偽借鑒」。不過,這種所謂的借鑒,也的確是取得了不少的進步,所以。。

那為何借鑒人腦的原理,又跑到神經網路了呢?大腦的主要功能區是新大腦皮層,新大腦皮層的主要構成單元是神經元(可能描述不太準確,我老闆講的要好得很,主要幾年沒上過他的課了),這些神經元相互連接交叉形成神經網路,所以既然要借鑒大腦原理,肯定是要模擬這種神經網路。所以這就和神經網路扯上關係了。

其實2樓的說法有誤,神經網路和機器智能沒有半毛錢關係,神經網路很早出現了,當時還沒智能這個說法,主要是為了擬合非常複雜的非線性系統,後來才用於機器智能。


神經網路是機器學習的一小部分,機器學習是人工智慧的一部分。

神經網路和神經科學沒有關係。


神經網路不是神經科學。

正如紅黑樹不是植物學,二叉堆不是倉儲管理學,AC自動機不是機械設計一樣。


這麼說吧,強人工智慧發展有三個方向。

1、大腦機制研究

2、人腦模擬

3、哲學思考,

推演出意識到底是什麼?

然後製造它。

總結:2和3是不是對於現在來說過於扯淡?那就1唄,1有哪些不算特別扯淡還可以用來實物展示成果的,看起來逼格高的?現在來說,就這個神經網路


神經網路成為人工智慧的主要方法是一個趨勢。只有儘可能模仿自然的智能做出來的人工智慧才能最終被認可為人工智慧,其他的遲早會被算作分類器。時間的先後取決於與生物的神經系統相似的程度。


一開始人工智慧的研究範式是源於神經科學的一些理論,但說白了就是找一個相對可靠的根基。不過隨著人工智慧的發展,基本上已經看不到其和神經科學的必要交集了。什麼意思呢,打個不恰當比方,就

比如說cpu的設計是參考人腦為依據的,你可以說二者有關係,但是是什麼關係呢,能不能說兩個內容差不多?當然不行。看到評論區有談及到認知神經科學,那和ai就更不是一回事了。如果想讀人工智慧這個領域,那就直接一步到位計算機就可以了。反過來的話就非常困難了。


從實用主義角度,因為現在神經網路為基礎的方法最好用,而且有很多改進空間,大家都願意追求最強最好的。從方法學角度,要實現人工智慧,大量的計算和複雜的體系幾乎不可避免,既然要組織這樣一種體系,神經網路的單元化和可擴展性自然都是很好的選擇。


推薦閱讀:

深度學習(如100層)為什麼不過擬合?
如何評價 MIT Deep Learning 這本書?
如何評價「膠囊理論」和其論文 Dynamic Routing Between Capsules?
如何用c++在mnist上實現一個簡單的卷積神經網路,有哪些參考資料?
如何看待《Deep Learning without Poor Local Minima》?

TAG:人工智慧 | 機器學習 | 認知科學 | 神經網路 |