對機器人或人工智慧的研究能幫助人類更了解自身嗎?
參見 A Robot Uses Specific Simulated Brain Cells to Navigate
近日,新加坡科技研究局(Agency for Science, Technology and Research)的團隊為機器人設計了模擬人腦點細胞(Place cell)和網格細胞(Grid cell)的虛擬神經網路用以給機器人進行導航和感知周圍環境。
(對於點細胞和網格細胞的知識請移步:2014年諾貝爾醫學獎:大腦的GPS系統 - 神經科學 - 知乎專欄)
研究局的相關負責人表示儘管目前採用虛擬神經細胞的方式進行機器人導航的精確性還比不上傳統方法,但隨著技術的日臻完善,這種新的導航模式則會有更好的適應性。同時,對機器人進行神經細胞的模擬,有助於我們更好的了解人類及其他動物的導航機制。
試問,新加坡科技研究局的此次探索有著怎樣的意義?
還有哪些類似的利用機器人進行局部的人腦的認知功能的研究?
最後,對機器人或人工智慧的研究會幫助我們更好的了解人類自己嗎?為什麼?本題已加入圓桌 ? 人機對弈終章,更多「AlphaGo(阿爾法圍棋)」相關的話題歡迎關注討論
對機器人或人工智慧的研究會幫助我們更好的了解人類自己嗎?
題主給了趙思家的知乎專欄文章。對位置細胞和網格細胞很好的介紹。去年在我等review的時候也寫了一點點2014年諾獎生理學醫學獎的意義被知乎日報收了~ 這可以算本問題的一個短答案。
發現大腦 GPS 系統的三位大師,剛剛獲得了諾貝爾獎
首先要做個簡單科普,也算對這個主問題的一個回答。從方法論上解讀一下人工智慧的研究方向分別試圖在什麼量級去模擬人腦的功能?
現有的大多數人工智慧的研究領域其實都是僅僅去模仿人腦的某個功能,至於原理是否相似,大家並不關心。比如遊戲內的AI,用狀態機,行為樹(當然機器人研究也常用),這些研究對人來說有點像心理學研究。所以Herbert Simon既是人工智慧的大家,也是心理學的大家。計算機視覺的研究,大都是僅僅為了達成識別物體或理解場景的目的,從數學上是很清晰的,但並沒有研究腦的工作模式或採用類腦的方式。對於一份研究工作來講,講不清楚原理或者無法復現,是很難被科學界接受的一件事情。類腦的研究可能有時局限於這種「講不清楚」。終極一點想,如果模擬腦可以產生意識,那麼每個意識肯定是獨立而且不可複製的。現在的科學體系大概是需要用量子的觀點來接受這種個體隨機整體可統計的人工智慧吧。這是不是又好像在研究人類社會學了呢?
這種AI因為強調解決問題,所以大部分人了解到的人工智慧都是這個方向。工程應用中也大多數是這種AI。
還有從類似人腦宏觀工作方式的角度去研究人工智慧的科學家們。大腦的大體解剖學告訴我們腦不僅僅是頂葉額葉顳葉枕葉四個區,Brodmann將大腦分了近50個區,現代則將大腦進行了更精細的劃分。神經學家努力的研究每一部分的大腦進行哪些工作(大多數都研究很基本的功能),計算神經學家就希望可以把每一部分的小功能模擬出來,不管機理是不是類腦,然後希望可以完成一個比較強的完整功能。比如HMAX,大概模擬了視覺的6個皮層,然後也實現了物體識別的功能。Brain Based Device,進行了很多方面的嘗試,可以完成簡單的導航功能。這類研究不求模擬神經元級別的腦活動,僅僅希望可以通過大腦各部分的小功能以及各部分的連接關係復現一些智能,或者印證對大腦的一些猜想。因為不需要完全依照大腦的結構,所以可以部分類腦,部分就是純工程的方法,可以有一定的應用價值。我們的研究也可以算作這個範疇。
(關於題主第二個小問題,還有哪些類似的利用機器人進行局部的人腦的認知功能的研究?
上面的回答里提到了一些。如果希望了解人工智慧方向局部人腦認知功能的工作,可以看看前不久唐華錦博士在楊靜的新智元上發表一個簡單的綜述。同時新智元上還有一些其他類腦計算的好文章~大家可以關注其公眾號。
【類腦專輯】神經擬態認知計算)
後來人們發現大腦是億萬個神經元的連接,所以也有人從微觀入手,研究神經元的連接,希望用工程方式重現小部分腦,試試可不可以做出該部分的功能。但是鑒於現在對於腦的了解太少,而且部分重建未必就能實現在整體腦中的功能,這一部分工作還多數停留在研究階段。神經形態學,脈衝神經網路,更類似這種研究。當然還有計算神經學家從建立每個神經元開始,也未必要實現某些功能,我現在能記得的就是耶魯大學的NEURON模擬軟體。這種研究就非常的基礎了,我也不知道還能不能劃分在人工智慧領域。
從事一項機器人或者人工智慧的研究工作,未必就能對人的本身更加了解,但是確實有科學家是一直向這方面努力的。包括現在的深度學習,是一種更類似人腦神經元獲取反饋的學習方式,但是網路和學習過程並沒有追求類腦。進化計算也是希望學習腦的成長方式,但是技術實現上也完全不相關。而其他更多的細分方向,大都是為了解決問題,而不是了解人類自己。
下面回答題主第一個小問題:試問,新加坡科技研究局的此次探索有著怎樣的意義?
作為題主問題中提到的論文作者之一,我僅僅想簡單的為大家介紹一下我曾所在的研究組接近四年的一些工作(內容略長),希望可以為大家了解這一個新興的研究方向提供一點幫助。同時讓大家可以自己判斷研究的意義。這篇論文2014年我們投NIPS被拒絕,後來投AAAI,正好在review期間O『Keefe和Moser夫婦拿了諾貝爾獎,review的分數非常高,reviewer也很激動,最後拿到了Oral Presentation。可是另外一部分詳細寫機器人應用的部分,被ICRA無情拒絕,因為有幾個reviewer說和傳統state-of-the-art的方法比,我們的建圖和導航沒有突破。人工智慧和機器人都是很廣泛的領域,我們的研究應該是偏向對腦理解,可能經常不太照顧性能和效率。
我們大家都信心滿滿這個工作會取得一些關注,可是從2015年1月龍哥(Yuan Miaolong)去開會,一直到2015年10月ScienceDaily和MIT Technical Review報道了這個工作之後,有一些朋友開始關注我們。這次知乎上有朋友提問,我們也希望借這個機會把這幾年的工作用中文介紹給大家。
MIT Technical Review的報道
A Robot Uses Specific Simulated Brain Cells to Navigate
ScienceDaily的報道
Navigating the unknown: Computer algorithm copies ...
譯文:
一種借鑒人類和動物導航能力的計算機演算法(守心齋譯文)
將時間撥回2011年----------
看了我幾年的工作報告,為大家全面展示一下我們怎麼發展到去做這個工作,點點滴滴的積累,研究工作才能取得些許突破。
以下提到名字的多是大神,大家可以自己搜索下。
2011年6月,首先是完成一個實體的機器人~ NECO,也就是Nerual Cognitive Robot,這是第一代,參考Wall-E。當時的設計有一些硬傷,底盤沒有碼盤,方向的獲取是指南針。指南針可以拿到一個絕對方向,這和生物系統本身是違背的。直接的問題就是在室內磁場強的地方獲取的方向偏差太大。
目標是實現一個十字迷宮的搜索。場景如下:
這是Edward Tolman曾經給老鼠設計的一個迷宮,用來論證老鼠大腦中存在認知地圖。我們把一個小機器人放進去,希望機器人在搜索之後,下一次我們給他一個刺激,他下一次可以直接找到相應的地點(左邊是出發點,其他位置是牛奶,乳酪和蘋果)。我們當時是跟隨Gerald Edelman所做的Brain Based Device的研究,根據大腦的部位連接方式建立神經網路計算模型,放入機器人中看是否可以重現生物實驗。我們基本是一直延續這個思路。他們不關心微觀的神經元活動,只希望用功能模塊驗證大腦各部分之間的連接。我們這個工作是希望可以復現他們的一篇文章。(Sensory Integration and Remapping in a Model of the Medial Temporal Lobe During Maze Navigation by a Brain-Basede Device) 因為他們的研究沒有公布源代碼,所以我們根據文章重新寫了一份Matlab的代碼。我當時的工作主要是機器人上的代碼實現。沒有參與演算法的部分。Huang Weiwei師兄用HMAX模型(Tomaso Poggio的視覺神經計算模型)替換了了原作中的感測器計算模型。
軟體的界面大概是這樣。。那些矩陣都是神經計算模型的狀態。
2011年9月,開始了RatSLAM的研究。作者Michael Milford是一個年輕的機器人科學家,主要的成果是Posecell(位姿細胞,只是計算模型,不是大腦中真實存在的神經元),在某些性質上已經和網格細胞有點類似。我們把迷宮改成了如下,建圖的部分完全依照了RatSLAM的演算法。
不過我們在導航的部分加入了Ole Jessen的Episodic Memory(情節記憶)模型。
結果表達大概是這個樣子。。。
寫了一篇期刊論文,截止目前還是unpublished..
當時工作的兩個硬傷,第一是核心計算模型都是別人的,於是Tang Huajin博士讓大家首先去研究Place和Grid cell的計算模型。這些文章大多數都發表在Nature,Science,PNAS,PloS等期刊上,這項工作是硬骨頭,於是開始了一些粗糙的工作。。還是上面的迷宮,僅僅用生成Grid Cell的一個模型,主要由一個大四的學生完成,當然現在看來這個工作的原理應該是錯誤的。。最後結果是右下的圖。不過這個結果還是獲得了學院的優秀畢業設計~
後來還有一個大四學生做了一些初步的網格細胞疊加成位置細胞的試探。這也是重現一篇論文From grid cells to place cells: a mathematical model的工作。不過這個論文的問題是只是理論上驗證網格細胞出現的grid field可以通過線性疊加得到位置細胞的place field。但是place field只會出現在環境的中間。。。
在2012年6月後對於Grid Cell和Place Cell計算模型的研究就暫時擱置了。。
在此期間,大家深感迷宮中的工作不容易被接受,大老闆Li Haizhou給出意見是首先下力氣把機器人搬到實際環境中,不必急著去應用各種神經計算模型,於是後面的一段時間我們都在做這個事情。。
首先做了一個更丑的機器人,但是整個系統換到了ROS下面。同時研究了一下RGBDSLAM和深度感測器。(其實還有兩個很高級的攝像頭,不過我沒有在他們上面做研究工作)。機器人變成這樣
因為沒有人用單一的kinect做大範圍建圖導航,我們在自己的辦公室內做了一個嘗試,建圖效果還不錯,導航略差。。
後來又利用kinect做了一些人機交互的嘗試,不得不說kinect真是神器。機器人稍微好看了點。。
Shim Vui Ann花了很多精力解決局部導航的問題,我也把建圖的精度提高了些。這次在辦公室內導航已經比較隨意了~ 地圖上給了五個點試了試,基本可以和Willow garage用navigation package做出的結果相媲美。
這兩篇文章都發表在了IROS上,雖然核心演算法還是RatSLAM,算是對我們機器人工作的一個肯定。這些工作結束之後又回到了一個老問題,研究神經認知演算法,怎樣才能把Grid Cell和Place Cell的計算模型用在機器人上?神經學家大多數的工作都是通過觀察老鼠和記錄神經活動狀態,通過歸納的方法給出計算模型。這些模型大都是比較支離破碎的,比如如何生成Grid Cell,如何做線性疊加以及採用什麼學習的模型,Grid cell如何做路徑積分,等等。因為生物學家沒有辦法獲取生物的感知信號,所以大家都是猜測place cell會和視覺等信號形成聯合記憶,並且在下一次認出某個位置的時候會對路徑積分的誤差做重置。這個部分就是機器人SLAM中常研究的loop closure(閉環)。所以我們的工作看起來是要把這些計算模型連起來,計算神經學沒有的模型就從機器人學裡面拿,但是必須要把整個系統的功能做完備。然後再試著能不能用機器人復現生物實驗。也就是監測其中的grid cell和place cell,看看他們是不是像老鼠腦中的細胞一樣會在特定的位置激發。
然後就是Yuan Miaolong沿著之前粗淺的工作繼續前行,論文讀了無數,並且在某天拿著Yuram Burak的論文手舞足蹈(Accurate Path Integration in Continuous Attractor Network Models of Grid Cells),這篇論文大概是設想grid cell在大腦里的neural sheet是和grid field在環境中的形狀差不多。同時把整個grid cell做路徑積分的原理講的很清楚。但是論文有點錯誤,就是把上帝視角的數據拿來放在自己的視角里做計算。說白了就是機器人學裡說的坐標系轉換有問題。
後來的工作包括從Grid cell疊加到place cell,聯合記憶,重置,方向細胞,都用了比較工程的方式並採用了很多神經科學家的猜想。工作一共進行了接近一年,代碼量很大。。比如僅僅生成下圖結果的代碼就有幾千行。
神經認知機器人的項目在唐華錦博士的研究組裡從2010年就開始研究。我從2011年6月進入唐華錦博士的神經計算組到2015年2月離開,工作了接近四年時間。各個研究方向其實劃分的很細,神經認知方向和我們常說的人工智慧雖然志在解決相似的問題,但是採用的方法和思路確實差異很大。
這個問題我想從大往小里談一談我的淺見。
作為一個喜歡歷史的工程師,我覺得人類的歷史,其實是一部人和機器共同進步的歷史。人類和猴子的區別在於會不會使用工具,有了手中的骨片、石片這樣的工具,人類才開始被稱為人類;成百上千年過去,人類手中的工具從石器變成青銅器、鐵器、合金,再到如今的電器、未來大家暢想的智能機器人。
一萬年前的猴子會想,「嗯,我把這個石片綁在木棒上,砍樹會快很多,這樣就能騰出時間去打獵了」。而一萬年後的谷歌工程師會想,「嗯,我把這個自動駕駛汽車的智能寫好,坐車不用開了,這樣就能騰出時間去看書寫代碼了。」 因此不管工具怎麼變化,「人使用工具提高生產力」這件事始終是人類進化的第一目標。
如果把我們手頭所有人造出來的物品,都看做是提高生產力的工具,那麼縱觀人類的歷史,我們在用工具開發自然的同時,其實也是在把人和自然隔絕。現在社會的人和五百年前,或者五千年前的人相比,對自然的了解肯定是差了很多。因為我們的祖先風餐露宿,必須熟知天氣和周圍環境的特點才不會死掉;封建時代的人雖然形成了農耕或者放牧的文明,但是食物和飲水的質量常常還是要靠自然賜予,農民掌握著豐富的自然知識以保證糧食的生產,就算不做苦工的王侯將相,也需要根據氣候和季節的特性安排國家大事;而現代文明社會中的人則可以整天坐在寫字樓里,使用各種工業化生產的工具製造、運輸生命補給品,不用擔心食物和水是從什麼地方生產出來的,任何時候都能吃到任何季節和地區生產的蔬果。我想用下面的圖片來表示這一變化:
我想用這個圖感性地表達,隨著工具和人類的一同進步,人和自然的接觸(粉色和藍色的邊界)會越來越少。按照這個趨勢發展下去,未來的人類根本不會直接去接觸自然的風、雨、陽光、植物和綠色動物,而是全部通過機器和其他工具把自然的原材料加工成生活必需品。那個時候人類是怎樣一種生活狀態?是工具在服務我們,還是工具在撫養我們?黑客帝國里說的人類生活狀態,不就是這個樣子的嗎?
我現在常常想,一地鐵上人都盯著手機一言不發的場景;大家到了什麼地方都先找wifi的場景;幾個號稱工程師的人交談的時候沒人知道小麥和穀子有什麼區別的場景……都在預示著這樣的未來。
然而讓我稍稍寬慰一些的推斷是,正因為人有了工具才被稱為人,工具離開人也不會被稱為工具。就像在黑客帝國里說的那樣,機器統治世界以後,依然在費勁心機地研究怎麼能培養一個穩定的人類精神社會,不然機器的運轉也會出現問題。所以人類不會徹底滅亡,而是與機器繼續共生,雖然可能不是處在主宰的地位。但是因為我們和機器必須相生相伴,所以還是有很多談判的權力嘛,嘿嘿。
這種對社會發展的抽象和預測,其實不是我自己臆想出來的。在眾多的科幻小說、機器人學和人工智慧學相關的書籍文章中,大家都多多少少表露了這個觀點的一部分。我只是做個總結。
一旦接受了這種設定,感覺還挺科學的。在《文明5:超越地球》這款地球人殖民外星的策略遊戲里,玩家可以選擇三種方式發展自己的文明並且達到勝利:- 【和諧】和外星生命和諧相處,發展出共生的文明
- 【純正】保持地球人純正的血統,在外星也要保持和地球一樣的文明
- 【至高】和自己製造出來的機器共生,進化成生命-機械混合體
我每次都選擇第三種方式,因為覺得放棄自己的人類形態、和機器共生,肯定是大勢所趨嘛。而且我可是一個機器人學家,我的工作就是推動人類進入這種狀態。
一旦接受了這種設定,那麼就有幾個問題要問了:- 人和工具(或者說人和機器)從現在怎麼變到未來那樣的狀態?
- 什麼樣的工具可以說是把人類和自然徹底隔絕開了?
- 如何製造這樣的工具?
雖然我們並不能一下製造出這樣的工具,但是根據上面對於社會發展的分析、人與自然關係的推理,這種工具有以下的特點:
- 可以代表人類與自然交互
- 必須與人類相生相伴
所以說回題主的問題,其實這種工具就是破銅爛鐵當中運行的人工智慧,也就是機器人。
一言以蔽之,一個能夠代表人類與自然交互、和人相生相伴的機器,肯定是需要具備相當豐富的人和自然交互的知識,才能夠做好它的工作。這些「人和自然交互的知識」其實就是機器人學和人工智慧領域大家談到的「perception」(感知環境),「planning」(規劃推理),以及「control」(運動控制)。機器人學家和人工智慧學家乾的事情,其實就是把人類對自然的知識變成數學工具和程序而已。
2011年我去麻省理工學院的CSAIL實驗室參觀Daniela Rus的機器人研究組,赫然看到一堆機器人正在一些種植西紅柿的溫室里忙碌。編程的博士學生告訴我說,因為要搞自動種植機器人,他現在已經很熟悉種西紅柿過程中的各種農業知識了。我想,如果不是為了教機器人學會種西紅柿,現代文明社會中的大部分人根本不需要自己去研究怎麼種西紅柿。
而近年來大部分的機器人研究,比如疊毛巾、上樓梯、開車……無一不是在期望把人類對自然的知識變成穩定跑在CPU上的程序。未來的很多年裡,我們會見到越來越多的工程師和科學家為了讓機器人學會挖礦、檢修水管、產線生產等等技能,自己先去做一陣子礦工、水管工和工廠工人。如果不是為了研究機器人和人工智慧,他們根本不需要自己去做這些工作。
那麼具體一點來說,我們可以透過把人類對自然的知識變成數學工具和程序這個過程怎麼更好地認識人類自己呢。這個問題太大了,我只想挑一個比較小的點去說說我自己的見解。
把人類對自然的知識變成數學工具和程序中最重要的一個環節,也是過去幾十年中人工智慧學界爭論不休的問題:常識知識的表達(common knowledge representation)。大部分讀者可能已經很熟悉人工智慧的歷史了,早期人們設計了邏輯系統和專家系統,不太有效;後來設計了神經網路,不太會用;再後來發現了機器學習這種統計學技術,回頭髮現了神經網路的一些特性,覺得哇神器啊,於是神經網路迅猛發展。尤其是在物體和人臉識別的領域。
識別物體和人臉就是一個幾十年來非常困難的「常識知識的表達」的問題。給定一張人臉的照片,怎麼判斷是人臉?我們需要表達「一個物體是人臉」這樣一個對人來說輕而易舉,但是對機器來說非常困難的問題,就需要把是不是人臉這個問題量化出來,變成機器可以識別的數字。神經網路是一個量化的機制,給定一張人臉的照片,神經網路會輸出這個照片里「物體是人臉」這件事情的概率,用一個確定的數值來表示。從一個照片變成一個數字,這其中付出了無數科學家和工程師的心血。
相似的問題和解決方案出現在其他各個學科的方方面面,人類無時無刻不在給周圍的物體尋找量化的方式。長度、重量、距離……人類發明了各種工具去量化周圍的物體,以及人類自身:血壓不可直接測量,於是人類發明了工具把血壓轉換成血壓計的數值;人類的力量不可直接測量,於是人類發明了各種健身器材把人的力量轉換成器材的重物數值。神經網路,雖然高大神奇,但是也只是一種量化的工具,量化一個物體是不是具有某種特定的屬性,更重要的是,把人類的感覺判斷的過程用一層層的數學模型量化出來。
這兩年機器人學的各種主要研究熱點,也都是量化環境的工具。為了準確知道物體的姿態,我們發明了IMU、後來又發明了多感測器融合系統。為了準確知道機器人關節的角度,我們發明了碼盤、磁反饋感測器等等不同的感測器,這些機器人設備變成能夠輔助人的可穿戴設備之後,還要增加更多的感測器。量化環境的感測器的研究和製造,是一個歷久彌新的工業領域,也是人工智慧和機器人學的主要研究熱點。借用我司技術扛把子大哥的說法:「最牛逼的工程師,都是在搞感測器。」
人類很有意思,人類智能的本身沒有量化的屬性,但是人類有對量化的渴求。人類身上的一切生物感測器都只有「感覺」的反饋,而沒有數值的反饋。你不知道自己的腦電波有多強,不知道自己胳膊轉動了多少度;但是你看到那些能夠量化你的設備(比如微軟的hololens和Google的Project Tango,可以記錄你在空間中的精確位置;比如各種外骨骼裝備,可以畫出你胳膊在空間的運動軌跡),你會覺得很新奇。
一個人第一次拿起project tango,看到自己走過的軌跡被精確畫出來的的喜悅心情,很可能和幾百年前第一次帶著六分儀駛向大海、通過六分儀記錄下自己精確航線的船長的喜悅心情是類似的。
所以人類追求對周圍世界的量化表達,如果不能夠量化表達世界,人類會對自然有恐懼感。再借用一個類似航海的例子:想像一下把你突然丟在地球上某個陌生的角落,你會不會非常慌,即使你是一個像貝爺那樣的生存高手?但是如果再告訴你一個GPS的坐標,這一個數字就可以減少很多的恐懼感,特別是如果這個坐標是某個富裕安定的國家。
而量化表達世界的能力人類本身不具備,所以人類通過製造更加智能的工具去獲取這種能力。我們的工具越智能,對自然的量化程度越高,因此人類面對自然的時候,更加相信我們的智能工具給出的量化判斷,而不是人類本身感官的感覺判斷。
所以,人類對「量化信息」的渴求,決定了人對智能工具的渴求,也決定了人會和自然不斷割裂。
最後,再舉一些從上面的思考中反過來印證的人類的特點:我們看一個人是不是有權力,看他的「級別」,一個量化的參數;我們看一個人是不是有錢,看他身家財產的數值,又是量化的參數;我們比哪個孩子學習好,看他的考試成績,還是量化的參數。而互聯網時代,連人的談吐和見識也都可以量化了(社交網站的關注度、活躍度、知乎的贊數和粉數……嗯好像混進了奇怪的東西)。我們對人的感覺判斷,無時無刻不會被各種量化的判斷所改變。
綜上所述,人類有對量化世界的渴求,這樣的渴求帶動了機器人學、人工智慧學以及很多學科的發展,並且讓人類社會不可逆轉地走向一個和機器共生的時代。
謝邀
就我個人的觀點來看:人工智慧的研究可以看作是某種意義上的仿生學,也就是說至少到目前為止,人工智慧研究者所在做的事情包括模擬從微觀的神經遺傳等到宏觀的生態系統等一系列生物自發行為的行為模式,並以此來實現某些在當前技術條件下無法通過單純的計算來快速解決的問題。
那麼對於題主的三個小問題,我個人的看法是這樣的:
1. 試問,新加坡科技研究局的此次探索有著怎樣的意義?
一種新的人工神經網路結構,即使僅僅還處於理論階段,也會為將來的應用化提供了某個可供開發的方向。
2. 還有哪些類似的利用機器人進行局部的人腦的認知功能的研究?
很多。常見的來說模糊識別,尋路,推薦,行為模式分析很多都是通過各種結構的人工神經網路來完成的。
3. 對機器人或人工智慧的研究會幫助我們更好的了解人類自己嗎?為什麼?
作為研究者角度來說,人工神經網路把計算機科學和神經/腦科學聯繫了起來,雙方在交流的時候必然會產生某種程度的互補從而有可能碰撞出新的火花。就目前來說,人工智慧的研究受限於各種條件依然基本停留在行為分析-&>提取抽象模型-&>簡化-&>模擬行為這個過程上,距離有效的反哺到生物領域應該還有一定的距離。但是我相信發展到一定階段之後,就如同其他的學科間交流一樣,對人工智慧深入的理解和研發一定會增強人們對於「智能行為本質」的深入理解,並且幫助我們更好的認識自己。
謝邀。
本人研究方向為人工智慧,會從這個角度來講一下人工智慧研究和人腦之間的聯繫。
人腦對信息的處理主要是通過抽象和迭代,通過視網膜接受原始信號再在大腦中進行進一步的處理。
(圖侵刪)
補充說明一下,人臉是一個比較特殊的東西,人腦在處理人臉時是通過一個專門的區域,名叫梭狀回面孔區,如果有人這個區域遭到損壞,就會發生人臉失認症,就是除了人臉什麼都能分辨。BBC有一個紀錄片叫腦海漫遊,裡面有這方面的一些案例。在人工智慧領域也出現了這樣的情況,某些模型分辨人臉性能非常的好,甚至可以做到商用,例如配備人臉識別系統的ATM機,然而在其他大部分方面的圖像識別效果還是沒這麼好,可能還是和人臉的結構有關。
人工神經網路(Artificial Neural Network)
目前人工智慧領域有一種模型,名叫人工神經網路,它是模擬人腦的神經元構建的數學模型,神經元具體形式如下:
這個「神經元」是一個以x1,x2,x3和截距+1為輸入值的運算單元(每個輸入值x都與神經元之間存在一個權重w,整合起來就形成了一個權重向量W),其輸出為:
(也叫做激活值),其中函數f(x)被稱為「激活函數」。我們選用前面所說的sigmoid函數作為激活函數:
可見,一個神經元的功能是求得輸入向量與權向量的內積後,經一個非線性傳遞函數(這裡為sigmoid函數)得到一個標量結果。
所謂神經網路就是將許多個單一「神經元」聯結在一起,這樣,一個「神經元」的輸出就可以是另一個「神經元」的輸入。例如下圖就是一個簡單的三層神經網路:
我們使用圓圈來表示神經網路的輸入,標上「+1」的圓圈被稱為偏置節點,也就是截距項。神經網路最左邊的一層叫做輸入層,最右的一層叫做輸出層(本例中,輸出層只有一個節點)。中間所有節點組成的一層叫做隱藏層,因為我們不能在訓練樣本集中觀測到它們的值。同時可以看到,以上神經網路的例子中有3個輸入單元(偏置單元不計在內),3個隱藏單元及一個輸出單元,並且每一層與下一層之間的所有邊上都存在一個權重w(我們用權重向量Wij表示第i層與第j層之間的所有權重)。
對於這樣的多層網路結構,可訓練的參數就是每一層與下一層之間的權重參數向量Wij以及偏置b。我們通過改變權重參數向量Wij和偏置b,可以改變輸出結果。因為我們的目標是讓實際輸出h(x)與目標輸出y最接近,所以只要通過訓練找到使得誤差(h(x)-y)最小的所有層的權重參數向量Wij和偏置b,神經網路的模型就訓練好了。我們可以用梯度下降法來訓練這個神經網路。
以上這些是對人工神經網路一個基礎性的介紹,這是一個大致的框架,我們需要對這個框架不斷進行調整,使其越來越接近人腦,這樣直覺上是可以提高性能的。
卷積神經網路(Convolution Neural Network),CNN
人腦有一種結構叫做感受野。在視覺通路上,視網膜上的光感受器(桿體細胞和錐體細胞)通過接受光並將它轉換為輸出神經信號而來影響許多神經節細胞,外膝狀體細胞以及視覺皮層中的神經細胞。反過來,任何一種神經細胞(除起支持和營養作用的神經膠質細胞外)的輸出都依賴於視網膜上的許多光感受器。我們稱直接或間接影響某一特定神經細胞的光感受器細胞的全體為該特定神經細胞的感受野(摘自百度百科)。於是神經網路就借鑒了這種結構出現了卷積神經網路。具體結構如下圖:
這個模型就複雜得多了,在此就不展開了。有興趣的朋友可以和我私聊,一起探討。
卷積神經網路目前在圖像識別上取得了突破性的成就,被廣泛應用,它由紐約大學的Yann LeCun教授提出。目前是深度神經網路中最熱門的模型之一。
循環神經網路(Recurrent Neural Network), RNN
之前介紹的神經網路都是單向的,被稱為前饋神經網路(feedforward neural network,FNN),它可實現的功能依然有限,人腦有很強的計算能力,「分類」只是人腦所能完成任務中很小的一部分,我們不僅能夠識別個體案例,更能分析輸入信息之間的整體邏輯序列。這些信息序列富含有大量的內容,信息彼此間有著複雜的時間關聯性,並且信息長度各種各樣。例如視覺、開車、演講還有理解能力,這些都需要我們同時處理高維度的多種輸入信息,因為它們時時都在變化,而這是FNN在建模時就極為匱乏的。
RNN(Recurrent neural Network)循環神經網路是一種節點定向連接成環的人工神經網路。這種網路的內部狀態可以展示動態時序行為。不同於前饋神經網路的是,RNN可以利用它內部的記憶來處理任意時序的輸入序列,這讓它可以更容易處理動態行為。RNN具體模型如下圖:
(圖侵刪)
RNN在文本處理上有著非常好的效果。目前還有一種LSTM結構,全名為長短時記憶(Long-Short time memory),它更加貼近人腦,人有長時記憶和短時記憶,如果一個事物多次出現,人就會將其長期的記住,LSTM就是模擬的這種結構。
總結
由以上內容可以看出,對人腦的研究和人工智慧的發展是相輔相成的,人工智慧需要我們更加了解自己的大腦。人工神經網路的每一步發展都是沿著更貼近人腦的這條路在走。至於對人工智慧的研究能不能幫助我們更好的了解自己,這個只能說,人工智慧可以作為一個工具來幫助生命科學的研究,至於人工智慧的研究能不能給生命科學以啟發,這點我表示懷疑,因為到目前看來還是人工智慧在跟著生命科學的腳步在走。可能在不久的將來,計算機會更接近人腦,它將完成很多我們現在還無法想像的任務,這也會極大提高生產力,它將帶來對傳統產業的一次巨大衝擊,人類文明也會隨著人工智慧的發展而變得更加璀璨。
====================================================================
更新:謝謝大家的贊,看到標籤上有機器人,就更新一個機器人演算法:強化學習。
強化學習(Reinforcement Learning)
強化學習是從動物學習的模式中衍生而來,它是由Agent進行某種行為,如果獲得正信號,就使產生這個行為的趨勢變強。強化學習把學習看作試探評價過程,Agent選擇一個動作用於環境,環境接受該動作後狀態發生變化,同時產生一個強化信號(獎或懲)反饋給Agent,Agent根據強化信號和環境當前狀態再選擇下一個動作,選擇的原則是使受到正強化的概率增大。選擇的動作不僅影響立即強化值,而且影響環境下一時刻的狀態及最終的強化值。(摘自百度百科)
強化學習一般用於機器人的訓練演算法,我個人沒深入研究過,在這裡就不贅述了。
謝邀!
先給出我對這一問題的基本看法:對機器人或人工智慧的研究基本不會有助於更好的認識人類自己。
一、機器人是仿生學,是先有了對生物學的進一步認識再有的用非生物材料來仿造。
二、人類對於自己的認識在很多方面已經取得了非常多的突破,但在人腦如何產生意識和智能方面還非常有限。這主要受限於科學研究的倫理學和研究技術的限制。主要困難在於宏觀的大腦內網路的組織形式、以及微觀的組成網路的單個神經元的運行機制還沒完全搞清楚。
三、人工智慧目前最流行使用的技術是深度學習神經網路,即使這樣它同人類大腦的組織形式和運行機制還是差別很大。目前的人工智慧技術並沒有完全採用生物學神經網路的神經元模型,同時其處理機制仍然是串列處理。
四、個人認為下面幾個方面的研究對幫助人類認識自己有較大的幫助:1.對活體神經元電信號的追蹤技術的突破;2.製造更接近生物神經元生理功能的機器神經元晶元,在此基礎上探索神經網路的組織形式。3.從進化的角度研究各等級物種中樞神經系統的演化規律,希望藉此對神經網路的發展演化有所借鑒。
有,我聊聊最後那個問題吧,根據我的知識,人的大腦其實就是基於經驗的概率決策,當遇到一件事要做判斷的時候,大腦就搜索你記憶中,包括非圖像的,比如打籃球,踢足球的各種肌肉的記憶,然後與現在事件進行匹配,選擇與記憶中匹配度最高的,作為最初選擇方向的啟發,再運用腦中簡單的邏輯能力對方案修正,最後給出行動。如果方案不行,就會修改對之前的認識,神經網路結點的權值重新調整,再次嘗試,反覆直到成功,最後這個網路的新矩陣值就是新的經驗。
我當初學習人工智慧的知識,第一次感受到對自己原來認識的衝擊就是:人類的智力原本作為人類心靈的一部分,本來被人類視為高於一切,永遠不可破解的自然奧秘,甚至可能是神賜予的。然而人工智慧這種基於數學和演算法的審視角度把它拉下神壇,終於明白,之前我們崇拜「人類獨有的智力」只因我們沉迷於用感覺來總結知識,用喜好來判斷價值。其實雖然現在我們的人工智慧技術很原始,但是它卻是重要一步,大自然進化出智慧體花了30多億年,人類如果要再花1萬年才創造出智慧體也不算漫長。智力不再是什麼神秘的事物,反而要形成這種智能的形式比其他什麼DNA操作蛋白質然後影響生物體形態更加簡單。所以有些科幻書籍就會說宇宙中大腦更容易存在,比如我們的網際網路的整體,就是一個原始的腦。甚至我們把科學家通過通訊工具和信息庫連接起來,形成的整體也是腦。
這樣一來,社會中可能就會出現新的社會信仰,人類終究會死去,自古以來人們崇拜把自己的思想流傳下去,既然人的思想可以傳播到人造生命中,而且人造生命的智力可以通過技術比人類更加完美,那麼我就可以選擇機器人作為人類的未來,它們從這個方面來說也是我們人類的延續。當然或許科技到了那一天,人類的壽命很長很長了,我們也可能和人造智能體共存。
瀉藥。
題主的問題涉及兩個概念,即人工智慧和人類智能。人工智慧的早期研究從研究人類/生物智能的神經科學領域借鑒了一些概念,如神經元、視覺接收場(貓)和蟻群等等,但這些樸素的系統往往是無法工作的。
現在人工智慧領域,在演算法上早已過了仿生的階段,更多的是工程優化,與人類/生物智能的所謂本質大多沒有關係。所以個人感覺短期內難以對理解人類智能有多大幫助。新加坡的這個計劃可以看成是仿生學派的再次掙扎(好像暴露了是lecun簇擁。。),前車之鑒是connectome,不樂觀。
謝邀。本人只是計算機專業的本科學生,偶爾接觸到了相關知識,加深了興趣。前面已經有答主從知識上很好的解答,在此就不獻醜了,只是簡單說一下偏感性或者個人的一些看法。
人工智慧從廣義上來看是個很廣闊的概念,涉及的範圍和學科也非常寬泛。一般人認為人工智慧的產品應該是個完全自主的機器人。實際上,一些可以實現自動控制的產品也是可以記入人工智慧範疇的,這樣一看,範圍就大了很多吧?說到底,人工智慧的重點就是字面意思,人工和智能,對於智能的定義,見解很多。所以,在我個人看來,人工智慧的一個遠大目標或者說最終成果,是實現可以完全自主學習和思考的人工智慧體,也就是是可以完全模擬人腦思維活動的。除了思考,還有自我認知以及情感等方面。後一點也是一個有爭議的方面。且不說情感等方面的研究進展,單是這個方面如果真的人工實現了,會有什麼後果,就值得深思。人工智慧本身的發展也是,假設我們實現了真正的人工智慧體,我們是否真的能一直完全控制好?尤其是,如果當這些人工智慧體擁有了自我認知或情感,那麼假設與人類存在衝突與競爭,我們是否能一直保持絕對優勢。另一方面,人工智慧研究不不斷推進和實現,對於人類自身的存在方式,也能提出思考,假設直到某一天我們的虛擬現實技術可以完全模擬實現出一個完整的世界,包括這個世界的從太古到未來的發展變化,那麼,是不是也從某種程度上可以對人類本身的存在和發展提出疑問?
好了腦洞結束,無甚乾貨,求不打我。
顯然不能。
人工智慧是工具,其目的在於應用。只不過其方法受到了神經系統的一些啟發,又由人類主導,所以冠名「人工」,它可以創造一個新的世界,但恰恰不能讓我們理解自己。
幫助人類更好理解自己的學科,是 神經科學,歷史學,哲學。
謝邀。
我就回答一下人工智慧的研究是否能幫助我們了解自己。我認為可以。神話里說女媧和伏羲創造了人類,女媧代表生命,伏羲代表智慧,人類就是生命與智慧的結合,所以人類本身最大的奧秘就是生命和智慧。我們要創造人工智慧,其實就是研究智慧的奧秘,單純地人工智慧是只有智慧沒有生命的,也就是說它不存在生和死的問題,即不是生靈也不是死靈,只是一個單純的靈而已,靈代表的就是智慧,我們創造一個人工智慧其實就是創造一個靈,做的其實就是伏羲的工作,所以我們對智慧的理解也要達到伏羲的水平,不然我們根本造不出來,所以我們研究人工智慧其實就是研究智慧,就是研究人類自己的奧秘,這必然讓我們更加了解自己。
能的.
人類智能產生的出發點, 究竟是為什麼產生了大腦? 哪些小腦就夠了? 為什麼手眼協調是關鍵? 為什麼直立行走是關鍵? 腦的進化有多少是外部的, 有多少是內部選擇的?
這些問題, 在研究機器人的時候, 才意識到, 智能中很多東西, 是我們已經習以為常的東西,
--- 空氣是無色無味的氣體, 這一點很奇怪么? 是進化的必然結果, 但是我們要製造空氣時, 才知道他的內部.
智能是自然而然的東西, -- 我就是這麼想的呀! -- 用機器語言描述, 教會一台機器什麼叫貓的時候, 才明白什麼是智能.
不能
人是沒有程序沒有演算法沒有代碼的
所有AI都是基於演算法,這是兩種完全不同的東西
如果用研究人工智慧去了解人類自身,除非人工智慧的技術已經發展到了極其高的水平,但當到那時人類對自身的認識也到了乏味的地步,但恰恰相反的是,只有足夠了解自身,才能夠發展人工智慧,智能是建立在人類自身的基礎上的,而你創造所得智慧的也永遠無法超越你自身智慧的。
能。
「思維」本來就是我們現在用的自然語言定義的,漢語,英語之類的。
想想如果沒有漢語,你現在能否思考?
而機器語言可以同自然語言間做映射,並從二進位語言中選出一組基向量,讓我們認識元語言,得到對思維更透徹的認識。
將來2個人腦之間可以用線鏈接,也就不需要把動作指令願望表達成約定的聲波,再讓對方鼓膜解碼,執行模式匹配,再理解動作了。直接發送這個動作信號本身就好了。不再需要自然語言。機器間進行交流也不需要說人話不是么,只有跟人交流才說人話。機器間直接交換最底層的二進位代碼。謝邀。我們的造物者們一定也曾經這麼想過:創造人類能幫我們了解自己嗎
人工智慧的研究首先是幫助我們研究人工智慧。至於了解人類,問題要複雜得多。從根本上說,人類智能現象是適應性發展的結果,並與文化相作用,但人工智慧不是。人類智能的載體是人的腦物質,而人工智慧不是。人工智慧的研究也並非是要複製人腦的機制。智能作為一種現象,有多種表現形式,也有不同的目標。人工智慧無論在實現機制和價值目標都和人類自身截然不同。但人工智慧可以借鑒對人腦的機制的研究,並在這個借鑒過程中推動後者,正是在這個過程中而不是在結果上有利於我們了解人類自身。
我們寧願慢點發展,摸著石頭過河,而不能像印第安人被消滅
我打遊戲都發現自己反應遲鈍。
我的天,機器精神上奴役人類的時代要到來了嗎?娛樂還好,真的實現的話,其實除了醫學價值和智力開發價值,沒什麼大用。
神經網路或是深度學習之類,都只是對人體機理一種最淺層的數學近似,甚至都算不上是對人體
這些東西畢竟重在它們的現實效益,也就是作為工具來說是否有效,而不在於他們到底能多大程度還原人的機理
神經網路出來那麼多年了,最早的一個深度學習的文章也是06年的
但是還不因為或硬體或方法的原因,直到最近兩三年又重新被炒熱了嗎
我個人是計算機視覺的,至少就我們這一個方向而言,我沒見身邊甚至國際上有多少人會從這些東西里去推人體的機理。除非是做生命工程的,做純CV的對人體機理一竅不通也是很正常的事情推薦閱讀:
※當前深度學習和slam結合有哪些比較好的論文,有沒有一些開源的代碼?
※既然機器學習可以在某專業上超越人類,那人類的這個專業技能還有用嗎?
※如何看待 2019 年 CFA 考試新增 Fintech(金融科技)等科目?
※有什麼經典的關於遊戲 AI 設計的書嗎?
※無人駕駛多久可以超越F1賽車手?