上海交大人腦意念遙控蟑螂行動的研究有何創新之處?
至少幾年前就有人成功植入電極控制蟑螂了吧。
https://www.youtube.com/watch?v=5Rp4V3Sj5jE如果僅僅是解析腦電波,然後為蟑螂發送電信號的話,所謂「腦—腦介面」是否名至實歸?此項研究的難點在哪?是否為學術前沿?
我本人做過一點點腦機介面(Brain-computer interface,BCI)的東西,對這方面有一些興趣。之前沒注意這個新聞,看到這個問題後專門了解了相關新聞並稍微檢索了一下文獻和維基百科,在這裡可以做一個大致的總結和梳理,有疏漏或理解上的偏差,還請大家多多指教。
這個工程上的進展屬於腦腦介面(Brain-to-brain interface,BBI)的範疇,什麼是腦腦介面呢?簡單說,它是一種終極的交流方式,就是我心裡想一個事兒,能直接讓你心裡感受到,而不用通過任何多餘的語言來傳遞。這很科幻是不是?暢想一下未來,當我想把這個問題解釋給你時,我就不需要打半天字,然後發布出去讓你看到,你理解半天然後罵我寫得是什麼狗屁玩意看不懂。到那時候,我只需要把答案在腦子裡想一遍,你那邊就能接收到我的思想。這很神奇是不是?腦腦介面的相關研究,就是為了達成這麼一個美好的願景而產生和發展的。
知道了腦腦介面是什麼,我們接下來關心的是怎麼實現它。從廣泛的意義上說,人類的交流就是一個編碼和解碼的過程,比如語言交流,就是我把意圖按照一定規則編碼為一些奇奇怪怪的符號,然後你看到這些外在的符號,基於相同的規則,從中解碼出我的意圖。編碼,解碼這個過程,對於腦腦介面這種交流形式也不例外。我們已經知道,所謂「內心」的想法產生於大腦皮層的放電活動,但是讓你直接看這些放電活動,亂七八糟什麼都看不出來。因為你不知道大腦皮層放電活動和心理活動之間的對應規則是什麼。其實目前最最前沿的認知神經科學家們對此也知之甚少,假如我們人類未來有幸完全了解了這套規則,那麼,再給你看大腦的放電活動,你就能根據這套規則來了解到,產生這些雜亂放電活動的人的內心在想什麼。這,也就是腦腦介面所面臨的第一個問題,解碼的問題(decoding)。而對大腦解碼研究的應用方面,最火爆的就是腦機介面領域了(BCI),其實就是通過解碼大腦的活動,來控制機器,比如機械手臂啦,玩具車啦,輪椅啦等等。但是,正如我剛才所說的,我們目前對神經編碼規則的了解還非常非常有限,所以目前神經解碼的應用也很初級。大體上,我們能做到的,僅僅是給你幾個備選項(通常少於五個,一般兩個,通常是一些需要你想像的場景或動作),讓你隨意想其中一個,然後計算機根據你的大腦活動,來猜測你想的是哪一個。等計算機能獲得比較高的猜測準確率時,我們會把這幾個備選項分別和一些指令,比如向左轉,向右轉,人為地建立聯繫。這樣,你想讓一個玩具車向左轉,就在腦海中不斷想像向左轉對應的備選場景或動作就可以了。這種通過主動想像來控制的BCI(active BCI)有一個比較大的缺點,就是需要事先做大量的訓練。一是訓練受試者能隨意按照要求切換想像內容(有些受試者的想像控制能力真得很差),二是訓練計算機能以較高的準確率猜出你想的是哪一個。這樣必然就會極大降低BCI的應用性,所以另外一種所謂的passive BCI也就應運而生了。它的主要原理是,同時在屏幕上呈現幾個以不同頻率閃爍的光斑,比如10 Hz,20 Hz兩種,利用眼睛盯著某塊光斑看時,人腦後部枕葉(就你後腦勺)放電活動會與屏幕光斑閃爍頻率趨於同步的原理(SSVEP),研究者就可以根據你的後腦勺的放電頻率,判斷出你在看哪塊光斑。然後再把判斷結果和指令聯繫起來,比如判斷出你在看10 Hz的光斑,就觸發玩具車右轉。這樣,你想用大腦控制玩具小車,就看不同的光斑就OK了。
從新聞的圖片來看,上交大他們用的似乎就是這種passive BCI的原理,如圖C,可以看出有三個不同頻率的光斑,可能分別對應了左右轉向和向前三種指令,而圖d中,受試者佩戴的設備是商用的Emotiv,大概100多刀一副,電極點也是放在了後腦勺的位置:
(圖片來源:
(圖片來源:上海交大實現人腦遙控蟑螂 網友:國產黑科技(圖))
到這裡先做個小結,從腦腦介面解碼的角度來講,這個團隊採用了現成的商用腦機介面設備(該設備對腦機介面提供了一整套解決方案),利用現成的原理,做了這樣一個簡單的事情。所以,在這個角度上,該項目並沒有任何創新可言。
接著講腦腦介面,剛才說到,腦腦介面面臨的第一個問題是,如何從神經活動讀出信息(解碼),那麼,如果已經得到一個信息,如何傳遞給另外一個腦?這就是腦腦介面的第二個問題,編碼的問題(encoding)。怎麼把一個信息,編碼成神經元的放電活動,然後寫入大腦?這實在是一個很難的問題,其困難程度,甚至遠遠超過通過神經元活動解碼信息。類比一下小孩子的語言發展你就會知道編碼比解碼難得多:小孩子很小就能聽懂你在說什麼(解碼),但是,小孩子本身的語言發展要緩慢一些(編碼)。再比如,你讀這篇答案可能很快(解碼),我寫這篇答案就很費力(編碼,淚奔飄過)。而關於編碼的研究進展,基本上類似於我想讓你看到星星,就拿槌子在你頭上來一下子一樣,反正你是看到星星了(不帶開玩笑的嚴肅臉)。具體而言,使用的技術可以分為兩大類,一類是有創傷的,就是需要開顱植入電極,這種一般應用於動物;一類是無創傷的,比如經顱磁刺激,超聲波刺激等,大致原理就是通過一些物理手段,來短暫干擾大腦某個局部區域的電活動,使該區域短暫「失靈」或「興奮「,這種在動物和人身上都有應用。
對於第一類植入式的,已經有很多嘗試啦。在貓啊,狗啊,蟑螂啊,鴿子啊,白鼠啊都做過了。甚至有研究團隊在鯊魚大腦里植入了一個晶元,可以讓鯊魚產生類似聞到血腥味的感覺,從而誘發鯊魚的覓食行為。不過這些研究大都不屬於腦腦介面的範疇,而是用電子設備發射控制信號,信號激發動物的某種行為。唯一一個植入式的腦腦介面研究,是一個團隊用兩隻白鼠做的,大致就是在兩隻白鼠的大腦分別植入兩塊電極陣列,一塊電極陣列記錄白鼠A的大腦電活動,並將信號傳遞給另一塊陣列,該陣列負責用傳過來的信號刺激白鼠B的大腦。結果觀察到兩隻白鼠的行為活動趨於相同。研究者認為,這種相同說明了信息確實在兩隻白鼠之間發生了傳遞。
而對於無創傷的,有一個團隊曾把人腦和白鼠腦相連(想想是不是挺恐怖?),大致就是記錄了人類受試者的電活動信號,用BCI的方式,提取指令信息,觸發聚焦超聲波(Focused Ultrasound,一種無創的局部刺激大腦的技術)來刺激白鼠的大腦皮層運動區,誘發白鼠的尾巴抖動。而無創傷的腦腦介面,最近也才應用於人腦和人腦的研究。大致就是受試者A不動,記錄他的腦電活動信號,用BCI的方式,提取指令信息,比如動右手,然後將指令信息傳遞給受試者B頭上方的經顱磁刺激儀(也是一種無創的局部刺激大腦的技術),經顱磁刺激儀啟動,打在受試者B的運動皮層上控制右手活動的區域(該區域位置事先已經確定好),受試者B的右手就會抖動。聽起來是不是有點naive?哈哈哈,具體實驗過程就是下圖這樣子,左邊的是發送指令的受試者A,右邊的是接收指令的受試者B,雖然naive,但是信息的傳遞確確實實是通過腦腦進行的:
(圖片來源:UW study shows direct brain interface between humans)
Well, that"s where we are now. 這就是腦腦介面目前最最最前沿的進展了。那麼,讓我們回到最初的問題,來看一下上海交大的那個研究,在編碼運動指令到蟑螂的神經上這部分,是否有創新呢?
很遺憾,答案是否定的。蟑螂身上背著的這個「背包」,是技術的關鍵,然而這個核心設備,也是來自國外的商用的教學設備,這個設備在TED上做過宣傳,在Kickstarter上眾籌過,每隻只要100刀,是給剛接觸神經科學的孩子做教學用的玩具,用這個設備通過神經手術裝在蟑螂身上以後,可以用iphone來刺激蟑螂的左右觸角神經從而控制蟑螂的運動,而這個手術非常簡單,用Forbes新聞稿的原話就是 "Twelve-year-old kids can do the electrode surgery themselves in 15 minutes"(12歲的孩子靠自己就能在15分鐘完成這個電極手術)。如下圖所示,美帝12歲小孩子也太會玩了:
(圖片來源:Science! Democracy! RoboRoaches!)
等下,對比一下第一張上交大圖中的b圖,有沒有覺得和上圖蟑螂背的東西非常像??根本就一樣好嘛!!
所以很遺憾,對於上交大這個研究,從腦腦介面的編碼角度來說,也是毫無創新的。
但是,上交大的這個研究也並非毫無意義。它的價值就是在於,你喜歡吃蘋果,也喜歡吃梨,可是每次吃了一個果子就飽了,就沒機會品嘗另外一個果子的味道。我給你弄個蘋果梨,你能同時吃出倆味兒,還不會撐著。嗯嗯,其實我是想說,雖然整個項目的技術沒有創新,用的設備,無論解碼還是編碼設備,都是現成的,甚至玩具級別的,整個項目我估計最多三千塊錢拿下。但是,它的唯一的創新之處在於,把兩個設備結合在一起,一下子可以從腦腦介面的角度來闡述更新的意義。而且,誰也不會覺得這樣闡述顯得low,因為腦腦介面的概念非常前沿,也沒人會覺得這樣的闡述十分生搬硬套,因為腦腦介面目前的技術本身就是這個層次的。
嗯,我想答主看完我的回答,也能對整個事件的背景和細節有一個大致的了解了。其實我還是覺得上交大的這個研究蠻有趣的,這也是這樣一個小項目卻能上各大新聞的原因吧。而且考慮到這是一個碩士研究生的工作,我覺得也蠻好。只要是認真做的工作都值得尊敬,而我作為業餘旁觀者的評價,也只是一個看法,很可能會有偏頗的地方的,所以還是希望大家帶著批判的眼光看這篇回答。
最後,認真答題真得挺花時間,起碼對我來說是這樣,所以好久沒有認真答題了。希望我的答案能幫助到大家吧:)
Reference:
Remote control animal
PLOS ONE: A Direct Brain-to-Brain Interface in Humans
Science! Democracy! RoboRoaches!
我也是上海交大機動學院的研究生,曾經做過肌電信號方面的研究。與蟑螂項目作者所在的機器人實驗室也有不少交集,還算比較熟悉。現在沒有太多時間具體求證細節,姑且先寫一個回答後面再修改吧。以下出現的錯誤還望指正。
言歸正傳,回答題目的問題。
1.腦腦介面是否實至名歸?
答:這個項目勉強可以稱為「腦腦介面」因為項目雖然實現了人腦-蟑螂腦部的通信,但是成功避開了「腦腦介面」的關鍵問題。導致這項研究掛著「腦腦介面」的噱頭,但是更接近「腦機介面」。
一般而言「腦機介面」更側重於針對腦電波信號的信息解碼方面,而「腦腦介面」更側重於信息編碼為神經信號。而後者的難度與前者根本不在一個量級。
而在這項研究里小強彰顯了它的特殊性,觸角神經就在觸角上,太明顯了,不像人和動物的神經隱藏在肌肉和皮膚等組織和器官中,而且它的信息編碼非常簡單:比如說左邊觸角收到刺激,它就認為有障礙物。幾乎完全迴避了「腦腦介面」中的關鍵問題「如何對信息進行編碼,從而刺激神經」。因此該項目的研究思路更接近「腦機介面。
圖1是「百度百科-腦機介面」的圖示:在對腦電波信號採集、解碼後,直接用於控制電器設備,並沒有再次編碼用於刺激別的生物的大腦,而小強的本質其實就是一個「電氣(圖中是錯別字)設備」而已。
圖1 百度百科-腦機介面
2.研究的難點在哪?生物信號的採集、模式識別演算法
(1)生物信號的採集:
目前人們能夠從人身上採集到的信號其實非常少,因為人本身不是一個「電氣設備「,很多生物信號,比如說神經信號,非常依賴於神經遞質等等化學物質,而不是通過」電「。腦電波、肌電信號等只是人體內種種生命現象的外部反映,其中包含的雜訊非常大。所以說人們能採集到的信號源少,而且信號質量很差。
即便是腦電波採集儀、肌電信號採集儀這樣相對成熟的設備,其可靠性也難以保證。為什麼呢?舉個例子吧,下圖是某實驗中的腦電波信號採集儀。很明顯,需要志願者剃光頭髮,然後在腦門上貼電極貼片。我自己用過肌電信號採集儀,貼片大多是一次性的,而且實驗過程中很容易脫落,貼在皮膚上的力度、位置等等的不同到最後都會影響到信號。
而且生物信號的干擾因素讓人防不勝防,比如喝口水再回來測試,或者,中間打個哈欠,信號的波動可能導致之前的模式識別演算法完全失效了。
更糟糕的是,腦電採集儀、肌電採集儀,國產的質量不忍直視。
圖2 腦電信號的採集(注意電極貼片)
(2)模式識別演算法
好吧,模式識別演算法才是「腦腦介面」和「腦機介面「等領域的研究重點。模式識別演算法,就是Wang Sigma同學所說的」解碼「演算法。目前模式識別演算法能做到的事情還是非常簡陋的。
a,對生物信號的時變特性束手無策,魯棒性很差。
差到何種地步呢?今天訓練好的演算法,明天就不能用了,有時候中間喝了杯可樂,演算法識別的準確性就差了一大截;對一個人適用的演算法,搬到另一個人身上基本無效;靜態下的識別演算法,用到活動的同一實驗者身上,也幾乎無效。
因為信號本身就在變,所以無論識別多準確的模式識別演算法,都無法解決該問題。
嗯,比較好的解決方案,是將電極插入人腦中,這樣信號所受的干擾就小很多。
b,識別結果大部分都是離散的,無法實現連續的識別。
目前成熟的演算法都是使用一定大小的時間窗口,從而把連續的信號割裂了。識別的結果也只能是離散的,換句話說,模式識別演算法識別到你動了一下腳,等到窗口內的信號識別結束,時間窗口滑動到下一個位置,才能繼續識別下一個信號。
現在已經有若干連續識別演算法,比如卡爾曼濾波等,但是識別準確度只有75%左右。
c,分類器所能實現的準確分類數目非常有限。
國內肌電信號模式識別方面,以上海交大機器人所的朱向陽團隊為代表,能準確識別的手勢大致有二三十個,相對於數目龐大的手勢數目而言,不過是滄海一粟。造成這種結果的原因就是b中所提到的離散的識別結果,比如識別到」屈腕「這個動作,演算法不能區分屈腕的角度等等細節部分。
圖3 肌電信號手勢識別的若干範式
圖3 肌電信號手勢識別的若干範式3.是否為學術前沿?
課題相關的」腦腦介面「」腦機「介面是學術前沿,但是該成果不是,水平大致相當於一個本科畢業設計或者課程設計。
因為這項研究並沒有解決」腦腦「介面的關鍵問題,只是採購了國外的設備——腦電儀、蟑螂和電刺激晶元,然後組合使用了一下。
論文發表於ICRA,是機器人領域的頂級會議,但是會議就是會議,和Trans.及J.級別的論文差距還是不小的。
目前世界上在腦機介面方面做的最好的是下面兩個成果,兩項成果都發表於《自然》。
癱瘓者福音 美國研製思維控制的機械臂—在線播放—優酷網,視頻高清在線觀看視頻1.我記得這是2008年刊登於自然的成果,視頻下方的」nature video「是nature的官方水印。
2.目前我國的腦機介面研究受外科手術和感測器的影響很大,既沒有可以插入人腦的電極,也沒有能夠在人腦中植入電極的實驗。
猴子控制機械臂—在線播放—優酷網,視頻高清在線觀看視頻 1.上面的猴子用意念控制機械臂,是美國匹茲堡大學的研究成果。
2.浙大有研究團隊曾經對上面成果進行了模仿,下圖是浙大用的猴子,但是只能實現四個動作,和國外還是有差距。
還有一個比較有趣的項目」開放蠕蟲項目「,據說該項目中的樂高機器人已經可以像正常的蠕蟲一樣可以碰到牆壁返回,尋找食物了。以下為騰訊的新聞報道:
《樂高機器人被植入蠕蟲大腦:無需編程就能活動》
這些科學家正在研究一個所謂的「蠕蟲項目」,蠕蟲大腦規模顯然遠遠小於人類大腦。科學家們能夠繪製出蠕蟲相當簡單的302個腦神經元,並且進行軟體模擬。當然,他們不得不削減在少數複雜神經元,比如放電神經元。
當然他們必須使用感測器和輪轂取代實際的蠕蟲身體部位,而這項實驗的初步結果是相當令人象深刻和有希望的,因為這種機器「蠕蟲」根本無需編程就可以自動活動。這聽上去很酷不是嗎?將來我們甚至可以通過這項技術製造出虛擬蠕蟲,來探索進一步的實際應用。
科學家把蠕蟲大腦「上載」到樂高機器人視頻
接樓主問再說兩句。腦機介面的概念一點不假,這個就是正宗的腦機介面。我本人在的lab也一直在做腦機介面,所謂腦機介面,就是從大腦中直接提取電信號控制計算機等外接設備。這個事情的意義在於,正常我們是通過大腦發出指令控制周圍神經系統,從而控制軀體運動的,但是對於很多運動機能損傷的殘疾人,比如高位截肢、霍金老先生等等,他們沒法控制自己的身體是因為周圍神經系統壞了,所以腦機介面嘗試從中樞神經也就是大腦中直接提取信息,然後解碼出來,從而控制
機械手臂的外接設備,或者自己的身體。
腦機介面最難的部分在於,如何確定我們需要提取那些神經元的信息,如何提取這個信息並進行正確的解碼。因為我們大腦裡邊控制任何一個部位的神經元數量基本都是百千萬級以上的,而且編碼機理我們並不知道,而且集中在一個很小的區域。腦介面妥妥的學術前沿,因為大腦太複雜,我們對自己的腦袋實在知道得太少。
現在正統的做法是在大腦的運動功能區中植入一百個左右的微電極,記錄一小撮神經細胞的放電,然後看看這些放電的pattern能不能解碼出大腦想做什麼東西,可以做到讓人或者猴子控制機械手臂給自己拿吃的,這就是現在的進展。可以看到用的電極數量太少,而且植入三個月基本就不能用了,當然也無法準確定位到特定的神經元。
這個工作相對就簡單好多了,用的是頭皮腦電,就是不用植入電極。這種方法門檻就低很多了,當然精度也很差,國內好多學校都在做,除了清華醫學院的高上凱教授發明的SSVEP演算法可以採集大腦視覺區的刺激,從而解碼在計算機上實現打字操作,其他基本都是for fun的。。這個組想控制蟑螂的前進方向,貌似只需要採集大腦中「左」「右」兩個命令,這個就真心很容易了。
--------------
個人認為創新木有,最多算是把國外的技術國產化搞出產品了吧,Talwar SK 2002年在nature上發表過一篇Rat navigation guided by remote control.用幾乎一樣的方法操控小鼠,而且之前那個更複雜,不僅涉及到運動控制區,還涉及到大腦中的獎勵迴路,而且做的任務也複雜很多,蟑螂倒是簡單了好多,感覺這個組的神經生物學基礎估計比較一般,附上鏈接
http://v.youku.com/v_show/id_XNTc0MTk4MDk2.htmlsharefrom=iphonefrom=groupmessageisappinstalled=0x
其實挺反感這種不追求科學價值,只喜歡在媒體上炒作的行為(額不由聯想到了浙大做猴子運動的那個組專註模仿匹茲堡,不發paper只發新聞)。。
這種東西其實原理不複雜,用到的都是基本的信號處理和模式分類的知識,但是想到就很難了。所以第一個做的人確實牛逼,很牛逼,但是知道這個想法以後再仿造出來一個就不難了。當然重複前人的工作本身是很重要的,是後人的必修課。但是重複下13年前別人的工作就拉媒體來宣傳,而且讓人感覺像自己原創的似的,感覺就沒什麼意思了。。
個人愚見,創新性是沒有了,不過在腦計劃的浪潮下,吸引一下國人的興趣和眼球還是有些意義的哈。。不過為什麼要用蟑螂呢,感覺有點噁心哎。。是不是不需要動物倫理委員會審查哈哈作為交大的新生,我參觀過那個實驗室,我大致發表一下對這個項目的想法。就是沒有像外界宣傳的那般神乎其神。如果這個標題變成大腦控制小車,就不會有這麼多關注了。理由如下:
1.實驗原理是通過控制者觀看一定頻率的閃爍的圖片,從而機器讀取到相應頻率的電信號,進而轉化成方向的指令。比如左邊放著20hz的圖片,要向左轉,就看這個圖片。不藉助圖片的幫助不能操作。
2.傳出的信號被蟑螂背上的儀器接收,轉化成電信號刺激蟑螂移動,這個難度實際感覺和操作小車無多大差別。
所以這個項目變成個大新聞我感覺不太相稱。本人新生,對專業知識不是很了解,上述內容如果有謬誤歡迎指正。
應該是一個把腦波的feature當作trigger的機制,不確定的是被動腦波還是主動腦波,主動腦波需要大量的訓練,被動腦波就遠談不上腦腦介面了。我去了這個副教授的官網,沒有找到相關文獻。
後來才發現這是個學生的畢業研究,也就釋然了。
嚴格意義上講,算不上什麼前沿科研項目吧,但是起碼算是一個好新聞,讀起來我算是一個略知一二的都興趣盎然。
作為一個親身到實驗室見過這玩意的孩子,印象最深的還是學長那句——所有配件某寶上都能買到~【是的,連蟑螂也可以買到】
控制者頭部佩戴攜帶型無線腦電採集設備,控制者根據視覺反饋和視覺刺激,腦部產生方向控制意圖;計算機程序解碼腦電信號,識別控制者的控制意圖,控制意圖轉換為控制指令後無線發送到蟑螂的電子背包接收器;蟑螂腦部的觸角神經被植入了電刺激的微電極,這樣就製作出了一個可控的活體「機器動物」。
看清楚,是 觸角神經!
原理很簡單:就是刺激蟑螂觸角。
讓蟑螂右拐就刺激左邊觸角(蟑螂誤以為自己左側遇到了障礙物),讓蟑螂左拐就刺激右邊觸角。
根本不是什麼意念控制
萬一被反控制了怎麼辦?。。。細思恐極
有個學長機動的。後來剛出這檔子事的時候我兩一起吃飯。我問了問他。。他直接跟我說!!那就是一個很簡單的實驗。。什麼控制。。擺明忽悠人╭(°A°`)╮╭(°A°`)╮具體沒往下問。。負責人別打我
外行人目測,不是什麼重大科技突破,但作為一個碩士生的課題,應該是有意思並且合格的
沒聽說過。 你們媒體千萬要記得不要見的風是的雨,接到任何消息要有自己的跑到,把這種無中生有的東西你再幫他說一遍,等於你也有責任吧!
如果真能控制,那麼就沒有火星異種了
用光照控制蟑螂的很早有,用電極控制老鼠的也有,用電極控制蟑螂的難度應該比較大吧,畢竟蟑螂腦袋那麼小,電極植入很困難
我以前看見過計算機控制鴿子的,差不多七八年了,蟑螂只是二維的哦,而鴿子已經是三維了啊,原理大概就是讓鴿子害怕,然後利用鴿子逃離危險的心理控制它……好囧
腦機介面感覺不是很火了,但是實驗室要做項目,我這個小碩還是得搞啊,腦機介面核心就是模式識別那一套,想發文章還是得結合腦電特點對特徵提取和分類演算法做創新。腦機介面四大部分,信號採集,特徵提取,分類,應用。應用多種多樣,把應用換成對蟑螂的電刺激就有了這個新聞,比較新的腦腦介面感覺也是換湯不換藥
這個新聞,當我看到人腦控制的時候滑鼠伸向了標題,下一秒看到蟑螂一哆嗦把瀏覽器都關了,腦補了他們捉蟑螂做手術等等畫面,簡直太美不敢看!
推薦閱讀:
※為什麼有的人看書會瞌睡?
※植物葉的形狀與什麼有關?
※螃蟹蝦類有沒有痛覺神經,他們被蒸熟的時候會很痛苦嗎?
※為什麼人一旦死去了,就不會再活過來?
※為什麼海豚一出生就會游泳,馬一出生就會走路,而人類什麼都不會?
TAG:生物學 | 神經學 | 腦科學 | 腦電波控制 | 機械設計製造及其自動化 |