為什麼人會覺得二維東西是立體的?

照片,繪畫,動畫,電影……
眼睛是如何在赤裸裸的欺騙著我們?


你看到的整個所謂三維世界都只是三維世界在你視網膜上的二維投影而已,電影電視也只是把三維世界投影到膠片上然後投影到你視網膜上而已。
大腦通過分析三維世界的二維投影的規律來模擬三維世界、理解三維世界。因此只要二維物體各質點的發光頻率、強度模擬了三維物體的二維投影規律,就會被大腦識別出來,並自主地去模擬一個三維物體。如果還模擬了相位,就變成了全息影像,就會被大腦直接理解為三維物體。

哈哈哈哈哈哈哈哈知乎第一個百贊!
我一個愛好漢語和設計的碼狗居然憑一個自己從來不關心的領域的答案拿了第一個百贊。。。是喜是悲_(?_ ?」∠)_
哈哈哈哈百贊翻倍啦!!!_(?_ ?」∠)_


因為人有腿,實際上腿對空間感的作用比眼睛更重要。通過自主運動,人才能把二維投影的變化和三維坐標轉換對應在一起。如果天生腿斷了,手也沒力氣爬,甚至脖子都動不了,就不會有立體感。

之前有人做過實驗(略殘酷)。在一個很大的盒子內養兩隻貓,從剛剛能移動的狀態養起。其中一隻貓可以自主移動,身上固定著一套輕巧的連桿(不妨礙運動);另一隻貓不能自主移動,只能根據連桿傳導過來的位置被動移動,始終處於和另一隻貓對稱的位置。這意味著兩隻貓的看到的景象總的來說完全一致,區別只在於自己是否能控制運動。

圖文無關……

事實證明,被動移動的貓沒有空間感,雖然被放下來之後也有運動能力,但完全不能判斷距離(過了視覺神經發育期);那隻主動運動的貓則完全正常。可見動物的空間感不僅來自於眼睛,更來自於自身移動。實際上,剛出生的嬰兒是沒有視覺可言的,他(她)完全不懂如何處理視網膜上的投影信號。在接下來的兩個月,他也只能把特定的圖案(如人臉,尤其是媽媽的臉)和某些行為(如餵奶)對應起來。但對他來說,媽媽的臉經常發生大小變化,並沒有遠近變化的概念。只有在嬰兒學會翻身和坐起後,他才能用眼球和手配合跟蹤一個運動的物體,才有空間三維視覺。即人類的空間感也來自自身的運動。給一棵樹裝上眼睛並不能讓它獲得視覺。

  • 補充1:其實對於兒童來說,視覺圖像的「正反」並沒有非常明確的意義,尤其是在小範圍內。更何況視網膜上的圖像相對外界空間來說本來就是「反」的。如果強行把人看到的視覺圖像反過來,只要這個人還能運動,他也能在幾個星期內重建三維空間感。

三歲孩子的「倒視」現象

父母們是否遇到這樣的「怪事」:孩子已經兩三歲了,可他卻倒著拿玩具,倒著看連環畫。做父母的為此擔心孩子的眼睛異常。


說它怪,並不怪。孩子的這種表現稱為「倒視」,其實是一種正常的生理現象。一般發生在3歲左右的幼兒。

眼睛就象一架照相機,外界物體的光線,經聚焦後,在視網膜(相當於照相底片)上形成一個倒像。這種倒像傳導到大腦,經綜合分析,倒像就被糾正成正立像了。因此,我們平時所觀察和感覺到的各種外界景象都是正立的倒像。可見,人視覺中的正立像是大腦的一種適應性功能。但是,由於3歲以下的幼兒大腦皮層的發育還未成熟,缺乏完善的綜合分析能力,當他拿起書本觀看時,在視網膜上所成的印象反而是正立的,所以這些孩子往往都是不由自主地倒著看書。不過,倒視的持續時間很短,大多數小兒常未引起父母的注意。隨著大腦功能的完善,倒視現象就自然而然消失了。由於個體差異比較大,每個幼兒倒視持續的時間是不相同的。但是經過父母正確引導和糾正,倒視持續的時間可以縮短一些。一般來說,幼兒倒視需要幾個月後才能逐漸消失,有的持續時間還會長一些。


為了使孩子更快地渡過倒視階段,父母可以在這一階段多給孩子講解畫片內容,多讓孩子搭積木,玩直立動物,使孩子儘快樹立直立概念。


有沒有辦法證明倒視原本就是正常生理現象呢?有。


美國心理學家斯卓登曾經戴了一副類似照相機作用的特製眼鏡,於是,他看到的一切都倒了過來。可是,大約4天後,他看到的景物又都是正立的了。 原來,他大腦已適應了這種倒過來的圖像。 可當他摘下副特製眼鏡,他眼前的圖像又變成倒置的了。再經過一段時間,才恢復了正常視覺。

  • 補充2 :非洲的俾格米人一輩子在叢林中生活,無論在水平方向還是豎直方向,幾乎都看不到十幾米之外的東西(被植物擋住了)。所以,他們雖然有三維視覺,但一旦進入尺度大於幾十米的空間,就無法為物體進行三維定位了。草原這樣的開闊地貌對他們衝擊尤其大。俾格米人雖然個頭矮小,但基因和其他人種的區別微乎其微,有很多俾格米人和其他人種的混血案例,可見這不是基因問題,就是視覺神經信號是否與運動相關聯的問題。

  • 補充3:@圜丘城主提醒了我,這本質上還是鴿子為什麼這麼大的問題……


之前在live 3D顯示技術漫談 中我曾經講過,廣義的「立體感」其實非常容易產生,簡單總結如下:
1、雙目視覺。這點是大家最熟悉的,因為隨著3D電影和VR技術的普及,「雙眼視差會產生立體視覺」已經成為了常識性的存在。
2、像隨眼動。這點與督工 @馬前卒 所寫的內容相關。一個立體的物體,我們圍著它轉動的時候,自然應該看到不同角度的圖像與眼睛位置匹配。有些顯示屏(例如Amazon的Fire Phone)做了眼球追蹤,可以實現這種效果,還蠻有趣。(但也就是有趣罷了,沒什麼卵用。)
3、空間遮擋、光影關係、透視關係(近大遠小)等。這些都是日常經驗得出的「立體感」。最簡版本的就如同下圖:

問大家上圖是什麼,大多數人會回答這是個立方體,很少有人回答這是三個平行四邊形。現實的三維世界通過投影到視網膜上的二維圖像被我們所感知,因此我們也能夠從二維的圖像腦補出三維的結構。這是絕大多數情況下二維圖形產生立體感的來源。
總而言之一句話,腦子是個好東西。

前文中,我之所以說「廣義的立體感」,是因為若是以現實世界中物體的真實感為衡量標準,其實上述的第三點中,真實感並不強烈,不會產生那種「就像在眼前似乎一把就能抓住」的強烈而真實的立體感。

因此單張二維圖像能否產生這樣強烈的立體感呢?答案是肯定的。

我第一次得知這種方法,是在一本前蘇聯的科普讀物上。當時我正在讀中學,看完了這個章節後,迅速找來照片驗證,效果拔群。這本書就是前蘇聯著名科普作家別萊利曼所寫的《趣味物理學》,其中有一章叫做「很多人還不會看照片」。

別萊利曼寫道,其實看照片的時候,不應該用雙眼,而應該用單眼。當把照片放在合適的位置的時候,單眼就能夠看到非常強烈的立體感,彷彿照片中的景物就在眼前。這個所謂「合適的位置」,其實就是指照片中物體對人眼的張角等於拍攝時物體對相機的張角。由於手機相機視場角往往比人眼視場角大,所以大家可以拿出手機做個試驗:拍攝一個桌上的物體,然後將手機放在你的眼前(距離舒服就好,比如不近視或者戴眼鏡就放在25cm明視距離附近,近視的話就放的近一點),然後手動放大這張照片,直到調整到合適的張角,會出現強烈的立體感。

大家可以Have a try。


不是眼睛,是腦子。眼睛若不考慮雙眼視差帶來微弱的距離感判斷能力,本質上就是個接收二維信號的感官器官。理論上你看到的所有東西不管是否有空間有體積,都是在視網膜上二維排列的,是沒有三維的信息的。

是你牛逼的大腦強行運用這些二維信息分析出相關的三維信息。


不邀自來!正在學習心理的人要強答一波了!
之前的答案其實提到了很多直覺性的說法,比如人眼識別物體遠近是靠光影,是靠物體的遮擋關係等等。我來系統說說人眼和人腦是怎樣通過視網膜上投影的二維畫面來識別物體遠近的。
首先,人們判斷深度的方法可以分為兩大類。第一類叫做單眼線索(monocular depth cues),指的是只依賴於單隻眼睛作出的判斷。第二種叫做雙眼線索(binocular depth cues),指的是需要同時依賴於兩隻眼睛作出的判斷。
首先說說單眼線索吧,大致有以下6種:
1.相對大小(relative size)如果其他所有條件都一樣,距離較遠的物體會顯得比較小。
雖然下圖兩個圓一樣大,但是後面那個就是「大一些」

2.物體紋理(texture gradient)距離比較遠的物體紋理會更模糊

3.遮擋關係(interposition)離得比較近的物體會遮擋離得比較遠的物體。

4.線性透視法(linear perspective)平行的直線在無窮遠處交與一點

5.光影效果(light and shadow)物體的光影可以展現出它們的三維形狀

6.平面高度(height in plane)遠處的物體看起來處於更高的位置

再說說雙眼線索,雙眼線索主要是大腦分別處理兩眼傳來的信息,而作出的判斷。主要分為兩種:
1.雙眼視差(binocular disparity)讀者可以分別閉上兩隻眼睛看一下,看到的畫面是不一樣的。如果兩隻眼睛看到一個物體的位置差異越大,這個物體就越近

2.雙眼匯聚(binocular convergence)我們看距離近的物體的時候,會對眼(圖中是我可愛美麗機智的女票)

如果像是題主說的,看到一個2D圖片看出3D效果,那應該是屬於單眼線索那六種~
題主作為美術生還可以移步這個答案,感覺寫得不錯 http://www.zhihu.com/question/27292271/answer/129415432
歡迎追問~


「光影效果」讓你的腦補系統啟動了三維建模功能


人的立體視覺是由多種效應共同作用行成的。現在機器視覺中的各種立體視覺演算法主要也就是參考人類的方法實現的。
1)透視變換
簡單地說就是近大遠小效應,人類對真實世界物體的尺寸有一定先驗知識。如果視野中原本應該相同尺寸的物體表現出不同的大小,那麼小的物體在遠處,大的在近處。如下圖所示,單就一張普通的圖片,我們就能判斷哪些物體是離我們較遠的。

但這個方法Bug太多,很多視錯覺就是因為這個效應產生的,如下圖就是通過不同尺寸的網格來誤導人的視覺系統。

在機器視覺領域,這個三維定位方法被廣泛應用。最常見的就是二維碼定位演算法。

如果已知二維碼尺寸,僅適用一個普通攝像頭就可以算出二維碼與攝像頭的相對位置(3D)。

2)雙目視覺
這個是比透視變換更可靠的方法之一,如下圖所示,同個物體在視網膜上的投影位置會隨著物體離觀察者的遠近而發生變化。大腦通過處理這一微小區別能得到比較準確的距離信息。

當然,在機器視覺中,這也是非常常用的方法。首先,通過SIFT等特徵點方法可以提取到兩幅圖片的相同點。

之後,通過簡單的三角關係便可以求取得到深度圖片。

3)運動視覺(structure from motion)
但是,人兩眼之間的距離有限,當物體距離較遠時,雙目系統對距離的敏感度就大大降低了。而且,雙目視覺的演算法很複雜,有相當一部分人的大腦並未掌握通過雙目視覺生成立體圖像的功能。因此,人類還有另外一個更厲害的技能,就是通過運動來構建立體視覺。原理與雙目視覺類似,但是由於移動的距離遠大於兩眼的瞳距,所以立體效果更好。
如下圖,所謂的裸眼3D,就是讓你分別看到不同角度的圖片,大腦自動會腦補成立體圖片。

點擊查看動圖
機器視覺中這樣的技術一般稱為Structure From Motion.


不謝邀。因為根本沒人邀請我。

打個比方,你認為耳朵聽到的聲音是什麼?稍微有點物理知識的人都知道聲音是振動,而且常人的聽覺頻率在20hz~20khz之間。也就是說你所謂的聲音只是自然界特定頻率的振動,通過鼓膜的作用在你的大腦里產生的特定反映形式。聲音的實質是振動,音樂是振動,言語是振動,然而當一個人欣賞巴赫或者simon garfunkel時,他會把注意集中在旋律上;當情侶呢喃時,他們也只會關以聲音作為載體的文字表達。在這些情況下,大多數人都不會意識到我們聽見的只是周圍的空氣在帶動我們的鼓膜振動。

這和人認為二維的東西是立體的有聯繫嗎?
當然有。

如果細想,便會從上面的例子發現這樣一個事實——無論是從柏拉圖到鮑勃迪倫,還是從荷馬到沃爾特 惠特曼,我們所描繪的世界全都是我們感知的世界,見證的美不過是我們以為的那樣。這是我們進化至今賴以生存的優勢,也是探索自然最大的局限。無論願意不願意,你所認識的一切都是經過眼睛、鼻子、觸覺、嗅覺、感覺加工過的,這是不可迴避的事實。

所以問題不在於把把二維的東西看做三維,而是你所見到的不論是二維還是三維都不是它們原來的樣子,而是你理解的樣子。


高票答案中說因為人有腿,這是不準確的,天生四肢殘疾的人依然可以感受到三維。

其實平面圖從來沒有欺騙我們,如果你真認為2D片是3D的,那3D電影就沒有存在的必要了,你很清楚一副圖畫只是一個平面,不是么?

要回答眼睛怎麼感受到三維,首先我們得澄清一個誤區:眼睛是否只能感受二維信號?

這個問題下的所有答案似乎都認為是的。

然而準確說來,並不是。眼睛的晶狀體承擔了透鏡的作用,該透鏡通過改變焦距使得所關注物體處於焦平面上。這個動作的原理單反相機鏡頭對焦是類似的。

換句話說,我們的眼睛內置一個自動對焦系統,而自動對焦系統具有測距功能(任選一個單反,半按快門對焦,鏡頭是會顯示對焦距離的,這就是個測距系統。)

我們天生知道測距,知道物體還有遠近這一屬性,所以同視網膜成像相結合,大腦逐漸鍛鍊出通過二維物體與測距信息提煉出三維場景的能力。

結論:人腦合成三維,這是沒錯的,但眼睛並非僅僅提供二維圖像,還是一個高速的測距系統與對焦系統,能獲取所見物體的大致距離信息,人眼很清楚的知道所見物體不出於同一平面上。大腦通過這所有信息能夠更好的構建三維場景。

--

補充:人眼不但通過對焦測距,還通過相位測距。不同距離的物體,在雙眼中的相位差是不同的。因此如果人為製造相位差來實現虛擬距離會造成人眼疲勞。

典型的就是3D視頻,通過人為製造相位差來欺騙眼睛認為這些圖像中不同物體位於不同的距離。但眼睛的對焦測距系統依然認為它們處於一個平面(都在電影屏幕上),這使得對焦測距系統長期處於蒙逼狀態,時間長了會造成疲勞。

絕大多數人眼都可以分辨出一幅畫和真實場景,因為人有相位測距跟對焦測距兩大系統,遠處物體的距離可能無法精確判斷,但近處的距離測定還是相對靠譜的。


首先,二維圖像的生成,人大腦處理的這些二維圖像都是,三維圖像通過透視法轉成二維圖像的。
然後,人腦只要用透視法的逆演算法處理二維就能相應的三維圖像。
這個演算法並不完美,所以,有時候會產生幻覺。有些二維靜態圖像看起來還是會動的呢。


左腦思維和右腦思維是不一樣的。

一個是符號抽象,一個是感知。
也就是所謂的理性、感性。

其實「平面圖像」欺騙的是你的左腦。你的右腦是不會被欺騙的。


腦補了


因為人的大腦處理了2維信號,組合成3維數據信號投射在大腦負責想像力的區域,可以讓你產生3維事物的畫面。3D電影也是用這個方式來欺騙你的大腦。

所以,這個世界到底是什麼樣子,這個世界到底是不是真實存在的,我們都無法確定。如果把大腦接入一個虛擬的計算機世界,所有的感官都發送給你和現實世界一模一樣的信息(視覺觸覺聽覺等等信息),那我們是無法區分這是虛擬世界還是真實世界的。


不負責任主觀臆斷猜測。
一隻眼睛只能記錄二維平面的信息,嚴格意義上是角度,但是由於缺少你與物體的距離,沒法算出在三維空間內你和物體的相對距離。所以為了解決這個問題,我們有兩個眼睛,通過兩個眼睛的視差來算出你到物體的距離(已知物體到兩個眼球的入射角和兩眼間距離,通過角邊角三角形是可求的)。但這麼做卻有個問題,既然是通過視差,那麼必然有一隻眼睛看到的東西另外一個眼睛看不到(例如你用手遮住其中一個眼睛),這個時候雖然視差測距不管用了,但是你會發現你還是能夠大致分清物體的遠近。因為通過長期的訓練人腦早就研究出一套判斷遠近的規律:透視,簡單地講就是近大遠小。
所以為什麼我們在看有些二維的東西的時候也能有三維的錯覺?因為我們大腦發現視差不管用的時候啟用了名為透視的後備方案啊。

不過這畢竟是後備方案,不夠精準,記得那些視覺欺騙的圖片么?很大程度上就是利用人眼在二維平面透視造成錯覺,而正因如此所以這些圖片都是二維的,如果把那些圖換成3d(帶眼鏡的或者直接3d列印出來)的你就不會那麼容易上當了。


我覺得除了上面各位的答案外,是不是需要考慮聚焦的問題。

人眼在判斷真實世界的時候,其實是很快改變焦點獲得很多幀圖像後又處理的。焦點改變包括方向和遠近。vr很難模擬這個,所以不夠真。二維圖像更沒有這個所以也不夠真。

這也是視覺區分於聽覺的一個巨大特徵。


眼睛並沒有欺騙你
眼睛作為信號接收器,只能接收三維物體在二維的投影。
也就是說,除了觸摸,我們從未直觀的見過三維物體究竟是什麼樣子。
大腦結合你眼睛識別出的二維投影,再結合觸摸的經驗,在腦內構建了一個三維模型。
但就算是這樣,很多時候我們的大腦也不能成功建模。
作為工科生的我在大一的時候見了太多的同學畫錯工圖。
題外話:如果我們的眼睛真的可以接收三維物體的真正形狀的信號而不是它的二維投影的話。
那我們對於高維(這裡主要指四維)空間的探索將方便很多。
PS:一直把第四個維度當時間維的人請不要在意這個答案。


從光學角度上來看,構造全息的基礎理論的要點在於要通過某種方法同時得知圖像強度信息和相位信息。這樣重新構造出來的圖像,才會有立體的感覺。
人需要通過兩個眼睛、兩隻耳朵才能定位。現在計算視覺的一些基礎演算法也是需要兩個攝像頭,因為一個CCD只能得到強度信息。
人腦是通過經驗來分析的,和科學上的分析應該不是一個東西了。

另外不實名反對以前第一名的某些觀點哈。
沒有運動能力就沒有遠近的概念。我認為這是誤認相關性為因果性。

一個天生腿部殘疾的人可以培養正常的立體感,而一個天生的盲人。。。大腦無法處理圖像信息的話培養立體感確實有難度啊。

另外貓眼睛的焦距限制其在近距離無法看清物體,近距離對外界的感受主要通過鬍子來判斷。如果一隻貓真的在幼年缺乏對鬍子的判斷與利用。比如這隻貓出門就撞了一個人,可能是因為它本來前方半米的距離就看不清的同時還不能利用鬍子,不能完全證明是因為它缺乏立體成像和處理能力。


光學上一般說的是5米左右以內,人類的經驗可以推斷出立體感。這種情況下單眼也可以有立體感。

系統點說,主要是借用Horn的機器視覺書里的說法,可以通過反射圖,來解決一般情況下從明暗恢復形狀的問題。一般情況是指,物體表面不同部分不同朝向會產生不同亮的像,一般的物體表面都是光滑的『曲面』,邊緣處才會變得不光滑,這就允許我們判斷一個物體表面的形狀。當然投影之類也會有立體感。極端的情況就不行了,比如兩個獨立的物體特殊擺放,或者光照很奇怪就不行了。


腦子是個好東西


其實,那些立體畫在實物的情況下是很容易看出來是平面的
但是屏幕輸出的是2D投影,只要拍畫的角度合適【看起來】和3D一樣就行了


推薦閱讀:

德國納米增高素真的有用嗎?
色盲是怎樣的體驗?
什麼是安慰劑效應?安慰劑效應與哪些因素有關?
有強迫症的人是不是智商比較高?
特應性皮炎具體是一種什麼類型的皮膚病?

TAG:心理 | 視覺 | 物理學 | 醫學 | 生物 |