Kinect攝像頭為什麼肉眼看是紅光,在照片上藍色的呢?

xbox one 的Kinect的攝像頭(就是電視下面的那個),中間有三個散發紅光的攝像頭是用來感知紅外線的嗎?為什麼要三個?還有為什麼我用手機拍Kinect 攝像頭時,照片照出來是散發藍光的呢?


首先糾正一點。攝像頭是不發光的,那是發射管。三個的原因是,Kinect 2用的是time-of-flight的方法測量深度。發射一個光,接收到它的反射後,測量一來一回的時間,乘上光速得到距離。然而光速太快了,時間非常短很難直接測量。取而代之的方法是,測量相位差,相位差可以直接反映成亮度。所以需要多個,取相位差。

實際上所有的數字照相機,感應器都是單色的。之所以能拍到彩色照片,是因為前面有個膜,用來在不同的像素上留下不同顏色的信息。這叫做Bayer filter。

所以,相機拍到的是什麼顏色,取決於那層膜讓什麼顏色通過。你肉眼直接看Kinect的發射管,看到的是紅色的部分,而不是紅外線的部分。紅外線除非天賦異稟,不然人眼看不見,否則就不叫紅外線。人眼感應到連續的光譜後,視錐細胞會按照下圖的權重進行相應,得到RGB三色。

而照相機不需要遵守視錐細胞的權重分布,那層膜上的響應情況是可以自定義的。很多低端照相機,膜往往有頻率泄露的現象。比如,藍色通道不是只有高頻一個尖峰,而是高頻一個超低頻一個。而紅色通道搞得很寬,覆蓋到近紅外區域了。所以,Kinect的近紅外線、或者電視遙控器的近紅外發射管,都會被映射到藍色通道和一部分紅色通道上。結果看到的就是紫色。


因為是紅外線的唄 你拍遙控器那個紅外發射器也一樣


@叛逆者 已經回答了問題。這裡補充一點。可見光成像設備對紅外波長的敏感是由半導體感測器及相應的光學元件共同造成的,二者缺一不可。

如 @叛逆者 所說,人類業已製造出的光電感測器本身大都是單色的,而且光譜的響應可延伸至1000 nm以上。因此,可見光譜之外的光輻射對可見光圖像來說便是雜訊,會對可見光圖像造成污染。通常,可見光成像設備的CCD/CMOS感測器前都安裝有紅外截止濾光片(IR cut-off filter),這種濾光片可有效反射或吸收紅外線。

在網路上可以查到,Kinect IR Projector的激光波長為830 nm,而CIE 1931 xyz 2度觀察者的波長範圍為380nm-780nm。通常的紅外濾光片截止點在700 nm附近,而有些濾光片對750 nm以上的輻射仍然有響應,如圖(http://www.optics-online.com/OOL/pics/IRCcurve40.gif)。

由此可見,Kinect發射的波長為830 nm的激光,穿過手機攝像頭的鏡頭、紅外截止濾光片、光學低通濾波器、濾色片矩陣等光學元件後,被感測器捕捉到,轉換為電子,進而污染了可見光成像。至於為什麼呈現藍色,只能說與攝像頭硬體的顏色傳遞特性及軟體的顏色處理流程有關。在沒有具體測量數據之前,很難判斷出原因。不過,題主不妨使用其他手機、相機來拍攝同一場景,看看是否仍然呈現藍色。


給 @叛逆者 的回答補充幾點,kinect 的光波長是集中在830納米左右的,在紅外線範圍內,但是大家都看到紅色了,是因為那光太亮了,一般人眼對紅外線是有感應的,只是感應效率太低而已。對,就是太亮了,在三米遠處仍能達到陽光的萬分之一,額,自然的力量更強大。

手機拍出來的顏色估計會千差萬別,能想到幾個因素:
第一個白平衡設置,這個不多說了
第二個@叛逆者 說的,單色filter在可見光以外的波段是有通過的,如果你想一想整個電磁波的譜,紅外,微波,長波,紫外,X光,伽瑪射線,其實大部分都可以歡樂地穿過,當然估計也歡樂地穿過了/繞過了整個CCD。
我的手機拍是紫色的光暈,但是仔細看那三個發光二極體其實是白色的,說明紅綠藍三個通道都飽和了。


推薦閱讀:

有哪些好的p圖軟體?
為什麼有了拍照手機,還需要買相機?我就隨便拍拍,需要給手機搭配一款什麼相機?
2017年,你拍過哪些美好的照片?
你曾拍過或者見過的最美的月亮是什麼樣的?
哪些圖片應用的濾鏡比 Instagram 的更好?

TAG:Kinect | 視覺 | 顏色 | 手機攝影 |