求科普鬼成像技術?
原理,能拍很遠的東西么?成像是三維的么?諸如此類請科普,謝謝
=========================求是理論網消息,據中科院上海光學與精密機械研究所介紹,該所科學家在國際上率先建成了第一台激光三維強度關聯成像工程原理樣機(國際同行也稱之為「單像素三維照相機」)。據悉,該項成果來自該所研究員韓申生領銜主持的國家「863」項目「激光三維強度關聯成像技術研究」和「被動光學多光譜強度關聯成像技術研究」。項目日前在滬通過了科技部組織的專家驗收。 韓申生介紹說,該項目在國際上首次完成了實際室外典型遙感場景中的激光三維強度關聯成像實驗,並初步建立和驗證了微波凝視關聯成像的基本理論體系。 關注全球最新技術的網站「MIT技術評論」在早在今年1月29日就率先報道了中國「80後」科學家在實驗室中成功研製出這一相機的消息,據稱,用這台相機拍照,可輕而易舉地獲取空間飛行器的全息圖像。一位署名戈登.羅素的網友詼諧地說:「有了這個技術,很快我們就能給星際飛船拍全身像了!」平時我們所見的相機都有一個統一名稱——光學成像。而單像素3D相機所做的,是利用光和電磁波的無規漲落性質進行成像——即量子成像,俗稱「鬼」成像。
磚家來回答一個~
要回答題主的這些問題就要首先知道鬼成像是怎麼發展過來的,下面開始說說歷史:
1956年Hanbury Brown和Twiss兩哥們想測量天狼星的直徑,怎麼測呢?他們開始想用邁克爾遜干涉儀的方法測量,大家知道邁克爾遜干涉儀是根據兩束光場E1和E2的干涉條紋來確定光程差(也就是距離的),既然是干涉條紋,那就需要兩束光的相位要相干,而相位相干,我們把它叫做光場的一階關聯g(1)。但是天狼星離地球何止十萬八千里,大概是8.6光年的樣子,所以兩束光的相位在到達地球後早就因為傳播過程中的擾動而不相干了,所以根本測不出。於是,他倆一拍腦子,說既然光場E1和E2的關聯測不到,那我們就測測他們光強I1(I1等於E1的平方)和I2的關聯看看,也就是二階關聯g(2)。光強值相對於光場的相位信息來說穩定多了,經過積分求平均後,信號出現了。於是,他們不僅一年灌了兩篇Nature(Nature 177, 27 (1956). Nature 178, 1046 (1956).),還從此成就了以自己名字命名的量子光學中的開山實驗——HBT實驗。之後Glauber在此基礎上繼續開創完善光場的關聯理論(Phys. Rev. 130, 2529 (1963).),一舉創立了量子光學,並因此成就在2005年獲得諾貝爾物理學獎。那鬼成像跟HBT實驗又有什麼關係呢?
我們知道光強I(r,t)既是空間也是時間的函數,當我們把t1=t2確定後,只看兩路光在空間r上的關聯,這就是鬼成像。我們讓一路光通過物體(或者被物體反射),然後把透射光(或者反射光)在空間上各個像素點的光強都加在一起,變成一個總光強I1,這裡I1是一個數;另外一路光不通過物體,但是讓它走和第一路光一樣長的距離,之後把它空間上各個像素點的光強分布值都記錄下來,即I2,這裡I2是一個矩陣。單單知道I1或者I2都不能得到物體的像,但是把I1和I2乘起來再通過多次測量取平均就可以恢復物體的像了。這就是鬼成像的原理了。
鬼成像一開始是由馬里蘭大學的史硯華組做出來的,用的是量子糾纏光子對,他們認為這是量子效應。但是後來,羅切斯特大學的人用經典光源也做出來了,他們認為鬼成像用經典理論也能解釋。於是人分兩撥,史硯華站量子解釋,麻省理工的J. H. Shapiro和羅切斯特的R. W. Boyd站經典解釋,開始干仗。
題主問能不能拍很遠的東西,其實,本質上鬼成像和HBT實驗是一樣的,HBT連距離8.6光年的天狼星的直徑都能測出來,所以距離遠近對於鬼成像來說自然不成問題。當然,距離太遠的話,物體就會變小,越小的東西想要拍清楚難度當然更大。
鬼成像基本上是黑白二維的。第三維其實就是焦距的變化,物體離得近和遠需要的焦距不一樣,通過焦距的變化調整,就可以獲得物體的第三維信息,即深度信息。至於題主引用的新聞里說「一位署名戈登.羅素的網友詼諧地說:「有了這個技術,很快我們就能給星際飛船拍全身像了!」」,我相信只是為了搞個大新聞而搞個大新聞。
現在鬼成像的研究方向主要在於:
(1)換不同的光源來做,從量子糾纏光源到經典熱光源,從波長最短的X射線到紅外線,去年12月澳大利亞的人第一次用有質量的粒子做鬼成像,發了鬼成像有史以來的第一篇Nature(Nature 540, 100–103, (2016).)
(2)想把鬼成像儘快用於實際,但是必須解決成像積分時間長,並且成像質量不高的問題。為了解決這兩個問題,人們提出了各種成像演算法,其中最牛的要算壓縮感知演算法了,當然,壓縮感知一開始並不是為鬼成像設計的,但是被拿過來用以後,發現效果巨好,成像速度能提高一到兩個數量級。
更新: (鬼成像 vs 單像素成像)
近5年來鬼成像的研究,至少從發表的論文上來說,成大幅減少的趨勢。這大概是因為兩個原因:一是裡面看得見的新的物理挖掘得差不多了,二是逐漸向實際應用方向轉化。零幾年那會兒研究鬼成像的主要是物理系的,現在慢慢變成電子系或者計算機系了,這是因為另一個東西的出現:單像素成像(single pixel imaging or single pixel camera),或者叫計算成像(computational imaging)。下面開始講講單像素成像和鬼成像的關係。這又得牽扯到了上面說過的壓縮感知(compressed sensing or compressive sampling),2006年的時候,也就是鬼成像出來11年後,壓縮感知被首次理論上提出,在圖像處理界是一個巨大突破,它基於圖像的稀疏特性,在大幅減少了採樣次數的同時能高質量恢復出圖像。在這兩年後,也就是08年3月出了一篇文章(Single-pixel imaging via compressive sampling),就是利用壓縮感知進行單像素的成像,這篇文章目前引用率馬上破2000。非常有意思的是,在08年12月,上面提到的MIT的J. H. Shapiro在PRA(R)發了一篇理論文章(Computational ghost imaging),目前引用率400多次,主要思想是把傳統鬼成像所需要的兩路光改為一路光,用一個空間光調製器(SLM)產生隨機強度分布,從而替代參考光那一路,於是只需要用一個單像素相機就可以完成測量,他的目的是想就此論證鬼成像完全可以用經典理論解釋。之後壓縮感知的演算法在09年被引入了鬼成像的圖像恢復中。同樣都是08年發出來,J. H. Shapiro的文章發出來晚,不知道是不是受到單像素成像文章的啟發,或者又會不會是做單像素成像的其中有人知道一些鬼成像的原理,加以了改進~再更新:剛展望完,就發現arxiv上面一篇文章了-_-||
Computational ghost imaging using deep learning. https://arxiv.org/abs/1710.08343感覺就是全息術的應用吧。
傳統光學成像都是物體反射出的一根根光線進入鏡頭,落在膠片或電子元件上,一個個光斑排列在一起,形成一幅圖像。但「鬼」成像卻把自然界想像成一個由無數光子組成的量子場。這個場里的光子會不停漲落,每一個的狀態都能計算出來。因此,要得到圖像,不再需要依靠光線進入成像鏡頭,而只需要依靠反射光波能量的探測和計算——彷彿幽靈般可以靠意念洞察一切。
鬼成像一個是偏向資訊理論的,一個是相信光學的。偏向資訊理論的我比較熟悉,主要用的就是壓縮感知復原,每一個random pattern給你一個採樣,最終通過L1 Optimization會給出結果。 但是通過光學理論的就不明白了,感覺好高深!
QGI(quantum ghost imaging)是利用兩束光的空間關聯或時域關聯來對物體成像的,但是單獨測量其中的任意一束光均不能得到物體的像。 QGI的概念可以追述到1995年pittman的方案。即由量子光源照射物體,並用不具有空間分辨能力的單光子探測器收集,閑頻光子不照射物體,卻由具有空間分辨能力的探測器收集。在此條件下,單獨分析任何光路都不會得到物體的像。但是對二者的結果進行適當計算即可得到物體的像。 QGI的物理解釋是量子空間模斑關聯或者等效雙光子干涉。 最後請@白如冰白大大指點~
鬼成像技術源於量子糾纏理論的誕生,及光學成像呈現非定域性,什麼意思呢?簡單的來說,你可以通過兩個不同方向的探測器掃描物體每一點的光學強度,通過關聯函數,可以用電腦模擬出物體的像,而無需傳統光學一樣,只能是沿著光路成像
推薦閱讀:
※你在生活中用過最高端的光學/光譜學知識是什麼?
※群速度推導?
※如何能夠以光線為介質實現數據交換?其工作原理是怎樣的?
※當人以接近光速運動時 由此產生的一個問題?