如何通俗地理解 2014 年諾貝爾化學獎「超分辨熒光顯微技術」的技術原理及其帶來的改變?

「超分辨熒光顯微技術」指的是哪些呢?與普通的熒光顯微技術相比,實現了哪些技術突破?以及具體應用於哪些工作場景?為該工作的開展帶來了怎麼樣的改變?

此問主要從技術層面討論,如不過癮還請關注系列問題:
2014 年諾貝爾化學獎「超分辨熒光顯微技術」的「化學」含量有多少?
如何評價2014年諾貝爾化學獎?


私貨已經在另一個答案(如何評價2014年諾貝爾化學獎?)裡面吐槽過了,來認真寫個答案吧。第一次寫同時面向非專業和專業人士的科普長文,希望沒看明白的同學留言指出,我盡量修改,謝謝!
------------------------------------------------

2014 年的諾貝爾理綜獎頒發給了「超分辨熒光顯微技術」。也許接下來的幾天,媒體會關注 Stefan Hell、Eric Betzig 二人的傳奇經歷,或者另一名華人女科學家與該獎項失之交臂的遺憾。但是八卦之外,這項成果背後的科學本身也非常有意思。

這裡面有三個關鍵詞:「超分辨」、「熒光」和「顯微技術」,我希望能夠解釋清楚以下幾個問題,尤其是後兩個問題:

1. 為什麼需要(光學)顯微技術?
2. 為什麼光學顯微鏡的解析度存在理論極限?
3. 用怎樣的方法可以突破這個理論極限以達到「超分辨」?為什麼這個理論極限可以被突破?
4. 為什麼非得是熒光顯微技術,而非普通的明場(透射光)顯微技術?


1. 採樣定理與顯微鏡
我們用肉眼觀察或者用相機拍攝一個物體時,物體上的每一個細微的點都會在眼睛的視網膜或是相機的感光晶元上成像。那麼我們為什麼不能看到細菌等微小的東西,為什麼不能把照片無限放大以看清遠處樹木上面的每一片葉子呢?

這個問題的答案比較簡單:因為組成視網膜的每一個感光細胞(視桿細胞和視錐細胞)、相機晶元上的每一個感光元件(CCD、CMOS等)都是有大小的。比如視網膜中央凹區域的視錐細胞直徑平均約為 5 微米。而由於奈奎斯特-香農採樣定理的限制,視網膜上能分清的兩個相鄰像點的距離是視錐細胞直徑的兩倍,即 10 微米。再結合眼球的構造,大致可以推斷出,在距離眼睛 25 厘米的位置,我們能分辨物體上相距為 80 微米的兩個點,換算成點陣密度就是大約 320 ppi,這也是蘋果所謂「視網膜屏」解析度的來歷。

如果要觀察小於 80 微米的物體,比如細菌,就需要先將物體放大,再用眼睛或者相機觀察。現代光學顯微鏡的構造其實非常簡單,樣品放置在物鏡的焦點處,從樣品上發射或散射的光經過物鏡變成平行(準直)光,再經過一個結像透鏡,然後會聚到相機的感光晶元上成像。

按照前面的方法來推算,要區分物體上相距為 200 納米的兩個點,如果使用科研級相機,比如最近火起來的 sCMOS 相機(每個感光像素尺寸為 6.5 微米),只需要使用放大倍率為 65 倍的物鏡就足夠了。

那麼是否可以通過提高物鏡的放大倍率來觀察低於 200 納米的物體,比如細胞裡面微管呢?

答案是不可以。

2. 光學衍射極限
由於光是一種電磁波,具有衍射和干涉的特性。

圖 1. 光學顯微鏡簡化示意圖

如上面的簡圖所示,紫色箭頭表示的物體 PQ 經過物鏡等之後在相機上成像為P"Q"。由於光的衍射,物體上的點如 P、Q,在相機上並不是單獨的點,而是一個個有一定大小的斑,被稱為夫琅禾費衍射斑(或稱艾里斑),如右側的同心圓所示。那麼,當 P"、Q" 相距太近的時候,兩個斑會疊加導致難以分辨。這就要求物體上的 P、Q 要相距一定的距離。

1873 年,德國物理學家、卡爾蔡司公司的恩斯特·阿貝(Ernst Abbe)首次推算出衍射導致的解析度極限。根據瑞利判據——「當一個像斑的中心落到另一個像斑的邊緣時,就算這兩個像剛好能被分辨」,顯微鏡能分辨的物體上兩點 P、Q 的最小距離 h 為:

h = 0.61 lambda / (n * sin	heta)

這個公式就是光學顯微鏡的解析度公式,或稱為光學衍射極限。(注意此處的解析度與通常說的顯示器解析度含義不同)

其中,lambda為光的波長,n 為物方的折射率,	heta為物體與物鏡邊緣連線和光軸的夾角。如上圖所示。為方便起見,其中的 (n * sin	heta)通常稱為數值孔徑,簡寫為 NA。

攝影領域常用 f/# 或稱光圈值來描述鏡頭,光圈值與數值孔徑可以相互換算。對於一枚光圈為 2.0 的鏡頭來說,數值孔徑為 0.25,其分辨能力約 1.2 微米。

目前常用的高倍物鏡 NA 最大為1.49,可以算出,對於可見光,比如波長 500 納米的綠光,顯微鏡的解析度約為 200 納米。所以,即使再提高物鏡的放大倍率,也不能提高顯微鏡的解析度。

而 200 納米這個數值也就通常被稱作衍射極限。

2.5. 光學衍射極限的動態範圍
從上面的公式可以看到,光學衍射極限其實並不是一個具體的數值,如果改變上述公式中的參數,是可以有效提高解析度的。

(1) 光的波長 lambda
可見光波長範圍是400~760 nm,如果使用更短波長的光,比如紫外線,理論上可以提高解析度。但是紫外線能量高,易損傷樣品,而且透射能力低,很難透過物鏡。人們想到了使用高能電子束代替光束,比如 200 keV 的電子對應的的布羅意波長為 0.0025 納米 (2.5 * 10^{-12} 米)。雖然 NA 相對較小(	heta約為10°),依然可以達到0.1 納米的理論解析度。這就是電子顯微鏡的基本原理。

嚴格的說,電鏡的解析度依然限制在光學衍射極限的範圍內。只不過這裡的「光學」是「電子光學」。

(2) 物方折射率 n
空氣折射率為 1,水的折射率 1.33,玻璃折射率 1.58。目前主要的物鏡都是玻璃材質,並在物鏡與樣品之間用與玻璃折射率一致的油來浸潤,以提高解析度。

2012 年 Olympus 發布了一款 NA 高達 1.7 的物鏡,光學部分使用藍寶石(折射率約 1.76)製作,並搭配高折射率的鏡油(目測成分應該是二碘甲烷 Methylene iodide)。

也許在未來能發明比玻璃更好的材料,折射率更高、易於製作透鏡、並且能找到高折射率的油,這樣就能進一步提高解析度。

比如用鑽石(折射率大約2.42)打造一枚土豪物鏡,並找到同樣折射率的透明液體,解析度可以提高到 1.5 倍。當然,由於成本及工藝因素,目前尚不現實。

(3) 孔徑角	heta
看起來 	heta 的最大值是 90°,但是如果在樣品的上下兩面都放置物鏡,相機同時收集這兩個物鏡中的光呢?

這種方法就是 Stephen Hell 在 1991 年發明的 4 Pi 顯微技術。此時衍射極限的公式稍有變化,解析度能提高一倍。

簡單理解,限制解析度的一個原因是從物體上向四面八方發射的光線在經過透鏡時,由於透鏡大小(孔徑)的限制,所以很多光線沒有經過物體,其承載的物體的「信息」丟失了。而 4 Pi 其實是通過兩個物鏡收集了更多的光及「信息」。每個高 NA 的物鏡離物體都非常近,所以幾乎能收集到各個角度的光,這也是 4 Pi 這個名稱的來歷——一個以物體為球心的球體其立體角的大小就是 4pi

另一種「結構照明顯微技術(SIM)」很聰明地通過類似摩爾紋的原理,獲取到更多「信息」,也可以將解析度提高一倍。解釋原理需要用到傅里葉光學,在此就不詳述了。它由已故的 Mats Gustafsson 教授於 2000 年發明。

那麼問題來了,是否還有辦法「真正」突破衍射極限,使之並不受限於這個公式呢?

3. 突破光學衍射極限
前面的公式推導過程中,有兩個隱含條件。

第一個隱含條件是需要用到夫琅禾費衍射,而它也是有條件的,它要求物體與像平面之間的距離遠遠大於光的波長。這個條件稱為遠場條件。如果離物體足夠近,衍射極限便不遵循上述公式。研究波長以內光傳播特性的領域叫近場光學。

Eric Betzig 在 1986 年發明的近場掃描光學顯微技術(NSOM)就是使用距離物體遠小于波長的光學探針來掃描物體,以達到超分辨的顯微圖像。

4. 單分子熒光與解析度革命(revolution of resolution)
另一個條件則非常之隱蔽,但卻十分樸素,以至於自阿貝推算出衍射極限公式之後的 100 多年間,沒有人能夠發現或重視。

Stefan Hell 與 Eric Betzig 的貢獻就在於解鎖了這個隱藏關卡,在固定的波長與 NA 之下,將顯微鏡的理論分辨能力提高到無限大,帶來了 1990 年代以來的解析度革命。而這次革命非常依賴於 William Moerner 推動的單分子熒光成像等研究,也是為什麼本次諾獎會頒發給幾乎沒做過超分辨顯微技術的 William Moerner、頒發給理綜獎的原因。

這裡要簡單插播一下熒光成像的原理:熒光分子(如獲得 2008 年的諾貝爾理綜獎的綠色熒光蛋白 GFP)在吸收一個高能量的短波長(如藍光,稱為激發光)躍遷到高能態之後,很快會發射一個低能量的長波長(如綠光,稱為發射光)光子回到基態能級。

所以我們可以用藍光照射樣品上標記的 GFP,而接收其發射的綠光,來對物體進行成像。這樣的一個好處就是圖像對比度會非常高,只有帶有 GFP 的部位會被成像,其它部位都是暗的。

而每個熒光分子的發光是完全獨立的。

回到前面說的第二個隱藏條件,說穿了其實非常簡單。推導時假定了圖 1 中的物體上的兩點 P、Q 同時發光,所以二者的衍射斑才會疊加在一起導致難以區分。但如果 P、Q 是在不同的時間分別發光,那麼可以(通過點擴散函數擬合或者去卷積的方法)精確地定位到每個衍射斑的中心點位置 P"、Q"。那麼也就不存在這樣的衍射極限了,理論上即使 P、Q 相距再近都可以被分別定位而加以區分。

更進一步,廣義地來說,只要是 P、Q 兩點處在可以探測到的不同「狀態」或是不同特徵,那麼就可以超越衍射極限。解析度並不僅僅是關於波的,而且是關於「狀態」的!

"Resolution is about waves and states." -- by Stefan Hell

意識到了這一點,很多種真正突破衍射極限的顯微技術就被解鎖了。比如:

(1) 區分熒光分子的不同構象/能態
熒光分子處在不同構象或能態時,可以發射不同波長的光子,或者不發光。

受激發射耗損顯微術(STED):激發光周圍套上一圈耗損光,使中心區域的熒光分子處於激發態發光,周圍的分子處於耗損態不發光。這樣可以使圖 1 中的同心圓表示的衍射斑變小,以此來區分兩個相距在衍射極限以內的分子。這個方法由 Stefan Hell 在 1994 年發明。

隨機光學重構顯微術(STORM)光活化定位顯微術(PALM)熒光活化定位顯微術(fPALM):它們的共同特徵是使樣品中每次僅有少量隨機、離散的單個熒光分子發光,通過擬合,找出每個熒光分子中心點的位置。重複拍攝多張圖片之後,就可以把所有熒光分子的中心點位置疊加起來形成整幅圖像。這些技術由庄小威、Eric Betzig 等人在 2006 分別獨立發明。

圖 2. 庄小威發明的 STORM 超分辨光學成像效果圖。a, b 為傳統光學顯微鏡拍攝,c, d 為相同區域經 STORM 技術拍攝並重構。b, d 為 a, c 的局部放大。圖中的結構是細胞內的支架——微管蛋白。圖片來自 Nikon MicroscopyU 。

RESOLFT:由於 STED 中,耗損光需要很強的亮度,激光器造價昂貴,而且對樣品損傷較大,如果借鑒 STORM/PALM/fPALM 的原理,不需要使周圍分子處於「耗損態」,而是採用類似於 STORM 等的特殊熒光分子,用較弱的光強使其處於其它能態,也可以實現超分辨。這也是 Stefan Hell 發明的。

(2) 熒光分子閃爍的不同周期
SOFI:有些熒光分子在持續的激發光照射下,並不是持續發光,而是會閃爍。由於每個熒光分子隨機閃爍的時間不一樣,可以通過連續拍攝一段錄像,分析比較圖像中每個像素點記錄到的熒光強度在這段時間內的閃爍情況,來區分不同的熒光分子,實現超分辨。2009 年發明。

(3) 熒光分子的極性/朝向不同
SPoD/ExPAN:熒光分子都是偶極子,可以理解成有著不同的朝向。當用不同朝向的偏振光激發時,熒光分子的亮度也會隨之不同。可以周期性地改變偏振光朝向,連續拍攝一段錄像,分析比較圖像中每個像素點熒光強度的周期變化情況,來區分不同熒光分子,實現超分辨。2014 年發明。

……

這些不同的方法,也都有著各自解析度的計算公式。STED/RESOLFT 的理論解析度與激發光、耗損光強度有關;STORM/PALM 與單個熒光分子發射的光子數有光;SOFI/SPoD 與相機的像素尺寸有關(採樣定理決定)。在固定的波長、NA 下,理論上的解析度依然可以達到任意高。

如果還能想到熒光分子的更多特性並加以利用,未來還會有越來越多的超分辨顯微術被發明。

所以可以看到,William Moerner 開創的單分子熒光成像在超分辨成像中的作用。Stefan Hell、Eric Betzig 使用物理方法利用了熒光分子的化學特性而發明的超分辨顯微成像,目前在生物學領域已經得到了廣泛應用,因此,給三人頒發一個諾貝爾理綜獎也是名至實歸的。

------------------------
有興趣了解超分辨實現方法細節的同學,推薦 @Hydro Ding 的這篇回答,比我寫的清楚:光學顯微鏡受光線的波長限制只能夠放大兩千倍左右的極限,有辦法解決么?或者這就是自然定律的一種界限表現?


看了得票最高的回答,覺得很有意思,也很受啟發。
一般定義的衍射極限稱之為abbe極限,值得注意的是,它主要針對的是光學顯微鏡的解析度。
上次聽了一個南洋理工大學教授的報告,在報告上大家就這個衍射極限作了一些深入的討論。這個教授做的是用電磁波逆問題的思路來成像,簡單來說,就是先測量一個物體周圍的場,然後通過一個數據處理來確定這個物體的形狀及電磁參數。
在討論衍射極限時,他提出光學顯微鏡這個物理過程,實質上就是一個數據處理過程(data processing),詳細說應該是一個逆傅里葉變換。完美的逆傅里葉變換是可以完美得到物體信息的,即完美透鏡。完美透鏡首先是由J.B. Pendry, 提出來的,這個透鏡的電磁參數是磁導率為-1,介電常數也為-1,即負折射率材料。如果不是完美透鏡,信息就會丟失,比如光學顯微鏡採用的透鏡就不是完美的,所以丟失很多信息不能達到完美成像,即導致了衍射極限的出現。
在完美透鏡與傳統透鏡之間還存在一些透鏡,比如雙曲線色散的材料做成的透鏡,即超透鏡(superlens),這些透鏡一般都很容易突破衍射極限。
教授在用他的方法成像的時候也很容易突破衍射極限,這是因為他採用的數據處理方法不是逆傅里葉變換,而是另外一種方法,稱之為MUSIC(Multiple Signal Classification 多信號分類)。
也就是說如果採用別的數據處理方法,突破abbe極限其實並不是什麼問題。
現在再講講超分辨熒光顯微技術,我以前並不了解這種成像方法,看了最高得票答案才有所了解。不過我覺它也是一種不同於光學顯微鏡的數據處理方法。在我看來,超分辨熒光顯微技術在有個方面優於傳統成像技術,那就是它利用了時間維度的信息。
這些是我個人觀點,僅供參考。
-------------------------------------------------------------
我在這裡對 @袁霖做一個回復。
完美透鏡在光頻段還沒實現,但是superlens或者hyperlens已經實現了。它是這樣的:

根據文中指出,這個透鏡至少達到lambda /4的解析度。
這種技術確實很有商用潛力,應該也可以用來觀察活體。這在文中也有指出:
The optical hyperlens opens up exciting possibilities in applications,such as real-time bio-molecular imaging and nanolithography.

但是我覺得超分辨熒光顯微技術可能更加適合觀察活體,它利用了活體能夠吸收熒光分子的特點。

總的來說,如果超分辨熒光顯微技術獲諾獎並不是僅僅在於其超高的解析度,而是在於它在化學或者生物上的巨大的應用價值。這也是為什麼其獲得的是諾貝爾化學獎,而不是物理學獎。


衍射極限是阿貝提出來的,也是他的墓志銘,偉大的科學情懷etc。
對於衍射極限存在的原因各位答主已經說了,不累述。
但各位答主的回答純翻譯居多。
普通顯微鏡僅僅獲取點擴散函數卷積樣品而得到的圖像。通俗地說,實現超分辨顯微本質的方法,就是在這之上,增加獲取信息量或者提出高頻分量(高頻也可以算增加信息量一種),沒有滿足以上兩點的超分辨目前來說,就是偽超分辨。
cofocal(共聚焦顯微鏡),算是最早的超分辨,利用探測點擴散函數和激發點擴散函數(psf)的乘積,強度平方,psf開方,獲取根號二倍的解析度提高。sted就是基於confocal。
storm,大家說的比較多,利用激發單光子熒光定位,每次高斯擬合出峰值點,拍幾萬張圖,處理獲得超分辨圖像,這種是增加時間分量,如何快速以及處理演算法和器件是它的研究方向。
sted,可以算上sax(飽和激發光),以及和其他技術結合產生諸如ssim等,都是利用熒光飽和產生非線性效應,導致高頻信息大量存在,從而實現超分辨。如果sted僅僅是按照某些答主所說的空心斑抑制,超分辨能力非常有限。實際上空心斑光強可達實心斑幾百或者幾千倍,此時1.抑制效果明顯2.空心斑飽和導致空心斑中心大幅縮小,提供更高解析度,實際上忽略熒光漂白等,空心光強越大越好。
sim結構光照明,拍攝9張圖,最多可以實現2倍超分辨,實際上是高頻成分的頻譜搬移,像時間信息增加更屬於頻率方面。
sofi,和g-sted,一個是光子波動信息額外獲取,一個是在sted之上利用光子壽命信息,提高sted解析度。
其他的如spp,fpm,量子correlation等,不在乎是高頻或者額外信息的獲取。
熒光顯微的趨勢是開始做應用方向,以前比較側重研究,現在創業風口也有了,不過工程技術門檻很高,諾獎得主hell已經開公司了,價格比911貴一些,如果中國能賣幾百台,就是十多億的銷售額,sted效果非常不錯,實時性角度來說sted是秒殺storm的。
未來這方面的探索在於如何超高頻或者如何獲取更多有效信息,抑或是如何更簡單省錢新方法,畢竟一台幾十上百百萬。


瀉藥,慢慢填坑ing。補充其餘的幾個答案。

  • 「衍射極限」,由於光的波動性,普通光學儀器的解析度受限與工作波長和數值孔徑,其解析度大約在為光的波長量級。聚焦光斑點點擴散函數(PSF)描述了系統的解析度。
  • 「熒光」是光致發光效應的一種,在電子受激進入不同的電子單重態S2後,通過無輻射的系內轉換等進入能量稍低的第一激發單重態S1中,再通過振動弛豫的方式到達S1中能量最低的振動能級上,然後回到基態的振動能級中並發射出光子。如下圖Jablonski 能圖所示

普通的熒光顯微技術,採用熒光染料對特定的組織細胞進行染色,或者使用特定的熒光蛋白,通常採用汞燈激發熒光,相比與普通的光學顯微鏡大大提高了圖像對比度。但也面臨著存在熒光漂白,缺乏深度信息等。改進後的有激光共聚焦掃描(Confocal)、多光子熒光掃描顯微鏡(Muti-photon)等,大大提高了解析度或成像深度,不過依然受到光學衍射極限的限制。

電子顯微鏡可以突破衍射極限,但是不適合對生物樣品成像,更不可能活體成像;一些近場顯微的方法也能突破衍射極限,但是掃描速度通常很慢,而且只能對樣品的表面信息成像,無法探測深度信息。目前在遠場突破衍射極限的光學顯微方法大約可以兩大類:

  1. 改變激發光的點擴散函數,比如STED, SIM
  2. 單分子成像技術,比如PALM, STORM

  • 受激發射損耗顯微技術(STimulated Emission Depletion, STED)

摘自樓下某老師的主頁
超分辨光學顯微實驗室(Superresolution Optical Microscopy Lab)
ZEISS Microscopy Online Campus

激發射損耗顯微鏡(STED)其基本原理如下圖所示, 紫色代表的是激發激光,綠色代表的是用來受激發射損耗的激光,兩束激光經過時間空間調製後同時照射在樣本上。激發光使熒光物質發光的同時,STED激光發射一束緊挨著的、環型的、波長較長的激光將激發光斑中大部分的熒光物質通過光學非線性作用被強行回到基態抑制其發熒光,從而減少熒光發射光斑面積。激發光光斑經STED激光的調製後大大的減少了發射熒光分子的光斑大小,並且隨著STED激光光強的增加,能發射熒光光斑越小,其半高全寬可以達到衍射極限以下,解析度不再受光的衍射所限制,從而打破衍射極限。通過三維掃描可以得到50nm以下的三維圖像。

STED的理論分辨能力公式為:
Delta x approx frac{lambda }{2nsin alpha sqrt{1+I_{max}/I_{sat}}}
I_{max}是STED光光強極大值,I_{sat}為熒光分子飽和激發光強。理論上來說,只要光強允許無限增加,解析度沒有極限。

目前世界領先(就是這次獲獎的Hell小組)的解析度已經在幾個納米級別了。國內的話,師從Hell的北大席鵬小組大約在60nm(2012年);浙大的劉旭、匡翠芳小組的G-STED系統約為38nm(2013年)。

基於STED的原理,又有相似的幾種方法被發明出來:

激發態吸收(Excited State Absorption, ESA)
ESA是將已經在激發態中的電子,通過環形的激發光繼續激發使其到達更高的能級單重態中,於是也就將中心點的熒光區分開來了,達到了降低點擴散函數的目的。

基態清空(Ground State Depletion, GSD)
GSD是剛開始就把周圍的粒子通過一個強激發使他們獲得很高的能量,讓他們慢慢自己回到一個不發光的三重態,這時候能夠被激發的就只有中心的粒子,也就自然而然地減小了點擴展函數。

STED/ESA/GSD/等技術被Hell統稱為RESOLFT(reversible saturable/switchable optical transitions) 可逆飽和/開關光躍遷

目前,STED技術已經被德國Leica公司買去成功商業化,商業系統的解析度在80nm以下。Leica TCS SP8 STED 3X


以下待填坑

  • 結構照明顯微技術(Structure Illumination Microscopy, SIM)
  • 光激活定位顯微技術(PhotoActivated Localization Microscopy, PALM)
  • 隨機光學重構顯微技術 (STochastic Optical Reconstruction Microscopy, STORM)

占坑。慢慢更新答案。先貼上ZEISS公司做的很棒的一個關於超分辨的介紹。ZEISS Microscopy Online Campus

排名第一的答案已經很清楚詳細,但是對於外行而言這種行文可讀性還是較差。所以我來補充一個答案吧,只需要有基礎的物理常識就能看懂。
STED的原理和PALM或者STORM極為不同,這邊介紹PALM和STORM主要概念吧(具體工作原理不表),保證簡單易懂。

任何不論多小的光點發光,由於衍射的關係,被觀測到的都是一坨光斑,幾納米大小的發光顆粒被觀測到的其實是一個直徑幾百納米的一個圓形光斑,所以如果有兩個發光顆粒它們之間距離在幾十到上百納米左右,那麼我們是無法分辨出到底是一個發光點還是兩個的,因為看起來都是一坨嘛,也就是說普通光學成像解析度就在幾百納米
就像這樣:

右邊太近的兩個光點你就分不清了啊。
這對於觀測納米大小的分子的具體位置很不管用,這讓人感到難過對吧。

但是,前文說了,單個發光點發出的光看起來是圓形的一坨,那麼如果我告訴你,你看到的那坨光裡面確定只有一個發光點的話,你能不能猜出發光點具體在哪裡?當然能!廢話嘛,就在那個圓斑的中心

好了, 話到這裡你其實已經理解什麼叫超解析度成像了。
但問題又來了,你平時看東西的時候看到的畫面都是無數個發光點一起發光構成的。你根本沒辦法讓你的觀測物單點單點的發光給你看啊。超分辨成像技術的核心就是解決了這個問題。

得簡單介紹下熒光成像才能繼續往下編故事了。
熒光,不是你去演唱會玩的熒光棒啊。那是一種分子發光機制,簡單說,就是吸收一個高能量的光子,再放出一個低能量的光子。這個技術在生物學特別好用。原因是,生物學家有辦法讓生物表達能夠發熒光的蛋白質!或者把其它的熒光分子弄到生物體內。那麼如果一隻老鼠體的神經細胞里有綠色熒光蛋白,那麼用藍光照一下,就能看到它神經細胞上發著綠油油熒光的一個個點(藍光能量比綠光高)。
像這樣:

熒光成像,發光的不是連續的一片光源,而是散開的一個個小光點。 光點足夠多的話就能看清楚生物結構了呢,超好用!但是它也有局限,就是由於熒光發光點密集,所以能夠看到的那些細絲最細也得幾百納米!而生物結構精細處只有幾納米啊,我就是要看清楚該怎麼辦?

最後一步高能預警
如果,我告訴你,上圖中所有光點都能逐一亮起來,每亮起一個你看到一個幾百納米的圓斑,你去找到它的中心(實際操作中可以精確到幾納米),然後把所有亮斑的中心位置再次描到上面這張圖裡,那你不就能看到幾納米的細微結構了嘛?!!!
PALM和STORM不用管它是怎麼做到的,核心就是讓熒光分子不同時發光,可以讓你逐一去做中心定位!!!

於是你就能看到更加清晰的圖像啦,偶也!

左邊是中心定位前,右邊是中心定位後。解析度提升了1-2個數量級啊!

就是這樣。

==========================================================================
補充說一下STED吧,它的原理也不表了,核心就是讓上圖左面的那張里的單分子光斑本身變小,你就連找中心這步都不用了,因為它本身已經足夠小了,解析度就很高了。它不需要讓熒光分子逐一亮起。


參見哈佛大學庄小薇實驗室的工作,Zhuang Home。通俗的一句,各類超分辨熒光顯微技術的實質並非超越了abbe原理,而是在一定時間範圍內(幾飛秒-幾微秒)連續多次激發的熒光然後用電腦進行變換解析後,得到的一種概率清晰度。大概表達為用時間換解析度吧。


其實STED也好,PALM也罷,根本不是true super resolution。真的超分辨給個40nm的物方光斑,像方看得真真的,一次曝光瞬間搞定整張圖像。
當然不是說誰掃描誰就不是真的了,STM、AFM和NSOM都是真正超分辨的。
而STED也好手掌也罷,真的40nm物方光斑在顯微鏡CCD看去就是一大糊片~所以必須逐個pixel掃描,建個矩陣記下每個激發位置和積分光強;也必須trade off imaging time,一張圖好久,所以本質就是deterministic super resolution。


光學懂的不多,只知道他們利用自己的奇思妙想突破了可見光的衍射極限,對於細胞生物學的意義卻是顯而易見的,實際上我們對於細胞器乃至一些重要單分子在細胞中的功能所知甚少,以往衍射極限的存在使得我們無法觀察到這些分子的位置及運動情況,對細胞的探索更像是盲人摸象,電子顯微鏡等技術雖然解析度極高,卻無法滿足活細胞觀察的巨大需求,然而sted以及palm等技術的出現為之提供了可能,假以時日這種手段如果能應用於活細胞成像平台,那麼對於分子細胞生物學的研究者來說就像有了近視鏡的高度近視患者一樣,研究細胞器乃至功能分子的過程會簡單許多


之前的顯微鏡技術,最好的解析度在光波長一半左右。用了STED,需要兩種不同波長的光並且需要調製其中一個。但是解析度可以到波長的二十五分之一。改進還是很明顯的。


推薦閱讀:

三原色是怎麼來的?憑什麼兩個頻率不同的光波疊加會表現的像是另一種頻率的光?
一道光能把物體吸走嗎?
為什麼朝陽、落日的光線會呈現金黃色?
人眼的夜盲和相機的夜間噪點是否有呈像原理上的類似?
為什麼不使用光代替無線電波進行通信?

TAG:光學 | 化學 | 2014年諾貝爾獎 |