遙感圖像處理和普通圖像處理有哪些異同呢,本質區別是什麼?
遙感圖像處理中很多方法源於普通圖像處理,但遙感圖像和普通圖像也有很多區別,那麼到底這兩者有哪些異同呢?
29/11/2015
修改了部分英文
有些詞語實在是說順口,想中文意思費勁,懶得改了
===========================================
先佔坑,後續補充
提醒:沒有學習過國內的相關課程,所以會參雜很多英文
===========================================
Note1:遙感最重要的一點就是就是數據的真實性,不能進行壓縮。跟導師提過一句 『把data做了一個歸一化』,因為當時沒解釋過多,導師以為我偽造了數據,結果費了九牛二虎之力才解釋清楚
Note2: 鑒於層主有信號處理的背景,所以分析的角度可能會和前面所不同
---------------------------------------------------------------------------
首先,先讓我們了解一下普通圖像處理和遙感圖像處理的對象都是神馬。
普通圖片,每個幀是2D的,最多擴展到video rate (這個我不知道國內怎麼說的),這樣第三維就變成了時間維度,因此這樣的dataset就成了一個離散時間信號,也可以叫做時間相關 。然後讓我們把每個幀中的(1, 1)這個坐標下的值拿出來就變成了這樣
當然,坐標軸需要修改,Amplitude改成Pixel value,Sample Number改成Frame Number。現在我們先打住對3D的圖片處理(小note: 3D中有個利用motion vector進行目標追蹤),回到2D。按著前面的思路,2D的幀也可以把它們看成一個信號對不對?Bingo,那麼我們對於一個信號會進行什麼處理呢,把你所知道的信號處理的方法全砸上去,傅里葉變換,信號壓縮,低通/高通/帶通/卡爾曼/窗函數/XXX濾波,等等,不能太爽歪歪啦,圖像信號和信號不能完全劃等號,畢竟還多出圖像二字。於是顧名思義,圖像當然有圖像的特點,那就是在圖像中會有一塊圈起來的pixel是一樣的,另一塊圈起來也是一樣,比如藍藍的天空和天空中飛的一隻白色的鳥,我們的肉眼會告訴我們,這倆貨明顯不是一個東西哇,很好,於是我們要進行目標識別啦,首先我們會發現它們顏色不一樣咯,藍色的天空像素值是255/220,而白色的鳥是255/10,採用不同的閾值就能分辨出來,如果你覺得這種方法太low,我們還可以算出整個天空部分的梯度值,這樣你會發現鳥和天空交界處的值異常偏高,把它們連起來就是整個鳥的輪廓。目標識別也打住不展開了。
---------------------------------------------------------------------------------------------------------------
接下來讓我們說說遙感圖像。相比普通圖像,遙感圖像一定是三維滴,別問我為什麼 = =
空間的兩維再加上一維光譜,依上面的思路,也把這樣的dataset叫做光譜相關
然後讓我們來一起隨遙感圖像rock and roll吧
這是啥。。。 好像都是葉子 = =
這又是啥。。。。。
告訴你上圖中綠色的是真實的葉子,其他顏色的是假的葉子。
好像從上上圖裡看不出來。。bingo,這個正是遙感的奧秘所在,普通可見光下,我們肉眼分不出來的東西在其他的光譜里就能看出來了。這就是每種物質的各自的spectral signature(這個我真不知道中文對應的是啥)。因此和普通圖像處理最本質的區別是,遙感重在聯繫到光譜進行處理,圖像處理由2D處理衍生到3D處理會發生很多變化,比如最常用的PCA(主成分分析法)做法,就是將所有幀的像素值全部轉化成特徵值。另外還有你會不會覺得一說遙感就有幾百張圖片,如果每個frame是1000*1000,總共280個幀,那麼pixel就有1000*1000*280。。。。想想都頭疼吧,因此偉大的科學家們就要開始偷懶啦,不對是改進演算法,這塊領域叫波段選擇,反正就是怎麼省時間省力氣就怎麼著來。當然遙感里也有目標識別,例如Anomaly Detection(異常檢測)。
=================================================
想著把找個時間把這兩本書讀完
Digital Image Processing, Gonzalez大神的書
Hyperspectral Remote Sensing Data Analysis and Future Challenges
話說這是我目前回答最多的答案
望親們多點贊少感謝啦
歡迎拉我去答題
最本質的應該是波段吧。普通圖像(彩色)就三個波段R/G/B,而遙感圖像的波段不僅包含了這三種可見光波段,還延伸至近紅外、中紅外、遠紅外、微波etc。每種地物的都有自己特有的spectral signature,僅是可見光這個波段區間不足以區分各種地物的不同,所以我們需要延長普通圖像的可感知波段範圍。被動遙感圖像的成像原理和照相機類似,只不過還可以捕捉到許多我們肉眼無法看到的波段。所以像是應用於普通圖像的「stretch」等功能也能應用於遙感圖像。 主動遙感圖像的成像原理完全不同,所以應該不在這個問題的討論範圍內。
首次答題,如果有邏輯或專業知識層面的問題,歡迎大家指出。
我不太清楚題主的普通影像是指具體哪些,本人就理解為日常生活中的影像,如照片等。而對於普通影像的處理,相信大家都有用過PS,裡邊包含了很多根據圖像處理中的演算法而實現的功能。而遙感影像處理所用的方法包含而不僅限於這些演算法。我僅以遙感影像處理的基本過程為例說明一下。
-------------------------------------------------------------------------------------------------------------------------------------------
- 無論是在課後實習還是實際生產中,對遙感影像的處理都要有一個明確的目的,比如目標識別、變化監測或是目視判讀等。所以首先必須要根據你的處理目的選擇合適的影像。這就包括很多需要考慮的因素,比如影像的空間解析度(既不可太低,又不必過高),波段組合(根據你的目的合理選取),以及影像拍攝的時間等。這裡的波段就不止包括普通影像的RGB三個波段了。
- 選好影像後,要進行影像的幾何處理。這也是區別於普通影像的一大特點。遙感影像是基於地理信息的影像,而普通影像是不會有地理信息的。這一過程校正遙感影像的地理信息,使其與地面目標的坐標能夠比較準確的對應。
而後要進行輻射處理,也就是輻射定標。這一過程主要是為了使遙感影像的輻射值(也就是像素值)能夠和地物發射或反射的輻射值儘可能接近。
接下來就是遙感影像處理與普通影像處理重疊比較多的部分了,也就是根據需求運用各種圖像處理的演算法方法對圖像進行處理,比如平滑,直方圖均衡化,高通濾波以及很多高端演算法。
最後就是遙感影像的一些後續處理。比如鑲嵌啊,融合啊,分類啊,最終達到圖像解譯或者製作專題圖的目的。
以上所說步驟在實際運用中要根據具體問題適當的增加或減少,每一次的遙感影像處理都要對目的瞭然於胸,做好整個過程的大致流程,再進行處理。
1 共同的數學原理,不同的數據特徵。
2 相同的處理機制,不同的應用目標。
3 相同的圖像運算,不同的解譯結果。
4 相同的發展趨勢,不同的專業側重。
其實本質並無太大的區別,都是處理數據矩陣而已。差別和有人專門處理人臉圖像、有人專門處理工業圖像、有人專門處理顯微圖像一樣。並無特殊之處,總體來說是相通的。
只不過這類圖像有一些相似的地方,有些特殊的地方,比如是長焦的,比如地物形態的特殊性,就像人臉圖像中人臉的特殊性一樣。因為這些特殊性,逐漸發展了一批能比較好適應這類特性的演算法,然後就有人去深究:為了追求效率,或者追求精度。
總體來說萬變不離其宗。
謝邀。
記得一開始我把個人簡介寫成 「電子系學徒」,於是有人邀請我讓我幫忙算通信原理里的題目,可惜我並未學過,於是我只好改了個人簡介。一段時間過去,相似的情形再度出現了,這次我又要改個人簡介了,因為我做的是醫學圖像處理,整天看著那些大腦心臟,考慮怎麼搞到他們的輪廓。
不過這個問題我決定答一下,算是我在知乎上第一次回答專業相關的問題。
首先摘錄一下百度百科的非權威的解釋。遙感圖像處理_百度百科
我們看第9項發現它的流程是包含預處理和糾正這兩步的。預處理對於圖像處理來說很常見,普通圖像大都是去噪處理,而遙感圖像處理多了陰影和薄雲處理,這是由於遙感圖像特殊的成像方式,使得他的成像特徵更為複雜。這樣看來,我們可以簡單的把遙感圖像處理理解為:獨特的預處理+普通圖像處理。
但是實際上情況更為複雜。遙感圖像的處理應用也與普通圖像有所差別。
遙感圖像一般獲取平台以星載,機載為主,無人機,車載等平台也有很多;
成像感測器多種多樣,紅外,激光,高光譜,合成孔徑雷達等等……;
成像機理也有很大差異,以成像雜訊為例,紅外圖像的非均勻性雜訊模型,合成孔徑雷達圖像(sar)的乘性雜訊模型,都與普通光學圖像的加性雜訊模型有差異。
在對遙感圖像的理解上也需要專門學習,以sar圖像為例,不深刻理解成像原理,很難看懂圖像,成像當中的頂底位移、疊掩、多次散射對理解圖像是有一定障礙的。至於其中的極化,干涉等技術就更需要專門學習了,有興趣可以讀些polsar, insar的paper。
==================================================================
總之,普通圖像和遙感圖像在處理上,數學原理一致,建模不盡相同,一般了解某種圖像數據的特點,掌握一些慣用的建模方法,就可以跑到普通圖像處理那裡去借鑒了(對,就是借鑒),借鑒回來就可以灌水了。
遙感專業在讀研究生前來獻醜。遙感圖像處理在很多數據層面和普通圖像處理差不多,濾波,密度分割等等。但在對象和目的兩方面遙感圖像與普通圖像有很大差別,遙感圖像通常包涵巨大的信息量,拿高解析度可見光波段遙感圖像來說,其不光包涵不同波段的光譜信息,還由於其高解析度而包含了大量的地表物體的地理空間信息,而這些信息既可以通過演算法來提取,又可以通過人工解譯得到。
概括來說,由於目前遙感技術大多服務於GIS,所以遙感圖像處理與普通圖像處理的區別也多來自GIS的一些特性,需求決定了差異。
很多遙感圖像的處理方法都是計算機視覺的東西。
遙感圖像算是圖像的特例,主要區別在遙感圖像需要深度研究地物波譜屬性,而普通圖像大多是真彩色 ,憑自己的經驗判斷就行了。。
回復 xn geo :看你做什麼了,如果側重遙感圖像解譯,就去研究光譜特性、地物的時相性、地理分布規律等。如果研究影像拼接,就去看共線方程、鑲嵌等。如果改進遙感圖像處理過程,就去搞分散式、gpucpu的混合運算等。其實遙感現在太新的東西沒有,就是得想辦法和其他的技術結合進來
//.....
不匿了,學生階段,水平較低,輕噴。
獻醜,歡迎指正。
樓上幾位回答的維度不一樣。
遙感圖像處理可以是紅外等非可見波段的圖像處理,屬於樓上幾位回答的範疇;但也可以是我們研究的,航拍圖像處理。 我只著重討論航拍圖像處理。
航拍圖像處理由UAV拍攝,最後經過合成,過濾,矯正形成google earth這樣的圖像。
我對題目的理解是,航拍圖像識別(比如道路識別),與其他圖像識別(比如人臉識別)有什麼區別?
================================================ 拖延症發作,待完成。。本質區別在於因地制宜吧,了解研究區的地理環境方可更好地處理。
不知道LZ對普通圖像處理的定義是什麼(P圖範疇?智能處理範疇?),所以先撇開普通圖像處理,憑之前的記憶,說上兩點。
①處理軟體不一樣。成像原理不盡相同,比如說合成孔徑雷達和一般圖像的成像原理就不太一樣,INSAR更是基於干涉原理。所以要求的專業軟體可能不一樣(arcgis/matlab/...),側重點各有不同吧。。。
②處理步驟不一樣。因為想得到的最終產品兩者是不一樣的,而且兩者數據特徵也不一樣,比如數據維度/背景噪音等等兩者不在一個次元上。
③圖像銳化,降噪,壓縮等等的數學原理都一樣,相通的吧。
好難啊。。。
圖像簡單來說,就是把觀測對象數據化後的映射物。處理遙感圖像和普通圖像的時候,導致差異的一個重要原因應該和組成映射物的數據的特徵有關吧。擦,我也不知道我在說什麼了。。
剛剛接觸這塊圖像處理,就我粗淺的認識來看。光學遙感圖像主要是接收不同頻段的波長,這樣接收的信號成的圖像叫做多波段圖像,所以實際處理的時候往往要處理的是很多副圖像,這就需要能處理這樣多幅圖像的方法,別如PCA;除此之外,遙感器本身的掃描拍攝形式等,也使得遙感圖像需要一些校正等預處理的步驟。剩下的很多方法基本通用,比如去噪、配准、小波變換等等方法
我也來答一個。
1.混合像元:遙感數據影像來源廣泛,由衛星獲取,就像給地球拍照,比例尺較大,同時不同衛星觀測能力不一樣,遙感影像的解析度也不同。而普通的圖像通常是對某一地物的特寫。因此,遙感影像解析度較大時存在混合像元,而普通圖片不存在這個問題,只要我們需要表達的地物清晰就行。所以遙感影像需要處理混合像元的問題,而普通圖片同常不需要。
2.方法:遙感影像現在應用主要在土地利用提取上,可以基於像素,基於對象,使用光譜特徵,紋理,形狀等,而普通圖片可能沒有這麼豐富的提取方法。
遙感圖像主要是從天頂角度觀測,而且圖幅裡面的目標尺度差異大,可以達到成百上千倍,這是與自然圖像區別最大的兩點。
沒做過遙感圖像處理,但是我在做消除光照不均時接觸過遙感圖像勻光的演算法,有個叫做Mask勻光的演算法,可以在一定程度上消除鏡頭漸暈效果(鏡頭中間亮四周暗的現象)。另外,遙感圖像一般碩大無比,一般都用N塊小的拼接成一塊大的,那麼拼接和配准演算法就派上用場了,啥Sift演算法Surf演算法風起雲湧......
我的理解:遙感圖像是包括普通圖像的,因為遙感就是通過非接觸的方式來獲取地物信息的。而不同的遙感影像是包含不同的地物信息的,高(多)光譜影像就是地物在不同波譜段中反射的能量,每個像素記錄的是能量,彩色RGB影像就是普通的影像,裡面包含更多的可能是紋理信息等等。所以我覺得本質都是一樣的。或者說,普通影像就是近景攝影測量的遙感影像。
未做過遙感圖像處理,只有看論文過程中的一些簡單了解。遙感圖像處理是圖像處理中的一個分支,而且也是一個比較特殊和比較困難的分支,因為遙感圖像數據有多時相、多光譜、多感測器、多解析度、海量等特點,而這些對於普通圖像處理來說通常是單一的,因此有時候情形可能複雜得多;而且處理過程中需要額外考慮輻射畸變、植被指數、多光譜變換等內容。當然,處理的方法模型大多其實還是一樣或類似的……
想到更多的了再補充
這個問題需視具體的目的而定。如果你的目的是做定量遙感,做地物參數如地表溫度、作物產量的反演,那麼你的工作重點在於這些反演模型的優化。
而如果你的目的只在於遙感圖像地物分割、分類、場景識別這些信息提取。就普通的光學影像處理而言,它與普通圖像處理之間的共性遠遠大於他們之間的差異。可以說,一個做普通圖像處理的人,基本可以無縫銜接地轉來做普通光學遙感圖像處理。再舉一個例子你就明白了,就我所知,現在攝影測量與遙感專業的很多博士生,發論文的流程是:傳統計算機視覺(包括普通數字圖像處理)屆有什麼新理論與演算法看著還不錯,把它用來做遙感圖像處理,稍微針對數據本身的特性做些改進,效果還可以的話一篇文章就出來了。可以說,遙感圖像處理本身並沒有多少自己獨到的理論與方法,但是,這並不意味著遙感圖像處理不重要,計算機視覺屆作為理論奶牛,關注遙感領域應用的人畢竟只是少數,而如何針對讓不同的遙感應用場景進行理論與方法的改進,使其更適應於具體應用場景,這裡面其實涉及到不少的研究與開發工作。
最關鍵的還是二者包含的數據信息不同。
推薦閱讀: