達芬奇里log是什麼,從RAW素材導入到轉碼成高灰度畫面這個過程的原理又是什麼?

通過一些資料了解RAW是原始數據不是圖像而LOG是對比度很低的灰度圖像(也有說是曲線?那麼原始數據RAW通過log曲線轉化成可見圖像的原理又是什麼?) 所以我有個猜想 達芬奇導入RAW素材的時候經過CAMERARAW我們預先設置的色彩空間和伽馬曲線,素材被轉碼變成灰度很高的畫面 這個過程就是log 轉碼出來的素材叫做log素材

我知道我的理解可能牛頭不對馬腳,但是找了好多資料都沒有淺顯易懂的說明LOG到底是什麼東西,從RAW轉碼成高灰度畫面經歷了哪些過程。不知道大家怎麼理解? 小白求科普


本答案多圖,流量黨慎點!

文中圖片大多源自網路,如有侵權請私信或在評論聯繫我,會立刻處理。

——————分——割——線——————

謝邀!今天作業好多。。看情況盡量答吧

先拋個磚 回憶一下數學中的「log」是個啥

——————分——割——線——————

談談RAW、解拜耳和Log

從數學說起

大家在高中的時候想必都接觸過「對數函數」這玩意,也肯定被它虐得死去活來過(比如我現在就在刷一套對數卷,期末是區統考搞得老師瘋了啊)

不過別急著關網頁!不用回憶別的,咱就來回憶一下它的圖像吧:

現在記住這個圖像就行,其他的我們後面再說。

RAW是個啥?

數碼相機運用的基本原理是「光電效應」,愛因斯坦在上個世紀折騰出來的這玩意說起來很簡單——在高於某特定頻率的電磁波照射下,某些物質內部的電子會被光子激發出來而形成電流,即光生電。

這玩意在物理學上可是個大新聞,對量子物理的發展意義非凡,不過此處,我們主要運用的原理就是:光子擊打在感測器上,產生電信號,這個電信號經過ADC(模數轉換器)處理變為數字信號,被相機的元件記錄下來,這一步記下來的數據,就被稱為「RAW」。

說起來簡單,在最早期黑白的時候也的確簡單,但是彩色階段,就有點問題了。

問題就是——感測器只能感應光強,不能感應色彩。

對黑白照片來說,自然是沒啥事,反正如實記錄就行,可到了彩色就懵逼了,相機怎麼知道這個像素是啥顏色嘞?

於是,大名鼎鼎的「拜耳濾鏡」就出現了!

思路很簡單,既然只能感受光強,我就乾脆把三基色光分開來,讓每個像素只感應一種顏色不就好了?說干就干,咱們偉大的Bryce Bayer(柯達公司的一個科學家)就搞出了這麼個玩意:

就是這麼個矩陣,其中綠色的像素佔50%,紅藍各佔25%(綠色比例多是因為人眼對綠色敏感)

這種感測器的RAW文件,仍然只記錄了每個像素點的光強,而非顏色信息。

最關鍵的步驟——解拜耳

好么,咱現在已經把光分開了,也把他們分別記錄下來了,可怎麼把這些分散的三色信息變成一個個單獨的複色像素呢?總不見得把這玩意拿給人看吧?

這其實就是拜耳濾鏡所記錄圖像的樣子

於是,解拜耳(debayer)這個東西就出現了!

思路也不複雜,對RAW數據進行矩陣運算(最基礎的演算法是對4×4的一個單元進行九次矩陣運算解出16個像素信息然後重複此過程)就能得出像素的色彩信息啦!最終得出的就是這樣的一個圖像

解拜耳的演算法在各家機內,各家圖像軟體里,都不一樣。但是相對於黑白的感測器,高頻信息肯定會有所損失,彩色濾鏡對光強也會有衰減,色彩信息也難以真實還原,一般觀點認為,比較好的演算法能還原感測器實際細節表現能力的70%-80%(忘了哪裡聽來的……)

(實際上應該可以通過系統奈奎斯特頻率來算解析度 但我一個高中生就不賣弄這種東西了 算不來)

當然,在這個解拜耳的過程中,演算法還完成了針對色溫、曝光調整、圖像調整等等一系列的工作,因為RAW數據是完全原始的感光數據且位深度高,因此這一步的調整空間很大,色溫不用說,完全是在這一步用演算法進行設置的,調整範圍極廣,曝光調整也一樣,寬容度高的機器(比如RED Weapon 8k這種妖孽 有17檔寬容度)隨便拉個5EV不是事兒啊。

說到這裡,相信有一個概念已經明確了,RAW不是一種可以直接看的格式,需要解拜耳運算才能變為我們常見的圖像編碼。

Log的故事

上文說到,解拜耳的過程中還有圖像調整,Log就是在這一步被轉換的,雖然RAW數據具有很大的可調整性,但是數據量太大,加之有的機器不支持把RAW文件外錄出來,只能保存視頻文件,一個問題就產生了——視頻文件的可調性太差,不能滿足後期的需求啊!

此處,我們需要引入一個概念,即Rec.709,709制式是ITU規定的一種高清電視制式,其中就規定了一種Rec.709色彩標準,我們手中的單反錄出的視頻往往就是這種色彩標準的。這種色彩標準的好處就是,不經過後期就能看,壞處也很顯著,後期根本就沒法看,因為高光和暗部的細節全被一刀切了,沒了。

這裡有張BMD的對比圖,可以很明顯看到Rec.709的高光和暗部沒了

因此,我們就設計了Log這樣一種記錄方式來用更小的文件獲取更大的後期空間,其實Log不是一種專門的視頻格式,因為該編碼AVC還是AVC,該封MP4還是MP4,改變的只是像素的信息罷了。

還記得上面那張函數圖么?現在再來看看吧:

我們把X軸當作輸入信號看,Y軸當作輸出看(只看圖像的形狀,別管正負性了)不難發現,這根曲線的特點很明顯,暗部提亮,高光壓住,創造出的就是一種很平的圖像。

當然,這只是明度變化,還有色彩的轉換,我們知道RAW文件的位深度極高,記錄的色彩範圍極其豐富,因此在Log中我們還要將飽和度也降下來一些,來獲得更大的後期空間。相信看了上面應該就能明白,這裡不涉及色彩空間的轉換,因為RAW這個東西本就沒有色彩空間一說。

當然,log這種「壓縮」色彩和層次的做法肯定會產生banding之類的問題 這個具體可以去看樓下cafe的回答 寫的很棒。

所以,直接回答題主的問題吧:

原始數據RAW通過log曲線轉化成可見圖像的原理又是什麼?

在解拜耳的過程中套用Log曲線,降低飽和度,最終得到一種可見的,後期空間大的圖像。而Camera Raw在其中的作用就是完成這一系列處理。

本人只是個高中生影視愛好者,畢竟才疏學淺,文中難免有紕漏,還請各位大神不吝賜教!謝謝!

另外,附上一些相關的問題與回答:

Raw、Log、Rec.709有什麼區別? - 色彩空間

為何 RAW 格式相片可以無限制調整白平衡? - Adobe Photoshop

數字攝影機log模式下,18%中灰的測游標准還適用嗎? - 攝影技術


謝妖,寫完了才發現這是去年的帖子,並且白龍已經回答的很好了,好吧,承蒙台愛,激動的半夜睡不著,從自己的角度,寫份稍微通俗點的教程吧,反正這行是小眾,寫對了沒啥人看,寫錯了估計也沒人罵我。

實話說這個問題有點坑,要回答清楚很燒腦也很費時。

----------認真回答的分割線-----------

想了解log圖像,Raw格式,必須要從人眼的特性說起。

根據廣泛意義上的人眼醫學測量,我們人眼的解析度通常被認定為8bit。

也就是說,像上圖這樣的漸變黑~白,我們人眼最大的分辨能力,就只有256(也就是2的8次方)個台階,再多再細膩,人眼將無法區分,我們稱之為8bit色彩寬容度(也有叫8bit色彩空間的,不準確)。

既然如此,所有的民用顯示設備生產廠商,就「摳門」的把所有的顯示和傳輸設備(比如電視台的發射通道、網路傳輸帶寬標準等)甚至包括印刷,都以8bit色彩寬容度為標準定義,多了也是浪費嘛,也增加設備成本,資本家們雞賊著呢。

所以當你打開PS,R,G,B三個通道,可以看到每個通道都是0~255=256(級)。

但是大自然的亮度灰階可不止256級啊,成千上萬甚至上億級的灰階,當然,地球由於大氣的散射,通常我們生活的區域,人類能接觸到的灰階區域也就是數千級,並且,人眼的敏感度也不完全是線性的,這是後話。

如果我們按照傳統意義上的8bit線性色彩寬容度的設備去拍攝高對比的自然影像,得到的是如下圖的結果

高亮的區域將被截止,示波器上也看的很清楚,我們稱之為白切。

假如我們縮小光圈,白雲的層次可以保留下來,但暗部又會被黑切,寬容度不夠嘛,沒辦法。

相信很多手機黨在拍照片的時候,都會遇到這種情況,如何兩全呢?讓我們先來了解一下感光器件。

我們前面說過,設備生產廠商在定義顯示和傳輸標準的時候「摳門兒」,定義了8bit寬容度標準,但實際上我們拍攝的核心部件CMOS的硬體寬容度,遠遠不止2的8次方(256級),甚至可以達到2的12次方~2的15次方那麼多,比256級多4~8倍(經評論區@劉楷傑提醒,我數學不及格,應該是2的4次方~2的8次方倍),最高達到32768級,你用的iphone這類民品廉價的感光器件也可以達到4098灰度級,完全可以把那個爆掉的雲彩的白切信息給拉回來,但遺憾的是,傳輸和顯示標準依然上不去,這些標準哪怕上去一點,設備生產成本也會翻翻,鬱悶的是人眼還未必能感覺的出來。

怎麼辦呢?在專業的領域,工程師們想到了一個辦法,既然CMOS有這個能力,我們何不把CMOS最原始的信息存儲下來,把這些信息完整的提交給專業用戶,讓有經驗的他們在做後期的時候,來選擇保留什麼捨棄什麼,這就是RAW,CMOS的原始信息就是所謂的RAW格式。

大信息量的RAW格式就這樣被記錄下來了,但如何在軟體里顯示全這些信息呢?很多軟體也是跑在民用產品里的啊,比如筆記本電腦,普通台式電腦等等,像達芬奇這種專業軟體,內部運算是32bit,數學寬容度超級恐怖,但界面顯示只能8bit,沒辦法,為了儘可能的顯示全最亮和最暗的區域,工程師們想了個聰明的辦法,改變Gama曲線,讓Gama顯示曲線變得更平坦,把最亮的那部分帶進來,最暗的部分保留,就像下圖對比的那樣。

可以看到,高亮的層次,被保留下來了,損失了一些中間層次的顯示,記住,這裡損失的只是顯示,原始數據還是完整的保護在源文件中不會丟失,可以隨時調用。

另外要說的是,CMOS為了抑制暗部的噪波,通常會加一個類似直流的恆定電壓,你可以理解為讓最黑的暗部不要等於零,也就是把暗電平提升起來。

就像上圖那樣,所以,你看到的RAW原始格式,就是這麼灰灰的了。需要說明的是,這裡講的是原理,每家影像設備供應商都有自己的RAW格式標準,也有些廠商為了用戶觀察方便,把CMOS抬高的黑電平,在保存Raw格式的時候切掉了,恢復到0,所以很多照相機的Raw,看上去並沒有這麼灰,總之,Raw格式,是保留了CMOS最原始信息的圖像格式,除了寬容度大之外,還有很多很多優點,比如在反拜耳運算的時候調整曝光、白平衡等等,理解就好,不細說。

再來說Log

Raw既然那麼好,那記錄圖像為什麼不都用Raw呢?原因很多,其中一個最重要的原因是,由於Raw寬容度是12~15bit的,所以信息量和文件量都巨大,以4k 12bit Raw格式為例,每秒的數據量為:4096*2304*12(bit)/8(換算成Bye)*25(fps)/1024(換算成KB)/1024(換算成MB)=337.5MB/秒,如此大的數據量和計算量,絕大多數廉價的民品根本無法承受,SD卡120MB/s已經算很快的了,但明顯遠遠不夠,專業的15bit寬容度的專業攝影機非壓縮Raw數據量更是達到了恐怖的421.9MB/s,普通的CF卡都跟不上,USB3介面的SSD移動硬碟也吃不消,民品設備沒有別的辦法,只能選擇H.264或者ProRes(mov)這種8bit帶有損壓縮的格式進行存儲,數據量可以壓到50~150MB/s之間,用廉價的存儲設備進行存儲,占的空間也很小,窮百姓的家庭電腦也可以伺候。

可是,8bit寬容度。。。。那個雲彩咋辦?犧牲了捨不得,8bit又帶不進來,痛苦。

工程師們想到了一個辦法,為了兼顧准專業領域的需求,採用了和前面提到的Raw格式顯示一樣的處理方法,改變Gama,拉灰圖像,讓丟失的雲彩被拉回來,對,就這麼干,改變Gama,存8bit H.264!

可是。。。。可是。。。。丟失的中間層次可就永遠都回不來了,那可是人眼最為敏感的中間調層次啊,丟失太多實在捨不得。。。

於是,他們再次研究人眼的特性,發覺人眼的敏感度不是線性的,他們對中間層次最為敏感,對高亮部分的層次敏感度要低一些,並且,大多數圖像高亮的部分都是所謂藍天白雲,窗外的強光什麼的,細節部分比較少,所以,高光部分的層次可以少保留一點,把擠出來的空間儘可能的給中間調和暗部,讓Gama曲線彎曲!

於是就有了如下的方案:

這是一個妥協的方案,永久的犧牲了少部分中間調,拉回了部分高亮的層次。

你看這根新的彎曲的曲線像什麼?問問數學系的小夥伴?對數曲線!(說彈道曲線的粗來面壁去,一點不給我面子)

Log,這就是log方案的由來。當然我這個是手畫的,並不準確,湊合著看吧。

每個攝影機生產廠商根據自己的特點與需求,都有自己的Log曲線,並且根據CMOS年代的不同,每隔一段時間會發布一個新的Log,比如大法就有S-log,S-log2,S-log3。也許以後還有S-log4、5。

看到這裡,明白個大概了吧,現在是凌晨5點多,我也很累了,關於Log使用上的優缺點,看以後的有沒有時間寫吧。

純手碼字,請勿隨意轉載,圖也是自己的,誰侵誰刪,如有錯誤,虛心感謝指正,高票白龍的文章寫得很不錯,可以一起看看。


推薦閱讀:

影視後期在大學和培訓機構的區別?
中高端N卡針對PR和AE的渲染加速到底有多大作用?
你見過哪些布景,用光,色調,服飾等方面很優秀的電影?
如果想從事影視後期,有什麼要求?

TAG:色彩管理 | 影視後期 | 視頻調色 |