高興說 顯示行業 進階篇 之 (三)

主要內容:顯示信息是如何產生並經歷怎樣的流程才能最終到達顯示屏上呢?顯示信息的信息鏈上各個環節之間的聯繫與制約有哪些?什麼是色深?數字電影如何傳輸到電影院?人類最強的觀影體驗是哪種設備?什麼是Y-OCTA?什麼是TDDI?什麼是T-CON?為什麼三星的手機的屏佔比最大?哪個小公司曾經壟斷全世界的顯示介面?HDR高動態的標準之戰,三星和杜比誰能贏?機械電視是怎麼回事?DP與HDMI誰會笑到最後?DDI公司的未來在哪裡?蘋果的各種虛假宣傳。

作者:高興

中泰證券研究所國際銷售

曾任職於美銀美林、中信證券、銀河證券、大宇證券

畢業於紐約大學、香港科技大學,高麗大學

可以聽說讀寫中文、英文和韓文,日文只能讀不會聽說寫

央視NEWS頻道 New Money欄目 嘉賓

進階篇(三)的附錄列表:

· 附錄01:數字與模擬

· 附錄02:機械電視

· 附錄03:CMOS與CCD

· 附錄04:折射

· 附錄05:抖色

· 附錄06:白點

· 附錄07:Gamma伽馬

· 附錄08:sRGB

· 附錄09:LUT

· 附錄10:電視信號傳輸

· 附錄11:HDR

· 附錄12:顯示介面(外部與內部)


大家好,不知不覺已經是2018年1月末了。

我們的進階篇也終於進入了最後一篇了,在上一篇我們探討了顯示的光以及光的控制部分,還解釋了為什麼iPhone X會讓有些人感到頭暈,本篇會對整個顯示信息從產生到展示的信息鏈進行探討,從而加深我們對顯示的理解。

從下一篇開始我們就會聊具體的技術與產業鏈,在這裡祝大家2018年一切順利,健康快樂,新年新氣象!

(接上篇)

3. 視覺信息從被記錄到傳輸到人的眼睛裡需要經過一整條信息鏈

光的信息在傳到人眼之前,要經過一系列的環節,主要包括記錄/生成、存儲、傳輸與再現。這是一個從光開始,以光結束的鏈條。

整個顯示信息鏈條上的各個環節,環環相扣,正如我們在進階篇之一中所說,環節之間需要遵守一定的事先約定好的協議,尤其是相鄰的環節之間。每個環節的單獨的創新都必須考慮到與其他環節的兼容,沒有任何一個環節可以獨立的進行革命性的創新,這也是為什麼4K、8K、HDR、廣色域這些都需要包括從內容廠商到終端廠商在內的整個行業坐在一起討論才能定製出標準。

這些環節中,固定資產投資越大的環節越難以產生變革。比如內容廠商可以相對簡單地升級到更好的攝像設備與編輯設備來生產顏色更豐富信息量更大的視頻內容,但是面板廠商卻很難立刻生產出能夠展現出相應級別圖像質量的面板,除非投入巨大的財力物力與機會成本去研發新的技術,去建設新的生產線。如果沒有三星和LG幾年前的決斷,可能我們要在很晚以後才能看到從LCD到OLED的轉換。

這個邏輯,在電影產業上體現的特別明顯。因為電影院的固定資產投資特別大,所以哪怕是在攝製、剪輯等領域有任何可以立竿見影改變觀眾體驗的技術革新也都難以立刻實行,因為遍布世界各地的電影院無法及時跟進更新播放設備。如果貿然採用新技術,勢必會使可上映的屏幕數受到限制,從而對電影的票房產生負面影響。

反過來,儘管從電影院播放終端的角度講,比起黑白電影,播放彩色電影並不會帶來任何成本上的增加,但是因為彩色膠片的生產成本非常高昂,而廉價生產彩色膠片的技術需要大量的固定資產投資與技術革新,所以直到上世紀70年代,電影還大多都是黑白的。

同樣的道理,從另外一個角度來說,就是每一個環節的發展進化都要考慮到對其他領域的過去和現在的兼容問題

比如,儘管現在的LCD也好OLED也好並不需要一種叫「伽馬校正」的信息處理環節(後面介紹),但是因為CRT時代制定的業界標準使得絕大部分的圖片與視頻內容都是被伽馬編碼過的,所以導致LCD和OLED反而要模擬落後的CRT的特性來適應現有的內容,因為沒有辦法改變所有的世界上已經存在的照片和視頻的格式。

再比如,在早期,儘管所有人都知道膠片越大所能夠承載的信息也就越多,但是因為膠片是非常昂貴的,所以電影膠片的主流寬度一直被限制在35mm,後來雖然膠片變得便宜了,但是電影業界仍然不能更改這個標準,因為廣大的電影院里的播放機仍然只兼容35mm的膠片。

因此,IMAX只能在特定的電影院播放,是因為IMAX使用70mm的膠片(而且橫著拍),如果電影院沒有專用的IMAX播放設備就無法播放。70mm的膠片所能傳遞的信息量是巨大的(約12K清晰度),巨大到目前仍然無法採用數字的方式來即時錄製(介質寫入速度不夠快),所以IMAX仍然是目前人類最強的人類電影觀覽體驗,而且未來還有很大的提升空間,雖然數字電影發展十分迅速,但是在中短期,傳統化學方式能夠提供的信息的量還是數字方式難以匹敵的。

儘管如此,因為數字化能夠帶來的方便性與低成本等種種好處,整個產業還是都在向數字化發展,目前電影院都開始數字化了,更新換代的進度非常快,連IMAX也在積極推廣清晰度相對較低的數字IMAX(約2.9K解析度)。而最近三星開始在電影院投入LED屏幕了,這其實是數字化時代實現的電影、電視、顯示器三者的大一統。

因為下邊很多知識會涉及到數字與模擬,如果您對它們的概念不是很清楚,強烈推薦您先跳到本篇的 附錄1 部分,補充相關知識以後再繼續閱讀。

Welcome back,下面讓我們對信息鏈條上的每一個環節都進行更深入的了解吧。

· 記錄/生成

照片、視頻等「來自於自然界的信息」首先要被記錄下來。

而文字、遊戲以及CG等這些人造顯示信息,則需要先被「生成」出來,才能進入後面的環節。

首先,我們如何才能記錄自然界的光的信息呢?

人是用什麼來獲取光的信息的呢?我們在基礎篇講過的。

眼睛。

世界很大,人很小,人眼是如何收集龐大的世界的光學信息的呢?

眼睛看東西的時候是這樣的。

可以看出,人眼是通過晶狀體將物體發出的光重新投射到人的視網膜上的,因為晶狀體的特殊結構,光在通過晶狀體以後會改變行進軌跡,而且因為視網膜與晶狀體之間的距離很短,所以使得最終落在人眼視網膜上的物體的形象不僅僅是倒立的,還是縮小的,也就是說眼睛的結構使得視網膜接收到的光的信息比實際世界到要更密集,用我們現在經常說的話來說,就是像素PPI(Pixels per Inch)更高。至於倒立成像,其實並不是問題,我們的大腦的視覺系統只要執行一個「上下翻轉」命令就可以了。

什麼?你問我為什麼光在通過晶狀體以後會改變行進軌跡?

請移步閱讀 附錄4 關於折射的介紹。

好的,歡迎回來,光被人眼的晶狀體折射以後就會射向視網膜,這時光的電磁力量就會對視網膜細胞造成影響,使得視網膜細胞獲得能量並釋放出相應的電能量作為信號給大腦。

後面的事情,我在基礎篇都給大家講過了,光越明亮,能量就越大,信號就越強,不同的波長的光會刺激不同的細胞,造成顏色感,而大腦就會記錄這些信號,並按照我們在進階篇之一中所說的柵格化的方式來複原出一整幅畫面。

那麼我們可不可以製造一個類似於眼睛的東西?

可以,而且已經造出來了,還起了一個名字叫照相機。

可以看到,照相機的結構和人眼基本是一樣的。鏡片就是晶狀體,成像的膠片/CCD/CMOS(本篇後面有介紹)就是視網膜,讀取成像信息的顯像液或者晶元就相當於人的大腦。

其實,利用透鏡或者小孔可以成像的現象,我們人類很早就發現了,但是相當長的時間裡,人類並不具有可控的把可見光的電磁波性質記錄或者轉換的能力的。後來人們發現光可以促使物質發生化學反應:因為電磁波是能量,而能量就是影響力,影響力產生的影響則可以被觀測。

於是,聰明的wuli人類就讓光來影響一些化學物質,比如膠片上的鹵化銀。被光「刺激」以後鹵化銀會分解出銀顆粒,然後銀顆粒的多少就對應了光的量的多少,實現了信息的記錄。

這種方式的記錄與存儲實際上是合併到了一起的,記錄的介質,就是存儲的介質,記錄的過程就是存儲的過程。但是這種記錄是一次性的,由於膠片的成本很高,不利於大面積推廣、內容的複製與傳輸。 後來,人們發現另一些物質,可以接受光的能量,並轉換成相應的電能量(光電效應)。與之相反,還有一些物質可以接受電能量,然後再轉換成光能量(見進階篇(二))。這樣我們就可以用第一種物質來將光的信息記錄下來,然後再以電的形式發送出去,在接收端用相反的結構,再轉化為光的信息。

例子就是機械電視(見附錄2)的拍攝與收視。

但是在初期,這種方法記錄的信息並不能被存儲,需要被馬上轉化為電磁波發送出去。實際上,直到20世紀50年代磁帶被發明之前,人類都是只能「用膠片來記錄」,以至於不是非常重要的事件的話,是沒有「資格」有影像流傳下來的,所以早期的電視節目都是「實況直播」

而所謂「用膠片來記錄」,其實是在現場另外放置一台膠片電影攝像機來拍攝,或者用一台膠片攝像機來拍攝一台播放節目的電視的畫面。

膠片攝像機/照相機在每瞬間記錄的是一個二維平面的信息,而當時的人類也不具備能夠用光電的形式來快速的記錄、讀取這個二維平面信息再轉化為電信息再發送出去的能力。機械電視利用基礎原理:柵格化+掃描,將零維的點在時間與空間上連接與排列,形成一個「偽二維信息」,或者說是人眼可以接受的「類二維信息」。

所以,後來隨著技術的進步,像膠片一樣可以同時記錄一整幅二維畫面的技術產生了,這就是:CCDCMOS Sensor。

經常研究攝像頭模組的朋友可能會對這兩個單詞很熟悉,這兩種都是用來記錄光的信息的電子裝置,他們的成像也是和膠片非常相似的。只不過負責記錄光的信息的工作的材料由鹵化銀分子替換為了半導體材料的器件,每個器件就是一個像素。這些半導體材料對光非常敏感,可以記錄微弱的光線射入,敏感程度可以達到膠片的幾十倍以上甚至更多。

如果您想更深入的了解CCD和CMOS,強烈推薦先學習附錄3詳細介紹再繼續向下閱讀。

CCD和CMOS可以接受從透鏡那裡射入的光,

在每個像素的位置

將光子的能量轉化為相應的電荷

作為對該點接受到的光的信息的記錄。

之後,就可以被清零然後再次開始記錄了,相對於傳統膠片,這種方式實現了記錄與存儲的分離,從而節約了成本。

但是,

這種電荷信息不能直接儲存,

需要先被量化才能轉換成數字信息存儲起來。(

當然,如果並不是以數字的方式存儲而是要以模擬的方式存儲信息的話,就不需要經過ADC了,而可以直接進入模擬存儲環節了。)

首先用一種叫做Charge Amplifier電荷放大器的裝置把電荷放大轉化為電壓,然後再通過一種叫做模擬數字轉換器Analog Digital Converter(ADC)的裝置,這種裝置可以把模擬的信息量化以後轉化為一定精度的數字信息。

如果是3位精度的話,

就意味著入射光的強度,從最暗到最亮一共可以細分為23 = 8檔,而

8位精度的話,28 = 256檔,比格雷還要多出206檔,如果是10位精度,就意味著可以細分為1024檔,相比之下格雷真是遜爆了。

位數越多,就能夠越仔細的區分光強度的微小不同。(可以參考附錄1)

請看下圖,隨著顏色位數的提高,圖像會越來越細膩。

在記錄環節,不要說10位,12位、14位甚至16位都不是什麼難事,但是

現在主流的儲存/顯示方式是用8位記錄每種顏色,三種顏色加起來一共24位(再加上用來定義透明度的8位,有時也被稱作32位),每位有256級,三種顏色相乘,一共16,777,216(28x3)種顏色。

這就是所謂的8位色深了,

這個標準一般被稱作True Color,蘋果則通俗的稱其為Millions

of Colors。

不過最後蘋果被好多消費者告了,因為其實蘋果早年打著Millions of Colors旗號銷售的很多電腦的屏幕都不是真正的24位,而是成本更低的18位,即每種顏色只有6位,一共26x3 = 262,144種顏色,才26萬色,怎麼就四捨五入到Million還帶個s的呢?

其實,蘋果這樣「宣稱「也不是完全沒有依據的,因為它是靠「抖色」的方式來實現對24位色的模擬。

首先我並不是針對蘋果,因為大多數顯示廠家都在使用抖色技術,不僅僅是從6位抖到8位,還有很多從8位抖到10位。

其次,抖色並不一定是壞事,同等情況下,抖要比不抖強。

只是大家對蘋果的期待值太高了,結果沒想到這麼風流倜儻一表人才的蘋果也和小屌絲一樣要從6位「抖」到8位。

那麼,什麼是抖色呢?請看附錄5

說完了需要進行記錄的「自然信息」,我們再說說我們手工生成的「人造顯示信息」吧。

文字、CG、遊戲畫面等等信息都是沒有實體的,在數字空間里憑空創造出來的信息,這些信息都可以被顯示出來,以光的形式傳達到人的眼睛。

雖然可能我們平時感覺電腦可以顯示的信息有很多樣,但是其實歸根結底無外乎兩大種類。

· 文字

· 圖像(這裡主要指計算機CG、遊戲等數字圖像)

但是,請注意,無論是文字還是數字圖像,被不被顯示,與其自身存在的意義是不相關的

比如文字是否被看到與其本身存在的意義不具有必然的聯繫,文字本身就是一種不依賴於某一種特定人類感官的概念,是一種信息。

雖然這種信息最廣泛的傳遞途徑還是以光的方式傳達到人眼,別的傳遞途徑也是存在的,比如被讀出來,以聲音的形式傳遞到人耳。

所以文字信息本身,和其被以光的形式所展示出來的視覺信息,是兩種信息,雖然後者是建立在前者的基礎上的,還是應該把兩者區別對待。

圖像也是一樣的,並不一定是通過視覺來展示,也有可能是被列印/雕刻出來然後以觸摸的方式傳遞。

好比一朵花的存在本身,是一個信息,但是這個信息和我們眼睛收到的這朵花的視覺信息,是兩個信息。

第二個信息是來自於第一個信息,對於我們人類來說,則是通過第二個信息來逆推第一個信息。

繞著么大圈說這麼多的目的是:我們在這裡說的「人造顯示信息」的生成,並不是指生成「文字」與「圖像」這些信息本身,而是生成以這些信息為基礎的「視覺信息」。

這些信息在被生成的時候,還是以各自的形態被生成,字母還是字母,漢字還是漢字,三角形還是三角形,立方體還是立方體。這些都不是我們要生成的「顯示信息」,這些都只是「一朵花」

們 。

我們要生成是,是當陽光照在這些花上反射出來的光的信息。

所以,每次要顯示文字或者圖像的時候,計算機會「讓一束想像的光照在這些文字或圖像上」,然後這些文字和圖像「反射」出來的光會生成一個可視的場景,然後計算機會為這個場景「拍攝一個照片」,這個照片就是所謂「人造顯示信息」了。

具體情況是,在計算機內部存儲有所有的文字的「視覺信息」,也保存了所有的幾何圖形在各種「材質、光照」條件下的「視覺信息」,當需要被顯示的時候,就會根據具體的畫面需求,綜合調用這些視覺信息,有點像活字印刷的感覺,生成一幅幅圖片。而這些數字圖片就好像前面說的記錄「自然視覺信息」的照片一樣,成為了視覺信息鏈的第一個環節。

好的,記錄部分講完了,下面讓我們進入到信息的存儲部分吧。

· 存儲

視覺信息的量實在是太大了,對我們的大腦會造成很大的挑戰,所以我們人類「選擇」不在大腦里存儲我們看到的所有視覺場面。雖然的確有一些人在幼年時期是具有所謂「映像記憶Eidetic Memory」的能力的,但是這種能力隨著年齡的增長都會消失,目前還沒有發現成年人類個體真正具有這種忠實地存儲視覺信息的能力。

所以人類非常需要藉助技術的力量來保存視覺信息,在大腦以外的「介質」上儲存這些信息,留作以後使用。

但是,前面說過,除了傳統膠片以外,在電視被發明的初期,人類是沒有能夠存儲視頻信號的方法的。畫面在被拍攝的同時就要被發送出去。

但是,在那時膠片是非常貴的,只有一些重要的節目才會用膠片來存儲,而大部分的節目就只能夠播放一次就再也看不到了,直到1951年磁帶被發明以後,人類才開始能夠大量的保存影像信息。

然而,人類對信息的存儲行為卻是歷史非常悠久的,甚至可以說沒有信息存儲就沒有人類的今天。存儲和顯示一樣是信息社會的基礎。其本質是要將信息的狀態保持下來,以便將來能夠被再次讀取。

從原始人的結繩,在沙地上、岩洞的壁頂上的繪畫到各種書籍,乃至於現代的固態硬碟,都是信息存儲的方式。

原始人的結繩記事

這些方式都有一個特點就是要做記號

存儲信息就是要做記號,用記號來保存狀態。

但是用來作為記號的東西卻可以多種多樣,比如結繩就是用繩結來做記號,畫畫是用顏料來做記號,寫字是用文字來做記號,固態硬碟是用晶體管來做記號。

截止現在,人類主要採用了以下幾大類記號。

· 物理記號

包括繩結、紙上的油墨、穿孔卡上的孔、黑膠唱片上的溝渠以及各類光碟上的小孔等

· 磁性記號

包括磁帶、磁芯、磁碟、硬碟等上面的磁性物質。

· 電壓&電荷記號

包括舊式陰極管內存以及DRAM、快閃記憶體、固態硬碟、IC卡等里的晶體管。

目前我們生存的時代仍然是這三類記號共存的時代,這些方式都能夠存儲顯示信息,目前來看:

代表著物理方式的光碟,在傳播信息上仍然有著一定的便利性,但是其優勢隨著互聯網的發展已經在逐漸消失,未來很可能會被淘汰。

而以磁碟、磁帶為代表的磁性方式因為優越的性價比仍然是大規模信息存儲的首選。

利用晶體管來存儲信息的放著則仍然是一種高性能高成本的選項,適合需要非常高性能的場景。

然而,與很多人的認識相反,

存儲的方式並不能決定

記號是模擬還是數字的。

比如很多人認為黑膠就一定是模擬,CD就一定是數字的,其實不是這樣的。

至少從理論上來說,黑膠唱片也可以存儲數字記號,同樣的,CD甚至晶體管裡面也是可以存儲模擬記號。

這完全取決於我們人類如何解讀這些記號。

比如結繩記事,兩個結可以理解為模擬記錄的某種長度,或者是數字2,也可以理解為二進位的11也就是十進位的3。所以這些記號是數字還是模擬其實完全取決於人類的「一念之差」。

這是因為數字只是我們人類頭腦里的概念而已。就連計算機的0和1也無非是我們給低電壓和高電壓兩種狀態賦予的概念而已,並不是自然界真的有0和1。

所以,只要儲存者和讀取者之間有一種約定好的方式,能夠從存儲介質中重新獲取相應的信息就可以達到存儲的目的

這種約定好的方式包含著很多方面,其中最主要的是

顏色定義

信息結構

顏色定義方面,在存儲每一個子像素信息的時候,首先,使用的記錄設備會有很多不同,同樣的場景,記錄下來的數值都可能不同。其次,用來顯示的顯示器也會有差異,使用的環境也會有各種不同,所以,同樣的數值,最後顯示出來的效果又會千差萬別。所以,為了保證內容製作與展示的效果的一致性,整個業界需要有一個統一的顏色標準。

而目前最有名也是最常用的標準就是sRGB了。

這是目前市面上大多數的顯示器以及大多數的照相機/攝像機所採用的標準。它是由微軟和惠普在1996年制定的。這個標準通過定義一個標準的內容展示環境(顯示器的R、G、B三原色、環境光白點(見附錄6)以及Gamma Correction伽馬校正(見附錄7)等參數),並通過操作系統和硬體的支持,使得內容廠商根據此標準製作出來的內容能夠在計算機和互聯網上得到更準確更一致的展現。(具體關於sRGB的介紹,請看附錄8。)

在RGB三色模式下,一旦R、G、B的定義確定了(其實也就是定了R、G、B的最大值),設備(照相機/攝像機/顯示器等)的色域Gamut也就確定了。只要這個色域在照相/攝像機的記錄功能的物理能力範圍內,在存儲的時候,按照sRGB的定義做出調整再寫入的話,就能夠保證圖像在大多數顯示器上得到正常的展現。

當R、G、B同時都為最大值的時候就是最亮的白色,最小值就是在完全沒有這種顏色的時候,把這個值定義為0。當R、G、B同時都為0的時候就是黑色。其他落入最低與最高之間的數值則按照Sensor記錄的信號強度的相應的比例以線性的方式記錄。

如果我們採用模擬方式存儲的話,就會按照比例來記錄不同強度的記號,類似黑膠唱片的溝的深淺,或者磁帶的磁性物質的磁場的大小。

如果我們採用數字方式來存儲的話,則需要首先指定精度,然後再根據精度來分出的等級來儲存Sensor記錄下來的數據。

如果對數據不加改變,按照線性關係存儲,這種方式就叫做RAW方式。大部分單反或者現在比較高端的手機都可以這樣記錄文件,優點是特別方便後期加工,然而,因為存儲的文件體積過大,目前並不常用。

另一方面,如今使用最廣泛的照片儲存顏色標準是sRGB或者Adobe

RGB 1998。如果按照這兩種方式之一來存儲顏色數據的話,則需要對線性的數據進行Gamma

Correction
(附錄7)指數變換。
大多數的手機、照相機、攝像機在將記錄下來的信息存儲的過程之中都會對數據進行指數變換。電腦等可以直接生成視覺信息的設備在存儲的時候也會遵循這種標準。

Adobe RGB 1998標準是1998年Adobe公司主導定製的標準,主要是為了解決sRGB標準無法覆蓋在印刷領域佔據主流的CMYK模式的色域的問題。除了這兩個標準以外,在電視領域還有標清的ITU-R Recommendation BT.601、高清的BT.709、超清的BT.2020以及支持高動態對比度HDR(附錄11)的BT.2100,在電影領域比較常用的是DCI-P3等標準,這些標準都有自己的顏色定義。

信息結構方面,在存儲的時候,還需要按照一定的格式對信息進行組織整理,方便電腦程序以及各種設備對信息進行讀取與編輯。

因為無論是現在主流的快閃記憶體、硬碟、光碟還是過去的磁帶,都是以一維的形式存儲與讀取數據的。各種設備對這些晶體管的寫入與讀取都是按照順序一個一個進行的,硬碟、光碟以及磁帶也都是如此,零維的信息在時間/空間上的連續形成了一維的信息流。

但是我們要存儲的信息卻是二維的,甚至還會有一個時間維度,所以就需要對一維的信息進行有格式的切分,進而增加維度。比如標記出一行的開始與結束,一幀的開始與結束等等。

這種格式和標記的方式可以有很多種。目前人類把一段相對獨立的數據成為「文件」,我們一般也會把照片、視頻等等存成各種各樣的文件。文件有各種格式,不同的格式對信息的組織整理的方式都不一樣。

比如上面說的RAW文件,就是一種把Sensor記錄的信息不經任何處理,直接存儲下來的格式,基於一種叫TIFF的格式。

而我們平時最常用的照片文件的格式一般是JPG/JPEG,此外還有BMP、GIF和PNG等常用格式。

而視頻文件格式則主要由MP4、AVI、MKV、藍光DVD等等。

這些格式除了對信息進行整理以外,還要對信息進行各種壓縮,主要是為了在儘可能多的保存更多的視覺信息的前提下,減少信息存儲和傳輸所佔用的資源。但是哪怕是現在的技術水平,「高保真」地儲存/傳輸視覺信息仍然是成本非常高昂的。

所謂壓縮,就是要減少信息所佔用的存儲空間與傳輸成本。好比出行前發現行李太多,行李箱裝不下了。有兩種選擇,一種是把行李整齊擺放然後用力去「壓」,試圖減少行李的體積,然後塞進行李箱。另一種是把一些不太重的東西拿出來,只裝入必須的東西。

信息壓縮也是分為有損壓縮與無損壓縮。

無損主要靠統計學的方法來減少信息冗餘,有損則主要利用人類視覺的特性,在盡量不減少人類的感受的前提下,減少信息的量。

因為壓縮這個話題是一個和數學與關聯非常緊密的話題,我數學又特別差,所以在這裡我就不細說了。。。簡單講講

無損壓縮

信息冗餘就是多餘的信息,比如說AAABBB這段信息就存在冗餘的信息,因為可以用更短的3A3B甚至3AB來表示。又比如我們規定AAABBB=1,那麼AAABBB就可以被表示為1,前提是這個規定,要麼要附在這個文件里,要麼就是在打開文件的軟體里存在。把經常出現的詞語用更短的方式來表示,也是一種壓縮。

或者也可以採用代號/密碼的形式,用一套更簡潔的代號來替代複雜的信息,然後在解壓縮端再通過逆向解碼的形式還原信息。如果信息能夠被一套更簡潔的代碼來替代,說明這個信息是存在著信息冗餘的。

在圖像領域比較常用的無損壓縮方式主要有Abraham Lempel和Jacob Ziv發明的LZ77和LZ78演算法及這兩種演算法的各種變形。GIF文件和PNG文件就是基於這這兩種演算法。

另外,對於視頻信息來說,因為還存在一個連續時間的維度,所以可以通過比較不同的幀的差異,只記錄每一幀和前後幀的不同的地方,而不用把每一幀的信息都全部保留。

其實無損壓縮對於視覺信息來說是有一定的局限的,壓縮到了一定程度以後,邊際效應比較明顯,很難再繼續提高壓縮比例了。壓縮/解壓縮所需的時間成本和計算成本可能會高於節省下來的存儲或傳輸成本。

有損壓縮

我們之前其實是介紹過幾種,比如Bayer排列(利用人類對綠色更敏感)、YCbCr4:2:0(利用人類對明暗信息更敏感),或者乾脆就是減少信息的量(降低色深、解析度等)。

因為人類視覺的容錯性很大,並不一定需要對場景的100%還原,所以有損壓縮是非常適合視覺信息的。

我們常用的JPEG文件以及各種視頻文件甚至電視節目都是採用了形形色色的有損壓縮方式。目前聯合國旗下設的ITU-T(國際電信聯盟遠程通信標準化組織)和ISO國際標準化組織,以及包括IEC國際電工委員會和SMPTE電影電視工程師協會等行業組織都在積極的定製各種視覺信息壓縮標準。包括H.264等目前最常用的互聯網視頻壓縮方式都是這些組織參與制定的。

各種不同的文件格式可以採用不同的數據格式和壓縮方法(文件格式和壓縮方式有關聯但是沒有一定的必然性),內容製作的過程中要選擇合適的格式,一般在製作完成之前會選擇信息損失最少的格式,而在完成以後需要存儲或者傳輸的時候,需要在壓縮速度、壓縮數據大小以及質量損失這三者之間進行折衷,選擇一個最符合需求的格式。

比如對於需要在網路上傳播的視頻來說,數據大小要比質量損失更重要,所以會選擇壓縮率比較大的類似於H.264甚至H.265這樣標準。但是如果是要求比較高的家庭視聽間就會採用藍光DVD這樣的質量損失較小但是數據量較大的格式。數字電影院因為對於視覺質量要求非常高,所以會採用JPEG文件的後續版本JPEG2000來存儲每一幀的信息,好像電影膠片一樣,然後像快速播放幻燈片一樣來逐幀展示。非數字IMAX則完全不採用壓縮,直接使用信息量巨大的70mm膠片來播放。

· 傳輸

視覺信息的製作的地點往往和觀看的地點是不同的。那麼製作好的信息就需要被傳遞到另外的地點。這個過程就是信息的傳輸。

信息的傳輸可以採用兩種方式:

1. 物理傳輸

2. 電磁波傳輸

在電視發明之前,物理傳輸佔據了主流。尤其是膠片時代,往往需要對膠片進行複製,或者沖洗成照片,再通過物理的方式傳播。每當電影上映的時候,發行公司會將大量的電影拷貝物理遞送到電影院放映,即使到了今天數字電影大規模普及的年代,物理傳輸仍然是電影傳播的主要方式,只不過之前是寄送膠片拷貝,現在是寄送硬碟。數字電影院收到硬碟以後會拷貝到自己的播放伺服器里,統一播放。在上映期結束以後,電影院需把硬碟再寄回給發行公司。這樣做的原因主要是考慮到數據傳輸的效率以及「數據安全」的原因。

進入到數字時代,視覺信息的傳播途徑和其他信息一樣是以互聯網途徑為主。圖片信息還好,但是視頻信息的數據量往往非常大,而人類目前的網路帶寬還是力不從心,所以傳輸視頻信息所花費的時間成本可以說是所有信息種類中最大的。

但是電視為什麼可以沒有延遲的傳播高畫質的圖像呢?這是因為首先電視傳播的帶寬其實很高,其次電視內容的壓縮很好,第三電視採用了流媒體的形式。(請看附錄10對於電視信息傳播的簡單介紹。)

什麼是流媒體呢?

就是像水流一樣,一邊播放一邊傳輸,不需要等到整個文件都傳輸完了才播放的意思。傳統的電視、廣播其實都是流媒體,而圖書、DVD這些都是非流媒體。

因為這部分其實是通信的領域,我們並不會過於深入到技術細節。。

視頻信息經過前面講過的壓縮方式壓縮以後,會再被以適合流媒體傳輸的格式組織起來(比如MP4,WebM等等),然後再通過一種發送與接收方都採用的協議(比如RTMP、HLS等等)一個「小部分」一個「小部分」的傳遞給最終觀看的終端。也可以先傳遞給一個中央伺服器,再由這個伺服器來分配信息給多個觀看終端。一個觀看終端收到信息以後,會對每一個小部分進行即時的解碼然後播放。而為了使得終端用戶能夠更迅速的獲得內容,我們可以布置多個伺服器,減少終端與伺服器之間的物理距離,優化終端與伺服器之間的網路路線。這就是網宿科技以及各種雲公司在做的CDN了。

內容信息被接收到以後,是不能直接被顯示屏顯示的,還需要經過一定的處理與加工才可以。讓我們一起進入到下一個環節。

· 展示

電腦、藍光DVD播放器以及電視裡面的信號接收裝置,這些都是屬於播放設備,他們可以把視覺內容信息轉換為顯示器可以聽懂的語言並發送給顯示器。

而顯示器內部也有一些自己的處理晶元,在接到這些信息以後,還會再做一些自己的處理,最後再發送到一個一個的像素,轉化為人眼可以接受的光的信息。

首先,這些播放裝置在接收到這些信息以後,為了能將信息重新還原成光的信息,會對信息做出各種逆向操作,包括但不限於記錄存儲過程之中發生的視頻編碼、顏色空間轉換、壓縮等等工作。

所有的這些工作可以由一個專門的晶元負責,也可以由個人電腦或者手機這樣的通用的裝置進行處理。

以個人電腦為例,我們知道,電腦中主要負責處理計算的是中央處理器CPU,而圖形處理器GPU則主要負責關於圖形有關的計算。CPU和GPU之間經由一個叫北橋的晶元連接,北橋同時也負責連接CPU和系統內存。GPU則有自己的內存——顯存,GPU和顯存之間直接連接,各種關於圖形的計算都可以在顯存里完成。

請注意,GPU不等於顯示卡,應該說GPU是顯卡的一部分。最早的顯卡是沒有GPU的,那個時候所有的計算都由CPU來負責。顯卡值負責從CPU接收要顯示的信息,並儲存在一個叫Framebuffer幀緩衝的內存晶元里,然後另外一個叫RAMDAC隨機數模轉換器的晶元一直在讀取這個Framebuffer,每次讀取以後就把信息轉換為顯示器可以聽得懂的信號語言,發送給顯示器。後來隨著計算機的發展,顯示的任務越來越重,就在顯卡上增加了單獨的圖形處理晶元GPU和顯示專用的內存——顯存。

那麼,一段視頻被傳送到電腦里以後,如果我們雙擊這段視頻,會發生什麼呢?

· 首先,操作系統會根據文件類型,識別到這是一個視頻文件,然後會調用一個播放軟體來對這個文件進行解讀。這個看圖軟體首先會讀取這個文件,然後對從類型、編碼、壓縮、顏色空間等等方面對圖像進行分析,最後決定以一個合適的方式將這些信息轉化為顯示器可以讀懂的信息。

· 然後,這些操作意圖會被傳送給操作系統。操作系統有著專門處理各種業務的「辦公窗口」,這些窗口叫做應用程序編程介面API。播放軟體會把自己的意圖傳送給顯示相關的API。

· API在接受到播放軟體的申請以後,會把這些申請再發送到顯卡。顯卡也有自己的「辦公窗口」,這個窗口叫做驅動程序。API會把軟體的意圖整理並轉化成驅動程序可以聽懂的語言再發出去。

· 驅動程序則會最終把這些指令轉化為顯卡可以聽懂的機器語言發給顯卡。

· 顯卡最終接收到這些指令以後按照指令執行,把視頻內容解讀出來以後,轉化為顯示器可以聽懂的信息,發送給顯示器。

智能手機其實和電腦差不多,只不過現在的智能手機的晶元都是採用System on Chip,即整套系統放在一個晶元上,CPU、GPU、數據機、音頻晶元以及這些晶元所要用的各種驅動都放在一塊晶元上。甚至對視頻的編碼解碼的功能也是放在晶元裡面的。其他的播放設備大多是專用的播放設備,有專門的晶元來處理上述所有的流程,比如數字電視都會有一塊單獨的晶元來承擔視頻處理的任務,這塊晶元也就相當於是一個可以輸出內容的主機。

信息從主機出發順著線進入到了顯示器裡面以後,和信息的最終目的——通過像素變化的形式轉化為人眼可以識別的光的信息——之間還隔著幾個過程。我們之前講過,現代顯示器的像素的變化是靠TFT來操縱的,具體說是TFT上面的一個一個的像素的電壓的值(或者是On狀態的時間,但是為了簡化問題,我們這裡先只討論改變電壓的情況),但是信息不是一下子以二維的形式傳送到TFT的所有像素上的,而是以掃描的方式按照一定的時間節奏一個一個的傳輸的,具體的掃描方式我們在進階篇(二)中有過介紹。負責掃描的些晶元就叫做Display Driver IC(DDI),有負責橫向的,也有負責縱向的,負責橫向工作的叫做Gate IC,負責縱向工作的叫做Source IC(也叫Column IC)。另外還需要有一個負責分配任務給它們的晶元,叫做Timing

Controller,簡稱T-CON。有的顯示器或者電視裡面還有一些對各種信號進行進一步加工處理的晶元(比如Gamma調整晶元、FRC晶元、LUT晶元等)以及對電源和背光進行管理的專用晶元。這些晶元可以分別存在,也可以把被統一到一個晶元里。在顯示器和電視這種大型設備里一般都是分別存在的,而且還需要有幾個以上的Gate IC或者Source IC才能控制大面積的TFT。而手機等移動設備為了減少體積,一般都會把功能集成到一個晶元里。

下圖是三星電視的主DDI晶元。

下圖是三星手機的單獨DDI晶元。

下圖是iPad的DDI

下圖是OLED的DDI

請注意,OLED的DDI和LCD的還不一樣,尤其是大屏電視的OLED DDI。因為LTPS材質的不均一,屏幕越大,信號到達TFT各個角落的時間的差異就越大,那麼畫面就會出現意想不到的撕裂的現象。所以先進的OLED DDI裡面可以儲存一張自己驅動的TFT的不均一性的照片,然後根據具體的不均一性的情況來對信號進行調整。

顯卡和顯示器之間的信息通路/介面也有很多種,不同的通路的傳輸能力也不同。無論採用哪種方式,在主機一側都需要有一個負責發送信號的Transmitter,而在顯示器端則需要有一個負責接收信號的Receiver。另外,信息在進入到顯示器內部以後還要經過一些處理步驟,不同的步驟之間也有不同的介面標準。從過去到現在有著形形色色種種的各種標準存在,如果您想仔細了解,務必請閱讀「附錄12」(下面很多術語與縮寫都在這裡有解釋)

下圖是一個典型的DVI/RGB介面的顯示器的信息傳輸路線與使用的相關介面。

一般情況下,T-CON是顯示器裡面最複雜的晶元,也可以看做是顯示器的「CPU"。它主要負責分析從主機傳來的信號,並拆解、轉化為Source/Gate

IC可以理解的信號,再分配給Source/Gate去執行,T-CON具有這種功能是因為T-CON具有Source/Gate沒有的控制時間節奏的能力,所以叫Timing Controller。越來越高的解析度、刷新率和色深都對T-CON的處理能力以及前後各種介面的信息傳輸能力提出了挑戰。

舉個例子,比如蘋果在剛剛推出iMac

Retina的時候,很自豪的宣布iMac的屏幕支持5K(5120

x 2880)的解析度,並且運行在60hz的刷新率。5120

x 2880 x 3(RGB) x 8bit x 60hz = 21.23 Gbit/s,這已經超出了當時的DisplayPort

1.2標準所能支持的17.28 Gbit/s的能力範圍了,業內都十分好奇蘋果到底是怎樣實現了這一個超越時代的產品的呢?首先蘋果需要超頻顯卡的eDP輸出是肯定的了。但是當時也沒有能夠處理這麼大數據量的T-CON,難道蘋果是同時採用了兩塊T-CON?但是這樣做有風險,有可能在某些情況下工作不良,出現只有一半屏幕的問題,比如最新的iPhone X因為上面的劉海就必須要用兩塊DDI來分別驅動屏幕的兩側,結果(雖然概率很低)就有可能出現下面這樣的問題。

那麼,如果蘋果沒有採用兩塊T-CON的話,是怎麼實現的呢?後來人們通過拆分iMac才發現,他們是採用了譜瑞專門為蘋果定製的特殊的DP665晶元,可以實現接近於DP1.3標準的近40Gbit/s的處理能力。當然蘋果在發布會上說這是自己發明的,他們甚至說Oxide TFT都是自己發明的,根本不提任何供應商的名字。

相比T-CON來說,Source/Gate相對簡單一些,主要是要執行T-CON的指令。

根據我們之前講述的掃描方式,Gate

IC因為只提供兩種狀態(On/Off)就可以了,所以功能相對更簡單。而Source IC根據屏幕色深的不同,要精確地提供很多不同級別的電壓,比如8位色深就要提供28 = 256級,10位色深則要提供 210 = 1024級,這對與晶元的複雜程度要求很高。所以比起Source來說,Gate IC很容易做的很小,甚至於現在可以把Gate IC直接做到TFT裡面,這種技術叫做GIP(Gate In Panel)或者GIA(Gate In Array,或者Gate On Array)。

根據下圖,屏幕的邊框的厚度其實主要就是GIP(圖中GIP+GLK)與框膠(SEAL)的厚度的和,外加一些切割的精度與安全邊際。目前,採用LTPS TFT的手機可以把GIP控制的很小,最終可以做到600μm甚至更低。

另一方面,Source IC還很難實現這種方式,所以我們可以看到全面屏手機的屏幕的兩邊的邊框可以做的很窄,但是上下邊,尤其是下邊的邊框很難做到那麼窄,其中一個原因就是因為Source IC的存在。當然技術是不停的發展的,現在全面屏或者超薄的無邊框電視的出現就是因為有很多新的技術可以把Source IC的大小減少,或者藏匿起來。雖然無法像Gate那樣做到Panel裡面去,但是我們可以通過各種封裝手段來減少Source佔據的面積。一開始最簡單的是像Gate一樣,就是把晶元通過ACF(Anisotropic Conductive Film 異方性導電膠膜)粘在面板的基板的玻璃上,這種叫COG(Chip On Glass),但是這樣太佔地方,所以後來人們又採取了TCP(Tape Carrier Package)COF(Chip On Film)的方式(COF相當於是TCP的升級版),就是把晶元裝在膜上,這樣就可以通過把膜彎曲到顯示屏的下面來節省晶元所佔的位置。最新的方式是把晶元裝到柔性Plastic基板上,叫做COP(Chip on Plastic),這種方式不僅可以最大的發揮柔性屏的優點,而且還能節省更多的空間,節省更多的成本,實現更全面的屏幕。

在遙遠的未來,隨著TFT本身半導體密度的增加,有可能實現把DDI整體直接做成TFT的一部分,而不是使用單獨的晶元來完成這個任務,當然,因為TFT的物理材質比不上一般IC的單晶硅優秀,所以計算能力上肯定有巨大的差距,但是隨著IGZO等優秀的新型材料的不斷產生,甚至未來可能會出現單晶硅TFT,那麼進一步發展在TFT裡面加入更多的IC功能,最終實現以屏幕為中心的計算也是非常有可能的。

然而,在那之前,可能更現實的是在DDI中集合更多的IC功能,或者反過來說把DDI功能集合到其他IC中去。目前來說,DDI與觸屏控制之間的融合趨勢很明顯,所以很多觸屏晶元公司和DDI公司都在試圖通過收購併購來進入對方的領域實現整合。比如觸屏晶元與指紋識別晶元廠商Synaptics在2016年收購了DDI廠商Renesas。這種綜合了各種功能的DDI叫做TDDI(Touch and Display Driver IC,或者是Touch and Display Driver Integration)

但是融合不會僅僅停留在在晶元層面,目前三星自己的Y-OCTA(Youm On-Cell Touch AMOLED,Youm是三星的柔性OLED顯示屏的品牌名)技術,其實就是把觸摸屏直接做進了柔性OLED里,具體是在OLED上面塗一層薄膜封裝(TFE, Thin Film Encapsulation)用的有機物,然後在有機物的上面用鋁網膜列印出觸摸控膜。這樣可以讓屏幕更薄而且透光(開口率)更好,而且節省更多的成本。而且Y-OCTA因為是柔性屏,所以天生可以採用COP技術,實現更窄的下邊框。蘋果iPhone X沒有採取這個技術,主要是因為蘋果覺得自己和日本寫真印刷合作研製的OLED觸摸的體驗更好。

Anyway,把觸屏與OLED合在一起的趨勢還是十分確定的,這就對很多觸屏公司造成了目前韓國很多之前主營觸屏的公司都經營困難,它們或者在轉型,或者試圖進入TDDI領域,然而未來TDDI在這種以TFT為計算載體的大融合的浪潮面前也是很難獨立存在的。當然,這個趨勢並不是馬上就會到來,還需要很多年的技術發展,而且因為這屬於IC廠商與顯示屏廠商之前的結合,不是誰都能做的,目前在世界上具有這個能力的廠商只有三星和鴻海。

我們的顯示行業進階篇終於講完了,我預計會休息一段時間,再開始寫具體的技術與行業分析。今後會以短篇的形式為主,像這種幾萬字的作品實在是太費時間了。。。

十分感謝大家的閱讀!

附錄1:

模擬&數字

迄今為止,人類做記號(存儲信息)的形式主要有以下兩種

· 模擬 Analog

· 數字 Digital

什麼是模擬?什麼是數字?

比如說我們用一個尺子來量手機的長度,這個尺子是手機嗎?不是。但是尺子上的橫線卻可以代表,可以「模擬」出手機的長度,有了這個標記,哪怕是沒有手機,我也能知道手機的長度是多少,這就是模擬。

再比如說氣溫,氣溫是空氣分子熱運動的程度的表現。雖然我看不見空氣的分子,但是同樣受到氣溫影響的水銀的熱運動卻是可以看見的,氣溫越高,水銀的分子的熱運動越劇烈,水銀的體積就越大就會導致刻度上升。所以,水銀溫度計可以「模擬」地告訴我們現在空氣分子的熱運動情況,這也是模擬。

可以看出,模擬方式的特點是,模擬的標記信息與被模擬的信息有著直接的聯繫,非常直觀。

在記錄光的信息的時候,膠片上的銀粒子可以「模擬」接受到的光子的數量,CMOS/CCD的每個像素產生的電荷的量就是「模擬了」接受到的光子的數量,也就是光的明暗。

很明顯,這種記號是跟隨著被記錄的信息的改變而改變的。

如何存儲這種記號呢?

比如說我們測量了一個房間的氣溫,應該如何存儲這個信息呢?

我們可以現在溫度計的標尺上標記出一個點,然後按照這個標記在紙畫出一條長度相當於從零點到標記的一條線,然後保存這張紙。

這是在用「模擬」的形式來存儲氣溫的信息。

或者我們也可以觀察溫度計標尺上的數字標記,數一數,然後將這個數字保存下來。

這就是「數字」的記號了。(不是嚴格意義上的,後面解釋)

當我們需要測定很多房間的氣溫或者測定同一房間的氣溫很多次的時候,很明顯數字的方式要比模擬的方式更方便,更易於整理、計算、統計、分析與比較。

比如,模擬方式是很難求出過去一千天的平均氣溫的。

而用數字的方式就會很容易。

但是,數字的方式也有很多問題。

比如,這些溫度數值要精確到小數點後第幾位?如果精確到小數點後10000位的話,是不是模擬的方式會更節省存儲空間?

因為在使用模擬方式的時候,我們不需要知道一個準確的數字,我們只要知道這個模擬的記號可以被用來代表原來的信息就可以了。

數字信息有一個精度的問題,而模擬信息卻在理論上不存在精度的問題,數字信息的精確度越高,就越能準確的反應原始的信息。

數字信息帶來的便利與效率提升是建立在一定的成本收益比上的。

另外,假設我們要測量的氣溫是隨著時間的推移在持續變化的,我們應該如何記錄這種信息呢?

這種情況,比起原來的單一溫度信息又多了一個時間的維度,所以單純的一條線已經不足以記錄這個信息了,我們可以畫無數條線,或者,可以採用一個X/Y兩軸的平面來記錄,Y軸代表當前溫度的標記點與零點之間的距離,X軸代表時間。

假設我們有一支筆,可以隨著時間的前進,在Y方向上連續地標記氣溫在溫度計標尺上的位置。

那麼我們就可以得到類似於下面這種的平滑的曲線。

這是在用「模擬」的形式來存儲氣溫及其隨著時間變化的信息。

那如果我們採取記錄溫度數值的方式呢?

我們需要先觀察溫度計標尺上的數字標記,然後記錄這個數字,在這個過程之中也許溫度已經發生變化了,然後我們需要再去觀察一次,然後再去記錄,然後再去。。。

這種觀察與記錄的行為,我們叫做「採樣Sampling」

如果我們採樣不是很頻繁的話,並不能catch到每一瞬間的溫度的變化,可能記錄出來的圖形是這樣的:

很明顯,雖然大致的趨勢是正確的,但是缺少了很多細節信息。

如果,我們再勤奮一些,更加頻繁的去採樣,可能能做到下面這種程度:

雖然相對於第二個圖,這第三個圖與第一個圖已經很接近了,但是還是沒能保存全部的信息。

所以,這種數字的方式的另一個問題是,對這種隨著時間變化的信息來說,除非我們能做到「即時Realtime」地採樣,否則總是會丟掉一些信息。

但是採樣採的越頻繁,就越能獲得更完整的信息。

綜合以上兩點,數字信息比起模擬信息具有更多的便利性與可用價值,但是不能100%的記錄與存儲原始的信息。然而,只要適當地提高「精度」與「採樣率」,還是可以在可接受的成本內,到達人類可以接受的「還原度」的。

在實際生活中,因為我們人類的技術能力所限,其實我們獲取的「模擬」信息並不能達到理論上的「還原度」,精度以及採樣率並不一定好於數字方式,而且模擬的方式特別容易受到外界以及設備自身的干擾,產生雜音,而數字方式的雜音本來就少,還可以通過數學的方式來消除雜音,另外數字方式的優勢實際上要比理論上的更大。

比如膠片雖然是模擬的,但是膠片的方式一是像素的精度受到鹵化銀分子的大小、數量以及對光的強度與波長的敏感程度的限制,實際上並無法記錄全部信息;二是在攝錄視頻的時候,還會受到每幀的成像時間以及每秒幀數的限制,也無法實現真正的記錄存儲時間維度上的全部信息。

實際上現在在使用的嚴格意義上的數字方式與上述方式略有不同,因為數字方式是在人類發明與使用計算機之後才得到大規模使用的,所以狹義上的「數字方式」是指在計算機系統里使用的0/1二進位方式。

現代計算機是由晶體管組成的,每個晶體管只能理解0與1兩種輸入(電壓的高與低),也只能輸出0與1兩種答案(電壓的高與低),所以並不能直接記錄「35度」或「16度」這種信息。但是如果我們把多隻晶體管組合在一起的話,就可以使用二進位的方式來記錄這樣的信息了。比如35度就是100011,用6個晶體管可以記錄,16度是10000,用5個晶體管就可以記錄,而250度則是11111010,需要8個晶體管。

使用的晶體管的數量,叫做「位數Bit」,比如上面的35度這個數字需要6位才能記錄,而16度就只需要5位就可以記錄了,而250度則需要8位。

如果需要更加精確一些呢,比如250.125度,二進位是11111010.001,至少需要11位,如果要是零下250.125度呢?還得增加一位來傳遞正負信息,那就需要12位了。

很顯然位數越多,能夠儲存的數字信息的位數就越多,也能夠更精確。(雖然大多數情況下會使用科學計數法來表示數字,但是基本原理是一樣的,我們這裡不會仔細討論)。

最後,與很多人的認識相反,

存儲的方式並不能決定

記號是模擬還是數字的。

比如很多人認為黑膠就一定是模擬,CD就一定是數字的,其實不是這樣的。

至少從理論上來說,黑膠唱片也可以存儲數字記號,同樣的,CD甚至晶體管裡面也是可以存儲模擬記號。

這完全取決於我們人類如何解讀這些記號。

比如結繩記事,兩個結可以理解為模擬記錄的某種長度,或者是數字2,也可以理解為二進位的11也就是十進位的3。所以這些記號是數字還是模擬其實完全取決於人類的「一念之差」。

這是因為數字只是我們人類頭腦里的概念而已。

就連計算機的0和1也無非是我們給低電壓和高電壓兩種狀態賦予的概念而已,並不是自然界真的有0和1。

這個世界本身是「模擬的」還是「數字的"目前還沒有定論。

隨著量子力學的發展,原來很多認為是連續的東西被發現是有最小單位的,比如電有電子,光有光子,甚至有可能整個世界包括時間空間等等的一切都是有一個可以測量可以「數」的最小單位的,只是我們還沒有能力進入那樣的微觀世界去測量,那麼很可能我們整個世界都是數字的,模擬只不過是不精確的表現而已。

好像黑客帝國Matrix這樣。

哪裡有葯可以吃?

附錄2:

機械電視

下圖就是電視的最初形態,「機械電視」的攝像與收視的原理圖。

如下圖,在一個圓盤上鑽出很多小孔,每個小孔佔據圓周的一行,如果我們快速的旋轉這個圓盤,小孔會接次通過上方中央的黑框的部分,形成對這個框的逐行掃描,每個孔本身會對自身所在的行進行橫向掃描,孔的變換形成了縱向掃描。如果我們把被攝物體和這個系統放在一個小黑屋裡,然後我們在孔的後面放置一個黑盒子,黑盒子里放置一個光源,黑盒子的開口正對著這個圓盤的上方中央的黑框部分的話,光就會按照掃描的順序依次通過小孔照到被攝物體上。然後我們在被攝物體的附近放置一些物質,這些物質接收到被攝物體反射的光以後,會轉換出相應的電信號通過電線發射出去。

在接收端我們可以放置相反的物質,這些物質接受到電磁信號以後,會發出相應的光,在這些物質的前面,我們放置一個一模一樣的圓盤。光可以通過這個圓盤上的小孔射出來,進到人的眼睛裡,如果我們快速的旋轉這個圓盤,因為人眼的視覺殘留效應,我們就可以再現被攝物體的形象了。

像這種用一個一個的小孔來掃描的方式,每個孔只是一個點,只能記錄一個「零維」的信息。是在橫向的快速連續的掃描使得這些點點連成了線,形成了一維的信息,然後在縱向通過小孔位置的不斷下移,使得這些線又構成了面,這樣信息就成為了一個二維的畫面。

換句話說,這種「點掃描」的方式,利用人眼的視覺殘留效應與時間這個額外的維度,使得每一瞬間都只是「零維」的信息可以實現對二維畫面的記錄與傳達。

這種方式在「重現」一個二維的光的信息的時候,雖然沒有什麼大問題,但是在記錄的時候,因為點和點的信息之間是有時間差的,所以並不能夠真實的記錄某一瞬間的信息,只能是一個近似的記錄,近似度取決於掃描的速度。

很明顯,這種方式並不能完美地替代傳統的膠片。

附錄3:

CMOS Sensor(Complementary Metal–Oxide–Semiconductor Sensor) CCD(Charge-Coupled Device)

CMOS Sensor(簡稱CMOS)和CCD分別長成下面的樣子。

CMOS

CCD

可以看到,他們長得很像,這是正常的,因為從本質上來說,他們兩者都是MOS的陣列。主要差別在於使用的MOS不同,以及對信息的讀取的方式的不同。

那麼到底什麼是MOS呢?

MOS(Metal-Oxide-Semiconductor)是一種FET(場效應管),全名叫MOSFET(Metal-Oxide-Semiconductor

Field-Effect Transistor)。

什麼是FET呢?

簡單的說,FET場效應管(Field-Effect

Transistor)是一種半導體電子元件,是一種晶體管,是一種開關,是一種利用電場來控制電流的通斷的開關

也就是說可以根據一個輸入的值(1/0)來決定電流的通斷(1/0)的開關,這就相當於做了一個if...then...的邏輯判斷,而很多這種FET組合在一起就可以做出更多的更複雜的判斷了。這種本領使得FET構成了包括電腦、手機在內的我們現在信息世界的基礎,而MOS(FET)是最常見的一種FET,它的特點是,用一層絕緣的材料將輸入部分(電壓)與輸出部分(電流)分開,這樣只要改變電壓就可以控制電流。另外,我們在股票市場里經常提到的一個主題——功率半導體器件IGBT其實也是一種FET。控制顯示器每個像素的開關的TFT也是由一個個的MOS組成的。

MOS它大概長的是這樣的,看看就可以了不需要懂。

CMOS大概是這樣的結構,看看就可以了不需要懂。

CMOS則是MOS中最常見的一種,包括CPU在內的很多晶元都是以CMOS為基礎的,它通過基本MOS單位的組合實現了一個否定的邏輯判斷的能力。其特點是結果為輸入的反轉,輸入高電壓,輸出低電壓,輸入低電壓,輸出高電壓。

CCD也是用一種MOS做的,大概是長成下面這個樣子,也是看看就可以了不需要懂。

CCD並不是一種常見的MOS裝置,其主要的應用就是照相機成像。雖然前幾年還有CCD和CMOS哪個更好的爭論,隨著這幾年的技術發展,基本上CMOS技術已經佔據了絕對優勢了,而在可見的未來,CMOS技術的發展前景也要遠遠好於CCD。所以CCD基本已經被淘汰的邊緣了。被淘汰的主要原因是CMOS更省電、讀取更快、容易製造、成本低,之前CCD所擁有的噪點少、顏色深、感光度高等優勢隨著CMOS技術的發展都一個一個的消失了,現在只有某些專業的領域仍然還在使用著CCD,並且也面臨著即將被CMOS取代的威脅。

除了在構造上區別以外,CCD與CMOS Sensor最大的區別就是信息讀取方式的不同。下面這個圖很形象的把CCD的數據讀取方式展示出來了。

在像素上面增加電壓,可以把像素裡面的電荷一個一個的逼到和它相鄰的像素裡面去。

最外側的那一行最開始是空的,先接受和它相鄰那一行的像素的電荷,再一個一個的把電荷傳送出去,一個一個的轉換成電壓,然後最終再經過模擬數字轉換,形成數字信息。這其實也是一種掃描的過程。

而CMOS則與此不同,正如上圖右邊所展示的一樣,每個像素都會有一個元件來把電荷先轉換為電壓,使得CMOS的整體讀取效率非常高。這種讀取的方式每次讀取一行,該行的每個像素會被匯總到各自所在列的進行匯總,最後再統一輸出成數字信號。這種結構與我們在進階篇(二)中講解過的Active Matrix十分相似,所以也叫做APS(Active

Pixel Sensor),CMOS Sensor是APS的一種。

可以看出CMOS的像素比CCD的元件多很多,這些多的元件是不感光的,所以實際上CMOS能夠感 光的面積是小於同體積的CCD的。不過,沒關係,這個問題已經被很好地解決了,方法就是把不感光的元件全部都放在感光元件的後面,而不是並排。這種方式叫做Backside Illumination,這種CMOS叫BI CMOS。另一種解決方案是在每個Pixel上面再覆蓋上一個小透鏡,把光集中在感光元件上。

CCD/CMOS也和膠片一樣,面積越大像素越多能夠記錄的信息也就越多。可以看到iPhone的成像面積其實要遠遠小於各種照相機。

目前數碼相機最大的就是大畫幅了。再大的就只有傳統的膠片機了。請注意全畫幅(36x24mm)是比中畫幅要小的,因為所謂的全畫幅對應的是膠捲的135膠捲(35mm),而中畫幅的尺寸有很多種,定義是大於全畫幅小於大畫幅,其中70mm寬的畫幅還在被IMAX使用。大畫幅一般是指4x5英寸以上的畫幅。下面就是一款大畫幅的數碼相機。

而如果在手機之間互相比較的話,大概是這樣。可以看到iPhone的成像面積也要遠遠小於各種手機。

我沒找到一個最新的圖,但是現在三星最新旗艦Note 8已經升級到了1/2.3",而iPhone系列還是沒什麼變化,iPhone X說是變大了一點,但是官方卻一直對其大小諱莫如深,所以我估計也不會大多少。

這些1/3"啊,1/2.3"啊,4/3"啊,這些都是指的是對角線的長度,單位是英寸。但是要注意的是,這些數字實際上並不是真正的成像區域的對角線的長度。因為CMOS/CCD的命名還延續著以前的CRT攝像機的命名方式。CRT攝像機是一種利用陰極射線管來進行攝像的裝備,相當於以前的老電視反過來當做攝像機用。其具體原理我放在本篇最後作為附錄了。

我們只需要知道這種成像設備的真正成像的面積的對角線只有其整體對角線的三分之二,所以比如說常見的4/3"單反,其實際成像面積的對角線只有4/3 x 2/3 = 8/9 ≈ 0.87英寸。所以比如蘋果的1/3實際上是1/3 x 2/3 = 2/9 ≈ 0.22英寸。當然,這樣計算並不完全準確,是因為正常的順序是先有了實際成像面積的對角線長度以後再乘以3/2,然後得到一個小數值,再將這個數值約等為一個分子分母都是整數的分數,然後用這個分數來命名畫幅的大小。所以蘋果的1/3很可能只是一個約數。但是這樣做實在是很不方便,而且四捨五入的太多,難以區分不同的產品,所以現在的很多廠家雖然還是會乘以3/2,但是已經不再試圖去四捨五入求整數了,比如1/1.5"這樣的大小。

但是,無論CCD/CMOS有多大,都只是一個二維的平面,好像我們的視網膜一樣,但是我們生存的這個世界卻是一個三維的空間。我們的大腦收到的光的信息其實是缺少了一個維度的信息的,好在我們人類長了兩隻眼睛,通過兩隻眼睛得到的信息的差異,我們可以用軟體方式計算出平行於我們視線的維度的信息,也就是距離感,從而形成了三維的世界觀。然而,照相機卻只有一個眼睛,無法形成立體的圖像,所以我們會說有的人上相有的人不上相,其實就是因為缺少了一個維度的信息而已,而那一個維度很可能就是決定一個人的美醜的維度。現在一些相機或者手機試圖利用並列的鏡頭模仿人類的眼睛,可以計算並記錄三維的信息,再通過3D顯示技術或者VR技術再現,從而給人類一種身臨其境的感覺。

作為電子膠片,CCD和CMOS接受到光子以後會在每個像素的位置形成相應的電荷作為對該點接受到的光的信息的記錄。

但是這個信息需要被量化才能轉換成數字信息存儲起來。

這個時候就先用一種叫做Charge Amplifier的裝置把電荷轉化為電壓,然後再通過一種叫做模擬數字轉換器Analog Digital Converter的裝置,這種裝置可以把模擬的信息量化以後轉化為一定精度的數字信息。

但是我們要記錄的不只是一種顏色的光,而是與顯示器一樣的,R/G/B三種顏色的光。

那麼,就像顯示器有R/G/B子像素一樣,CCD/CMOS也可以利用不同的子像素來記錄不同的波長的光的信息,或者通過在子像素上覆蓋濾光片Color Filter,或者是分別使用三種對不同波長敏感的物質。

但是無論哪種方式,目前的CCD或者CMOS都沒有使用簡單的R/G/B並列排列方式,而是普遍採用我們在基礎篇中介紹過的Bayer排列。

另外一種方式是直接採用三塊成像裝置,比如三塊CCD或者三塊CMOS,各自負責一種顏色,先用稜鏡把入射光分成三束,再分別射向不同的CCD/CMOS,形成三種顏色的信息。

很顯然這種方式比第一種的成本要高,優點在於同樣CCD大小的前提下,首先像素數量要遠高於單塊CCD(這不是廢話嗎?),不僅僅如此,顏色純度和圖像的銳利程度也要遠遠高於Bayer排列的單CCD結構。

這是因為光在通過濾光片的時候會損失很多能量,其次Bayer排列的有一個問題就是每一個像素作為二維平面上的一個點,其實並不能記錄該位置所有的信息,只是記錄了這個像素對應的R/G/B中之一的信息而已。

而3 CCD結構因為有3塊CCD,所以每一個像素位置都能記錄下來全部的R/G/B信息。

目前大部分的照相機的CCD/CMOS標稱的像素值實際上是將每一個顏色點算作一個像素,但是這個點並不能算作一個完整的信息點,這其實是一種「虛標」行為,起碼這種標稱方式與顯示行業的像素標稱方式是不對應的。

比如下面這個原始圖像。

如果採用Bayer方式記錄的話,會分別得到三個圖像,紅色、綠色與藍色。

每個像素都只有三種顏色的一種,互相之間並不重合。

所以如果直接將上面三張圖片合在一起的話,會得到這樣一幅圖像。

這和上面的原圖差的還是挺遠的吧,是不是很像馬賽克一樣?我們需要為每一個像素補充缺失的其他兩個顏色信息,這個過程就叫去馬賽克Demosaicing也叫Debayering。

但是如何才能補全缺失的顏色信息呢,答案是「猜」。但是不是瞎猜,而是根據周圍的其他像素的顏色信息來猜,請看下圖。

因為每個像素都只有一個顏色而缺少另外兩種顏色,可以採用周邊其他像素的顏色信息作為參考,再通過一定的演算法來計算出本身應該有的大概的R/G/B值再插回這個像素,這個就是所謂的插值計算Interpolation了。

經過這樣的計算以後,每個點都具有R/G/B三個值了,最終再把圖像整合在一起,就是下面這樣。

注意,和原圖比,這種重建的圖形的邊緣明顯不夠銳利,較為模糊,是因為銳利的邊緣處本來是顏色變化較為劇烈的地方,但是如果採用差值計算的話,因為必須參考像素周邊其他像素的顏色值,無法表現出這種劇烈突然的顏色變化,所以會比原圖更模糊一點。

想要圖像變得更加銳利可以採用上面說的3 CCD方式,也可以再增加像素的數量與密度,或者採用其他的創新的方式記錄,比如有一種叫Foveon X3的技術,是美國Foveon公司首先研製,後來被日本Sigma收購的一項技術。這種技術與彩色膠片的成像方式非常相似,每一個像素都在縱向分為三層,各自分別對不同波長的光敏感。

這種方式的優點是不需要Demosaicing,因為每一個像素都同時具有記錄R/G/B信息的能力,一個像素就可以頂上Bayer方式的3個像素。

如果不明就裡的人在比較Sigma的標稱像素和佳能/尼康等競品的像素的時候,Sigma就會很吃虧。而做生意的當然不願意吃虧,所以Sigma把自己的產品的標稱都是實際像素數量直接乘以三的。

這種方式也有缺點,就是三色不一定能很好的分開,紅色到達最底層的時候有一定衰減,所以紅色部分會顯得不那麼銳利。

但是,無論哪種方式,正如我們在進階篇(一)中說的,僅僅靠R/G/B三色是無法覆蓋人眼可識別的色域上所有的顏色的。那麼,各位想一想,用這種方式得到的信息在一開始就已經是被過濾過的,不完全的信息了,對吧?那麼在後期顯示階段,無論我們如何努力去試圖恢復當時那一瞬間的真實顏色,其實都是不可能的,僅僅是減少信息的進一步的損失而已。

只有在攝像/照相階段儘可能的保留更多的信息,後期顯示階段的技術創新才有意義。

有人試圖通過增加原色的數量來提高信息的還原度,比如這個猶他大學的新技術,就利用不同波長的光的折射角度的不同來識別25種顏色的光,那就是二十五原色!

當然如果真的利用二十五原色的話,整個產業的成本都會大幅提高。

所以,我個人覺得比起上面這種方式,反而是最大限度的在記錄階段模擬人類L/M/S視錐細胞的特性來記錄信息,然後最終將相同的信息再次傳給人眼才是更有效率、更準確的方式。

而現在的CCD或CMOS其實就是按照這個思路在發展的,各個像素並不是單純的記錄R/G/B波長的信息,而是記錄長/中/短波長信息,也就是L/M/S信息。比如下面尼康D700相機光譜反應圖,其實就和人眼的反應比較像了。

附錄4:

折射

我們可以把一束光想像成一輛汽車,假設一輛汽車在公路上好好行駛著,突然進入泥濘的路面,如果是垂直進入還好,方向不會改變,但是如果是從側面斜著進入的話,前面兩個輪子進入泥濘路面的時間點就會不一樣,最靠近泥濘路面一側的車輪會先進入泥濘路面然後受到更大的阻力,導致前進速度放緩,而另一側的車輪還是在公路上行駛,所以速度並不會放緩,兩側車輪的速度差會造成汽車向靠近泥濘路面一側轉向,兩個路面的阻力差越大,汽車轉向就越明顯,

這就是「折射」。

其實,這個知識並不是完全沒有用的,因為今後各位要想理解偏光片,是一定要懂得折射的原理的,尤其是OLED的偏光與LCD的偏光的區別在哪裡,以後我們會洗洗睡,不,細細說,該死的拼音。

附錄5:

抖色

抖色就是Dithering,是一種利用人的視覺特性,利用低精度色譜模擬更高精度色譜的方法,可以分為空間抖和時間抖。

空間抖Spatial Dithering是一種歷史悠久的技術,在印刷以及列印領域廣為使用,也叫Halftone半色調。比如下面這個圖

左邊的圖像雖然只是用黑白兩種顏色印刷的,但是卻能夠模擬右邊圖像的多級灰度的效果,如果我們把左邊的圖的裡面的小點點再精細化的話,可以得到更相似的視覺效果。

再比如這張圖

本來只有紅藍兩種顏色,卻可以通過圖案的反覆表現出更多的顏色。這也是大多數印表機的顏色的原理。

市面上一般的印表機都是4色(CMYK)的,通過下面這樣抖,可以表現出非常豐富的色彩。

因此,我們可以說,空間抖可以在減小成本的同時增強圖像的最終顯示效果。

所以說,如果我有一個每種顏色6位的屏幕,意味著每種顏色都有64級不同的灰度(深淺),如果我的電腦輸出了一個相當於62.25級的綠色,為了表現這個顏色,我的電腦需要在相鄰的4個像素中,用3個表現第62級的綠色,1個表現第63級的綠色,從而給我的大腦以「類似於」看到了4個62.25級的感覺。

在列印領域這樣做沒什麼問題,是因為墨水是半透明的是可以垂直疊加的,這樣做並不影響解析度。然而,顯示器的像素之間卻不能垂直疊加,所以

這樣能雖然夠提高顏色的表現力,卻會犧牲整體圖像的解析度和銳利度,因為像素為了表現新的顏色,而拋棄了自己原有的顏色信息。

比如下面這個例子:

原圖的貓咪很可愛,但是如果我們只有256種顏色怎麼辦?

直接用256種顏色表現上圖,結果就是這樣

如果我們採用抖色的話,同樣是256種顏色,結果就會好很多,請看下圖。

但是,結果雖然好了很多,比起原圖,清晰度和銳利程度都下降了很多。

所以,為了在電腦屏幕上,更好的解決這個問題,人們通過增加一個時間維度,利用人眼的視覺殘留效應,來實現在同一像素上不同顏色的疊加,這就是時間抖

Temporal Dithering,

也叫Frame Rate Control(FRC)。

還是上面這個例子,如果我有一個每種顏色6位的屏幕,意味著每種顏色都有64級不同的灰度(深淺),如果我的電腦輸出了一個相當於62.25級的綠色,為了表現這個顏色,我可以

採用不停地快速閃動第62級綠色和63級綠色的方法,其中62級佔75%的時間,63級佔25%的時間,這樣人眼就會以為看到了第62.25級的綠色了,從而實現了更高的顏色精度。這就是時間抖。

FRC極大的改善了抖色的效果,使得低價的顯示器也能夠顯示出更豐富的色彩。這種技術這麼好,為什麼蘋果還會被告呢?

這是因為,首先,無論顏色切換的多麼快,這種技術不可避免的導致屏幕會「閃」,少數人會對這種「閃」非常的敏感,感到頭暈,大多數人雖然感覺不到,但是如果面對這種屏幕時間長了,也可能會感到十分疲勞。

其次,這是因為FRC技術初期在顏色表現方面並不是那麼完美的,後來的改進版Hi-FRC才真正「解決」了問題。

上面的表格里,第一種是原生8位屏幕,可以大概表現出16.77百萬色,而第三種就是早期的FRC抖色,只能表現出16.2百萬色,少了50多萬色,第二種則是進化版的HiFRC,可以表現出和原生一樣的16.77百萬色。

理論上來說,只要我調好閃動的時間比例,就應該能夠模擬出來無限精度的顏色啊。

就好像哪怕我只有0度的水和100度的水,只要調整好比例,理論上我也能混合出0度到100度之間任何溫度的水。

為什麼6位FRC就只能模擬出16.2百萬色而不是16.77百萬色呢?

其實,答案很簡單,請看下圖。

6位的0級對應8位的0級,1級對應4級,以此類推,最後63級對應的是8位的252級。

在這裡,0級就相當於是0度的冰水,63/252級就相當於是100度的熱水,在兩者之間所有的顏色,都可以通過改變混合(閃動)的比例來模擬。

但是,253~255級卻沒有辦法被模擬出來,因為在6位顯示屏上,63級已經是最高的信號強度了,沒有辦法再向上模擬了,如下圖所示,

所以最後,普通的6位抖8位,只能表現出256 - 3 = 253種灰度,那麼R/G/B三種顏色,一共就能表現出來2533=16,194,277種顏色,比正統16,777,216色少了快60萬色。

那麼Hi-FRC是如何解決這個問題的呢?

答案就是先抖到9位,然後再縮回到8位。

如果6位抖到9位的話,6位的63級對應的是9位的504級,那麼9位的0~504級都可以用6位的0~63級的閃動來表現。

那麼,我們再把8位的0~255級對應到9位的0~504級應該不是太難,除了504沒法被255整除以外。

如果每兩個9位的級別都可以對應一個8位的級別的話,504個9位級別只能對應504 / 2

= 252個8位級,所以有一些8位級別就不能對應兩個9位級了,設這個值為X

504 - X = (255 - X) x 2

X = 6

也就是說有6個8位級別不能對應兩個9位級,只能對應1個,具體是哪一個,應該是每家廠商根據具體產品決定。

請看下面的例子:

8位的255對應的是9位的504,which其實是由6位的63抖上來的。

以此類推,8位的254對應的是9位的502,which其實是由6位的63和62抖上來的。

8位的251和252分別對應9位的497和498,他們之間只相差1個9位級。

所以,6位+Hi-FRC雖然能夠實現16,777,216色,但是和正統的8位的顏色不是完全一樣的,是有偏差的。

一部分廠商在Hi-FRC晶元里也加入了空間抖的演算法,綜合利用時間和空間來試圖提供更好的顏色效果。

那麼,顯示器廠商抖色的主要原因是什麼?

省錢唄。

嗯,當然也可以說是提高性價比。

因為現在低端顯示器中使用最多的是液晶的TN屏(具體以後介紹),這種屏的優點是價格便宜,反應速度快。

但是這種屏的液晶分子的特性是,如果採用8位或更大的色深的話,會造成反應速度變慢,屏幕會出現拖影的現象,而且對控制晶元的精細度的要求也更高,數據量的增加導致對介面的要求也更高,造成綜合成本大幅提高。

但是,對於普通用戶來說,如果不把兩台顯示器擺在一起對比,可能並不能看出是原生8位還是6位抖的8位。

尤其是現在Hi-FRC技術越來越好,抖色和原生的差距也越來越小了。、

所以在對於用戶來說,抖色的TN屏的性價比是非常高的,廠商也喜歡。

包括現在很多高端遊戲顯示器也都是採用TN屏,因為TN屏的反應速度快,再用8位抖10位來滿足用戶對顏色的需求。

除了抖色以外,還有些顯示器廠商經常說說8位色深16,777,216種顏色已經可以滿足人眼能夠識別的所有顏色數量了,我只能說:呸!

我們在進階篇(二)中也講過,這種說法是明顯的混淆概念,因為顏色的數量和顏色的廣度是完全不同的兩個概念。比如說,16,777,216如果都是各種不同的從淺到深的藍色,能夠覆蓋我們人眼能夠識別的所有的顏色的數量嗎,綠色和紅色呢?

增加位數是可以增加顏色的漸變的精細度,但是並不能擴大顏色的範圍,顏色的範圍只能靠提高RGB的最大值來改善。

附錄6:

白點

所謂白點就是對白色的定義。

我們之前說過,人類對於白色的定義就是物體反射所有日光的時候所表現的顏色,但是其實這種白色的感覺是局限於在日光非常充足,各種波長的光比較均勻分布的時候的一種感覺。當處於室內照明或者早晚的時候,往往原來在正午時分表現出白色的物體,會因為入射光的變化而顯出不同的顏色,但是我們人類的大腦仍然會通過一個內部的邏輯和經驗判斷,潛意識地認為該物體仍然是白色的。但是,如果用照相機去拍攝,實際記錄下來的這個物體的顏色卻不會是我們一般意義所認為的白色,而是該物體所反射出來的光的真實波長。然後顯示器也會忠實的把當時的顏色再現出來,當我們再次觀看這張照片的時候,尤其是在一個非常不同的環境光下,我們就會認為照片的顏色很奇怪。

比如下面這張照片:

當時的燈光應該是偏黃的,所以所有的白色物體都會顯得發黃,但是在現場的人們卻不會特別在意,因為人類的大腦會根據邏輯與經驗去做自動轉換。然而,目前的照相機是還不具有這個自動轉換的「智能」功能的,導致拍攝出來的照片,在正常的環境光下去看的時候,顯得非常發黃。所以這個時候我們可以手動的去調整,人為地去指定某一個顏色為白色,其實也就是重新定義了這個顏色的R、G、B比例,然後可以根據相應的比例再去修改整個圖片的所有顏色,這樣就可以調整出像右圖這樣看起來更自然的圖片了。

這種調整就叫做「白平衡」。

關於白點,國際上也有很多相關的標準,其中最常用的是D65和D50。

D65代表的是一個正常的西歐/北歐的晴天的正午的陽光下的光照環境,近似於6500開氏溫度時的黑體輻射體的顏色。

D50則代表的是早晚的的陽光的光照環境,同時也接近於家庭收看電視的客廳的光照環境,近似於5000開氏溫度時的黑體輻射體的顏色。

什麼開始溫度、黑體輻射體這些不知道也無所謂,但是很多顯示器會提供色溫的調節功能,其中的選項就會有6500K、5000K這些,一般選擇6500K是比較合適的。

附錄7:

伽馬校正 Gamma Correction

首先,我得說,網上關於伽馬錯誤的資料實在是太多了,應該說絕大多數都是錯的,只有很少的是正確的,導致我各種困惑不解。

所以如果你們對Gamma感興趣,我建議你們千萬不要去網上搜,都是錯誤信息!還是看我寫的吧。

那麼,伽馬校正到底是什麼?

這要從CRT的技術特性開始講起。

如上圖所示,CRT顯示器是靠電壓來驅動一個能夠發射電子束的電子槍來擊打熒光屏上的三種熒光粉,使其發出RGB三種顏色的光,通過調節電壓的方向可以改變電子束擊打在屏幕上的位置,實現掃描,並根據輸入信號的大小來調節電壓的大小從而改變熒光粉發出光的明暗。

但是,電壓的大小與熒光粉發出光的明暗之間並不是一個簡單的線型關係。在大部分區間,兩者之間是一個冪函數關係。

如果輸出亮度是Y,出入電壓是X的話:

Y = Xn

n就是決定X和Y之間關係的指數。

在X很小的一個比較小的區間里,兩者之間又是一個線性關係。

此時:

Y = aX

a是在這個區間決定兩者之間關係的係數。

在一個顯示器被製作出來以後,n和a的大小就已經被確定了。當時各個CRT廠商的技術其實差不多,做出來的產品可能略有差別,但是大部分都差不多。

如果我們只是單純考慮兩者之間的指數關係的話,n一般是在2.5左右。

如果還是把兩者之間的關係看做指數,但是針對小區間的線性關係做出一定修正的話,可以粗略的認為n是在2.2左右。

這個2.2就是大多數CRT顯示器的伽馬值。

我知道有很多很多資料都只說這個值應該是2.5,很不幸,很多資料都是不準確的。

注意,

這兩個數字並不是從理論上計算出來的,而是從實際統計市面上的產品的特性並總結出來的。

那麼,因為照相機的CMOS/CCD的輸出電壓與輸入的光子數之間是一個線性的關係,

如果把照相機輸出的信息直接輸出給顯示器的話,最終輸出的結果就會是這樣的:

很明顯,正常記錄的信號,在CRT上輸出的時候,會變得非常暗(輸出低)。

比如正常如果是線性關係的話,50%亮度的入射光在顯示屏上也應該按照50%的亮度被輸出,但是因為這個指數關係,50%2.2 = 21.8%,實際上在CRT顯示器上只會按照21.8%來被輸出,比應有的強度要低一半還多!

如下圖,正常的照片會顯得非常灰暗。

那麼,怎麼解決這個問題呢?

當然,我們可以想辦法改良CRT顯示器,讓它能夠線性輸出,這需要在全球所有的CRT設備裡面加入一個補償電路,肯定是很費錢費力啊。或者我們在節目製作的攝像機上增加一個電路,讓它能夠中和CRT電視的效果怎麼樣呢?

因為當時可不像現在這樣人人都可以拍攝視頻製作節目,那個時候全世界就沒有多少攝像機,內容製作者屈指可數,所以當然是改變攝像機的設計更make sense啊。

所以在CCD/CMOS記錄完信息,需要保存或者直接傳輸電視信號之前,我們可以先對信號做一個與顯示器伽馬完全相反的逆指數計算,Y = X1/2.2然後再保存或者輸出,這樣在顯示器上不就能夠正確的顯示了嗎?

好像這樣,

比如下面這個照片:

經過在儲存階段針對CRT伽馬校正的補償以後,圖像終於可以正常顯示了!

Wait!我們還有一個因素沒有考慮,那就是環境光。

我們在基礎篇講過,環境光的明暗也會影響人度色彩的判斷。比如粉色不過是顯得發白的紅色,棕色是暗淡的橙色,灰色是暗淡的白色而已。

而我們對明暗的判斷是相對的。

上面那個圓和下面的圓的顏色是一樣的,是環境光讓我們覺得上面的是棕色,下面的是橙色而已。再比如這個圖:

乍一看A和B的顏色不一樣,但是其實那也是環境光帶給我們的一種「錯覺」(特殊的顏色概念)而已。

那麼,我們知道,節目的拍攝和製作一般都是在比較明亮的地方,比如白天的室外,或者是燈光明亮的室內攝影棚,所以在這種環境光下製作的節目,如果在家庭環境或者辦公室觀看會怎麼樣呢?

尤其是家庭環境,主要觀看電視的時間是在晚上,很多家庭都會關燈或者開一個小燈看電視,導致電視成為整個客廳最亮的光源。這個時候,因為環境光過暗,電視上的顏色會比拍攝的時候看起來更明亮,棕色可能會看成橙色,灰色可能會變成白色。

所以,為了讓觀眾能有更好的觀看體驗,節目在製作的時候不應該完全補償CRT的伽馬特性,而是保留一點點,這個數值,經過試驗(假定拍攝時的環境光是D65,而觀看的時候的環境光是D50),算出來最終Gamma是1.125的時候,視覺效果最好。

那麼最終的Y = Xn x 2.2 = 1.125

可以解出來

n= 1/1.956 ≈ 0.51

那就意味著在儲存視覺信息的時候,應該對信息做一個Y = X0.51的補償。

也就是說CCD/CMOS記錄的信息都要經過這個Y = X0.51的數學變換再存儲或者傳送,才能保證在顯示器上得到正確的顯示效果。

好像下面這樣。

很多材料都在講什麼人眼視覺感受都是非線性的云云,對於暗部的信號更敏感,所以如果用一個0.51的指數去補償輸入信號的話,可以去補償人眼的這種特性,還能節省帶寬什麼的。

這些說法要麼就是錯的,要麼就是和Gamma的關係很小,要麼只是Gamma偶然的副產品而已,真正的在對視覺信息進行編碼的時候需要做伽馬調整的唯二的理由就是要補償CRT的電子槍的特性與環境光的不同。

不服來辯!

然而,Gamma Correction確實有一個很好的副作用,就是能夠更好的利3對應214/28 = 26 = 64個14位的數據。

好,另外一方面,我們人類從遠古以來就害怕黑夜。尤其是晚上太可怕了,各種野獸和妖魔鬼怪。所以我們為了生存就特別注意在晚上觀察黑暗的四周,提防危險,時刻準備戰鬥(逃跑)。具體可以看基礎篇關於視桿細胞的部分。

所以,人類對於暗光的層次的分辨能力要遠遠強於對亮光的層次的分辨能力,請看下圖。

同樣是從黑到白分成十個等級,第一行的層次感是不是要遠高於第二行?同樣是十個數據,第一行給我們提供了更多的信息。

所以,同等帶寬/存儲空間的前提下,盡量存儲更多的暗部的信息可以給人帶來更多的信息量。

在將CCD/CMOS記錄的14位信息存儲為8位信息的時候,如果先將14位信息進行伽馬轉換,首先因為下面這樣的函數模樣,所以Y值在X值的相對高值區間會更加「擁擠」,在Y值的相對低值區間反而會非常「寬鬆」。

那麼,因為有精度限制,所以四捨五入之後,在X值的相對高值區間的很多Y值會出現重複數字的情況,從而形成了重複數據,即亮部變得不太層次分明,而在暗部區域的數字,因為比較寬鬆,相對距離較大,所以重複數字會非常少,層次仍然十分分明。如果再將14位數據轉化為8位的數據的話,這個現象會更加明顯,最後實現了在同等帶寬/存儲空間的前提下,存儲/傳輸了更多的暗部的信息的效果。

這才是所謂的節省帶寬提高數據質量以及適應視覺感受特性的真相,四捨五入!!!!

後來,以LCD為代表的的平面顯示器開始逐漸取代CRT,這些顯示器大部分的輸出亮度與輸入信號之間是成類似線性的關係的。嗯,其實不是完美的線性,但是也不是CRT那種冪函數的關係。(主要是藍色偏弱)

再加上照相機CCD/CMOS也是線性的,電腦的CG處理也是線性的,那麼,是不是就不用做Gamma Correction了?

是的。。。如果不上網、不看電影、不看電視、不看照片也可以的話。

因為CRT作為主流電視機技術和電腦顯示器技術已經存在太多年了,導致大部分的圖像、視頻以及互聯網上的內容,甚至操作系統、瀏覽器等軟體都在製作的時候考慮到CRT的Gamma特性,做出了上面所述的反向補償。

那麼,如果平板顯示器不做任何Gamma Correction的話,就意味著在顯示過去和現有的內容的時候,會出現顯示不正常,畫面過於明亮的效果。為了保證兼容性,平板顯示器廠家只好在顯示器內部加入相應的電路,去模擬過去CRT顯示器的Gamma效果。簡直是歷史逆行,沒辦法啊,內容為王。。。

LCD模仿CRT的Gamma特性有兩種方式,一種是簡單的模擬方式,做一個專用的符合冪函數關係的模擬電路,針對所有輸入的信號都進行一次Gamma轉換。這樣做簡單直接,但是缺點是不能調整Gamma值,不能適應某些情況對顏色的細微調整的需求,最重要的是只適用於VGA介面輸入的模擬信號。

另一種更好的方式是採用一種叫LUT(Look Up Table)的方式。

什麼是LUT呢?簡單的說就像是一個小抄本一樣。針對任意一個在範圍內的輸入,都會有一個已經計算好的答案。不需要每次都用公式再計算一次,這樣可以大大減少計算負擔並加快輸出速度。

LUT還有一個好處是,可以在晶元里存儲多個LUT,這樣根據需求不同,可以迅速的隨時切換。

關於LUT,更具體的信息可以看下面的附錄9。

所以,對於Gamma,我們可以這樣總結一個公式:

Viewing Gamma = Camera Gamma x Display Gamma

= Camera Gamma x CRT Gamma x LUT Gamma

代入上面的數據的話

1.125 = 1/1.956 x 2.2 x 1

另外,很多人說因為蘋果電腦有很多印刷行業客戶,而印刷列印產業的實際展示環境的背景光是在非常明亮的環境,所以要使用更高的伽馬值來展現更明亮的畫面,為了保證腦畫面與列印輸出的畫面的一致性,蘋果採用了1.8的伽馬值。

這種說法是一半正確一般錯誤的。實際情況是2009年以前的Mac的最終Display

Gamma是用的是1.571左右instead of 2.2。蘋果的顯示器的物理Gamma其實和PC的一樣都是2.2,並不是什麼特製的產品.但是蘋果通過在系統和顯卡上增加LUT,實現了最終Display Gamma 1.571的輸出。最終的Viewing Gamma的結果還是要取決於Camera

Gamma,也就是內容的Gamma。

現在因為sRGB和Adobe RGB 1998等主流標準都是採用2.2的Gamma值,所以蘋果也把自己的LUT取消,直接採用2.2了。

附錄8

sRGB

在個人電腦普及與互聯網爆發之前,家庭中最主要的內容輸出工具是電視,而當時的電視絕大多數都是老式的CRT陰極射線管電視,平板電視還處於實驗階段。而電視產業為了保證內容製作與輸出的效果一致性,

通過行業標準定義了標準的視聽

環境、

設備與製作環境、

設備

。其中最重要的標準就是1982年制定的ITU-R

Recommendation BT.601(簡稱BT.601或Rec.601)和1990年制定的BT.709,

當時

絕多大數的主流電視廠商和內容廠商都遵循這兩個標準來生產產品。這兩個標準先後規定了標清電視和高清電視的規範,其中就包括了對RGB三原色、伽馬校正(附錄6)以及對白點的定義。

定義三原色就是相當於定義了設備的色域,而定義白點,就是定義了觀看環境,而定義了伽馬校正也是為了讓節目製作人都意識到CRT電視的顯示特性。

後來電腦開始慢慢普及,互聯網用戶迅速增加。電腦逐漸成為了工作環境和家庭環境的主要內容輸出工具,互聯網則成為了主要信息傳輸渠道之一。然而那個時候的電腦顯示器也是以建立在CRT技術之上,與電視沒有什麼區別,生產電視的廠家也是生產顯示器的廠家。

互聯網上的信息越來越多,使用電腦製作的內容也越來越多。然而適用於家庭電視的BT.601和709標準其實並不太適合電腦顯示器,主要問題在於觀看環境,而環境光對人類的顏色判斷也是起著非常重要的作用的。

電視的觀看環境是晚上的家庭客廳為主,環境光較為昏暗,而當時電腦則主要是在半天的辦公室或者家庭,至於用途也是,相對於娛樂來說,辦公或者生產佔據著主流。

那麼在這種背景下,電腦業界急需一個適合自己的顏色標準。所以作為當時操作系統主流廠商微軟和整機的的主流廠商惠普就聯手制定了一個新的標準,這就是sRGB

sRGB並不是為了改變顯示器產業而定的,相反,這個標準是為了幫助內容製作產業適應當時顯示器產業的現狀,同時使得圖像數據能夠通過互聯網傳輸以後在顯示器上得到很好的再現效果,而制定的。尤其是考慮到當時現有的各種內容以及已經在使用中的顯示器,微軟和惠普不想,也不認為自己有能力給整個社會帶來過多的新增投資的負擔。所以他們採用了當時主流的BT.709作為基礎標準,再根據電腦顯示器和使用環境的特點,作出一些微小的修改,使其更符合電腦顯示器的使用環境,這就是sRGB標準了。

有了微軟的操作系統的支持,sRGB很快就成為了計算機和互聯網上傳遞視覺信息的最普遍的標準。除了在繪圖、印刷以及一些領域以外,大部分的內容都是基於這個標準生產製作的。這個標準也成為了包括LCD在內的絕大多數顯示器的最基本的顏色顯示能力的標準。

如果不採用默認的sRGB格式,就需要針對內容和顯示器各自分別採用一個Color Profile/LUT(見附錄9)來進行調整,兩個LUT之間以能表現絕對顏色的CIE XYZ色域來做中介進行轉換。這種方式非常繁瑣,一般只有專業領域才會採用。

附錄9

LUT(Look Up Table)

什麼是LUT呢?簡單的說就像是一個九九口訣,或者小抄本一樣。針對任意一個在範圍內的輸入,都會有一個已經計算好的答案。不需要每次都用公式再計算一次,這樣可以大大減少計算負擔並加快輸出速度。

只不過顯示器中的LUT不是九九口訣那樣的通用口訣,而是針對特定產品的特性來定製出的專門的口訣,可以精確的微調顯示的顏色效果。

其實LUT在整個顯示產業的各個(涉及到輸入與輸出的)環節都有存在且有必要存在。因為信息在經過某一個環節的時候,因為各種硬體軟體的細微差異,信息總會或多或少的被改變,從而漸漸失去和初始信息的一致性。

比如:

所以為了改善輸出圖像的質量,很多廠家會根據自家的產品的硬體特性在輸入與輸出之間加入一個LUT,這個LUT要經過各種試驗檢測,使其能「完美」匹配產品特性。

比如照相機也會有一個LUT,用來精細調整信息的記錄並「完美」地轉化成sRGB標準的圖像。甚至電視、電腦操作系統甚至顯示卡也都會有一個自己的LUT,雖然在很多時候這些LUT是默認不開啟的。但是顯示器里內置的LUT卻是非常重要的,對畫質的影響非常大。

顯示器在收到信號以後,在內部會對信息作出各種轉換。而且我們之前說過,顯示器的輸入與輸出之間其實不是完美的線性關係,會因為材料以及硬體的特性存在各種不規則的區間。那麼,與其採用簡單的數學計算轉換,一個經過實驗檢驗的,針對特定產品的的LUT可以最大限度的改善顏色準確性。

另外,在做Gamma Correction以及Dithering抖色的時候,LUT也可以大幅提高效率和結果的質量,比如像下面這樣:

為了達到這個效果,顯示器中的LUT的精度一定要大於輸入與輸出的信息的精度。這是因為要做指數計算,如果使用同樣的精度去做變換的話,有四捨五入的問題,在轉換的過程之中會產生很多重複的數據,從而導致了信息的丟失與不準確。

但是如果我們先通過一個LUT把數據的精度放大,再在更高的精度下進行計算的話,就不會丟失信息了,然後最後再通過一個LUT,精確的把結果轉回原來的精度,可以大幅提高顏色的準確性。

一個現實裡面可以存儲很多LUT,用來應對各種不同的需求,實際上現在的顯示器上的各種調節按鈕裡面,除了亮度功能是直接物理調整背光的明暗以外,其他的基本上都是靠LUT實現的。

高端的顯示器裡面一般還會有一種叫3D LUT的高級LUT。傳統LUT一般是R/G/B三種顏色各自有自己的LUT,如果是8位的話,每種顏色其實只有256個對應關係,那麼3種顏色就是256 x 3 = 768個對應關係。

但是3D LUT實際上是為R/G/B的每一種組合都賦予一個對應的轉換關係。

那麼如果是8位的話就是16,777,216個對應關係,如果考慮到轉換過程中需要更高的精度的話,比如說14位,那麼,就需要4,398,046,511,104組對應關係。如果是16位呢。。。

這樣做的好處是顏色的調整會更加準確,可以最大限度保證輸入輸入的一致性,並發揮顯示器的最大潛力。

附錄10

電視信號傳輸

免責聲明:這部分的內容大多是通信領域的知識,本文的目的是通俗的給大家講解複雜的知識,同時本人能力有限,所以肯定會有很多講得不嚴謹甚至是錯誤的地方,還請包涵。

電視其實和互聯網視頻沒有本質上的區別。只不過電視有自己的傳播渠道(無線/有線)和傳播協議。無線電視以空氣為載體傳送電磁波信號,有線電視以線纜為載體傳送電磁波信號。

現在的互聯網視頻都是流媒體,需要我們的互聯網帶寬夠,速度夠,才能流暢觀看。電視信號也是一樣,只不過是,互聯網帶寬是用戶自己的,而電視帶寬是大家公用的。

什麼叫帶寬呢,用通俗的話說,就是信號的變化範圍,也就是信息量。比如一個1080P的視頻,每行1920個像素,1080行,每秒60幀的話,那就是每秒需要傳送1920 x 1080 x 60 = 124,416,000個像素值,無論是採用數字還是模擬,總之就是有這麼多值需要傳送。

我們人類選擇用電磁波的振動來傳遞信息。電磁波像水波一樣的振動,這個振動是有一個周期的,每個周期向上一次,向下一次。如果我們用向上的幅度和向下的幅度的大小來「模擬」像素的值的話,每個周期可以傳遞兩個信息。那麼124,416,000個像素值理論上需要62,208,000個周期。我們還知道電磁波是有波長的,也就是波的大小,波越大,動作越慢,這個波振動的頻率就越低,波越小,動作越快,這個波振動的頻率就越快,兩者之間是一個反比的關係。很顯然,頻率越高的波在單位時間內能夠傳遞的信息的量越多。

上面的圖裡的波的上下波動的幅度都是一樣的,但是我們要傳輸的每個像素點的數據可能都不同,所以我們實際上發出的波可能是這樣的。

可以看出,因為是模擬的信號,所以信號是連續的,所以CRT電視的電子槍的掃描也是連續的,所謂像素不過是屏幕後面一個個的小格子的物理區分而已。所以,模擬時代的CRT電視的像素是沒有意義的(當然在拍攝的時候還是有意義的),只有「像線」的意義,這也是為什麼我們現在說電視的解析度,還只是習慣說720,1080這些橫線的數量的數字的原因。

如果把一個周期定義為一個赫茲(hz)的話,那麼這個信息需要至少62,208,000赫茲的波才能夠被傳遞,也就是62.208兆赫(mhz)。所以我們可以用一個頻率在62.208兆赫的電磁波來傳遞這個視覺信息。

有兩個問題,首先這個頻率比較低,也就是能量很低,走不遠,而且波長太大,需要很大的天線才能接收。

其次,我們不能只有一套節目吧?如果我們想傳遞多套電視節目呢?

這就需要使用所謂「載波」的技術了。

波有一個性質很好玩,就是兩個不同的波可以混在一起。比如兩個完全一樣的波混在一起,那麼這個波上下振動的幅度就是原來的兩倍了對吧。在任何一個時點上,這個波的幅度就是等於兩個波的幅度的和。那麼,如果我們把一個快速振動的,上下幅度均勻一致不變的波和一個振動較慢的,但是上下幅度一直在變化的波混在一起會怎麼樣?

如上圖所示,會成為一個在微觀上保留快速振動的波的頻率,但是上下的幅度是兩者上下幅度的和的新的混合波。這個新的波保留了振動較慢的波所承載的幅度信息(雖然略有變化),同時振動的幅度卻快了很多。

如果我們把這個新的波發送出去的話,因為頻率高,能量大,可以走很遠,而且不需要很大的天線就可以接受。而且我們可以把每一套電視節目製作成一個62.208兆赫的波,然後將其與不同的高頻率等幅的波(載波)相結合。比如第一套節目和600兆赫的波結合成一個波,第二套節目和800兆赫的波結合成一個波。這樣的話我們就可以同時傳輸幾套不同的節目了。當然在模擬電視時代並不需要上面說的那麼大的帶寬,大概每個頻道有個6~8mhz就可以了。

其實,上面的只是一個簡單的容易理解的說法,實際上的情況要更複雜。如果我們把62.208mhz的波和600mhz的波相結合,其實會產生出來4個波,一個是原來的62.208mhz的波,一個是600mhz的波,還會有兩個邊頻帶(Sideband),一個是662.208mhz(600 + 62.208),一個是537.792mhz(600 -

62.208)。其實62.208mhz和600mhz的波沒有任何改變,月亮還是那個月亮,籬笆還是那個籬笆,但是這兩個新的sideband卻是同時包含著兩個「舊波」信息的新波。所以,除了62.208mhz這個頻率太低以外,理論上只要發送其他三個波之中的任意兩個波,我們就可以獲得所有我們需要的信息了。(能力有限,這裡就不再深入講解了。)

但是頻率不同的sideband之間同時在空中傳播也會產生干擾,甚至再生成新的sideband,不過每個sideband的幅度都只是原來的一半。有干擾不可怕,我們電視的作用就是根據「一定的標準」接收信息,排除干擾,再把信息解讀出來。而且為了減少干擾,我們會在節目的信號的頻率之間留有充分的餘地。

電視信息的傳播也是有著標準的,模擬電視時代主要有NTSC、PAL和SECAM三種,北美和日韓以NTSC為主,中國和歐非以PAL為主,前獨聯體國家和法語國家以SECAM為主。這幾個標準之間本質上的區別不是很大,但是因為細節上的不同,還是不能互相兼容的。

進入到數字時代,各國也都把自己的電視標準升級成了數字標準。其中還可以分為地面傳輸、有線傳輸、衛星傳輸以及手持傳輸等。最普惠的地面傳輸標準主要有ATSC、DVB-T、ISDB-T以及DTMB等。其中DTMB是我們中國自己的標準。

相對於模擬時代,在數字時代,我們不再用波的幅度來傳遞信息,而是用幅度的高低或者頻率的快慢來表達0和1,然後在通過一種叫頻分多址的技術實現對帶寬更有效的利用,在有限的餓帶寬內可以傳遞更多的頻道,以及更好的畫質。

頻分多址這個技術我們不需要理解,只要知道這是把一個信號拆分成很多頻率重疊的小信號,這些小信號雖然重疊,但是重疊的很巧妙,可以被電視接收並區分,從而實現了對帶寬的更有效的利用。

附錄11

HDR(High

Dynamic Range)高動態範圍成像

首先,我先引用英偉達Nvidia對HDR的總結。

HDR就是:亮的地方賊亮,暗的地方賊暗,細節還賊多。

比如這張圖片:

一天不同時刻的光的亮度是非常不同的,比如正午直射陽光是非常明亮刺眼的,而半夜的郊外又是非常黑暗的。在不同的光照條件下,人類可以調整眼睛來適應不同的光照環境,去獲取更多的信息。在過於明亮的環境下,我們會試圖減小眼睛張開的程度,並調整瞳孔的「光圈」,或者也可以快速眨眼睛看,減少入射光,否則我們的視錐/視桿細胞會因為信號飽和而失去分辨實物的能力。在過於黑暗的環境下,我們又會張大眼睛,增加瞳孔的光圈,或者長時間盯著仔細看,試圖增加入射光,同時,我們會開動更多的視桿細胞,來捕捉更多的光子。

為了更準確的測量不同的亮度,我們需要一個度量單位:把一隻普通蠟燭的燭光均勻分布在1平方米的面積上的時候的亮度定義為1 cd/m2(坎德拉每平方米),也叫1尼特(nit),那麼:自然界的各種不同光照環境的亮度如下(單位cd/m2)。

然而,同一個場景里往往會同時出現很多不同亮度的部分,比如下面這個圖片。

我們把這個場景的最大亮度與最小亮度的跨度稱作動態範圍。這個場景里的最大亮度和最小亮度的比就叫做(靜態)對比度

正常的人眼不經過任何調整就可以識別約的對比度可以(四捨五入)達到10000:1左右。

如果一個場景既有非常明亮的物體,也有非常黑暗的物體,亮度跨度很大,我們就稱之為「高動態範圍 High Dynamic Range(HDR)」場景

然而,具體對於多大的跨度才算高動態,目前還沒有一個標準的定義,一般情況下但是只要比傳統的照相機/顯示器可以拍攝/顯示的動態範圍高就可以認為是高動態。

在高動態場景下,我們人類無法同時採用兩種模式來獲取全部信息,instead我們會不停的在兩種模式中切換與調整,當看到明亮物體的時候調整到明亮狀態,當看到黑暗物體的時候,調整到黑暗狀態。這兩種模式的切換是無需經過我們的大腦的主動決策的人體自然的條件反射。通過這種調整,人眼最多可以識別對比度高達340億倍的動態範圍(也有人說可以達到大概1萬億倍!)。

Anyway,這種場景的亮度的跨度已經超越了標準的照相機和顯示器的能力範圍,傳統的照相機是無法像人類一樣通過自身的調整來記錄這這種場景的。而顯示器對於HDR場景就更吃力了,一般的LCD只能夠表現出700:1左右的對比度,好一點的也不過達到3000:1或者4000:1而已,遠遠達不到人眼的識別能力。

那麼 ,所謂HDR技術就是

A. 能夠生成/記錄高動態範圍的圖像的技術

以及

B. 讓顯示器能夠顯示這種高動態範圍圖像的技術。

但是,這兩種技術所要求的動態範圍卻非常不同。

生產/記錄需要能夠達到人眼調整以後的水準,這樣才能記錄下一個場景的全部信息。但是顯示卻只需要達到人眼不經過調整的水平就可以了,因為人類在看顯示器的時候並不需要也不應該應該調整自己的瞳孔,而是應該「一目了然」。

很顯然生成/記錄的信息的動態範圍要遠遠高於顯示的動態範圍,在這種情況下肯定會有信息損失,所以HDR技術的第三層就是:

C. 儘可能的在還原內容製作者的意圖的同時,把生成/記錄的高HDR信息轉化成顯示器用的低HDR信息

讓我們一個一個的看。

A. 生成/記錄

用計算機生成高動態範圍的圖像其實很容易,要想實現「亮的地方賊亮,暗的地方賊暗,細節還賊多」,只要人工的去設定圖像上的最亮的點和最暗的點的值就可以了。但是一定要採用更高位數的色深才可以,否則現在普遍使用的8位色深,每種顏色的最大值255隻比最小值1大255倍(假設不同級之間是線性關係),那麼RGB都是最大值的時候,才比RGB其中之一為1其他兩個值為0的最小值的亮度大765倍。而且只有位數更高才能做到在亮的部分和暗的部分都能保證足夠的細節過渡,否則就糊成一片,根本看不清了。

比如下圖這樣

正確的圖像應該是這樣的

這也是為什麼在提到HDR的時候都要同時提到10bit、12bit色深或者更高,採用10bit色深其實也只不過可以達到3000:1左右的對比度(again假設不同級別之間是線性關係),12bit的話理論上可以做到12000:1。

所以,為了突破這種限制,現在HDR內容製作一般都會直接採用科學計數法的方式來處理數字(所謂「浮點」),這樣可以比整數形式的「位數」儲存更大範圍更精細的數字,從而實現更高的對比度與細節。

記錄方面

照相機和人眼很相像,在黑暗的場景,可以增大光圈(睜大眼睛)或者增加曝光時間(長時間看)來獲取更多的暗部信息,在明亮的場景,可以縮小光圈(眯眼睛)或者減少曝光時間(快速眨眼睛看)。

這裡我們需要用一點中學的物理知識。

對於一個特定物體來說,最終這個物體的光學信息能夠有多少進入到人眼/照相機里,取決於以下幾個因素。

1. 從這個物體發出的光的量

2. 這個物體到人眼/鏡頭的距離

3. 眼皮/快門開放的時間

4. 瞳孔/鏡頭的光圈

5. 人眼/鏡頭的焦距(一般情況下,物體的物距要遠遠大於焦距,所以焦距≈像距)

在前三者為固定值的情況下,後兩個因素可以起到決定性的作用。其中:

光圈就像人的瞳孔一樣,是一個大小可以變化的洞,可以遮擋光線的進入。洞越大,能進入的光就越多。一般用這個洞的直徑來衡量光圈的大小,洞的直徑和光的量成正比。

而焦距則是對光的折射能力的大小的表現。焦距越長,成的像越大,焦距越短,成的像就越小。

但是視網膜/Sensor的面積大小是固定的,所以不考慮像超出視網膜/Sensor面積的情況下,同樣量的光入射,成的像越大,則單位面積的光的信息越少,像越小,則單位面積的光的信息越大。所以焦距和單位面積的光的量成反比。

所以,我們常常用焦比(光圈值)f這個值來衡量光圈的大小,其定義為

其中f是焦距,而D是光圈直徑。N和Sensor接收的光的量成反比。

上面的公式可以變形為D = f/N,也就是說光圈 = 焦距/焦比。f值一定的情況下,N越大,D越小。一般情況下,業界都喜歡把光圈用「f/N」的形式來表示,「f/」後面的數字越大,光圈就越小,單位時間內,Sensor能接收到的光的量就越少。

因為圓面積公式是S=π(D/2)2,那麼,S=π(f/2N)2,所以事實上在焦距不變的情況下,進入的光的量與光圈D的平方成正比,與焦比N的平方成反比。

在上面的5個因素里,如果只維持前兩個因素不變,第三個因素「時間」也可以改變的話,很明顯,眼皮/快門開放的時間越長,進入的光就越多,這還是一個簡單的線性正比例的關係。

那麼,入射光的量與N的平方成反比,與t成正比,也就是說N2/t可以決定入射光的量。

那麼理論上不同的N2和t的組合有可能會得到相同的入射光的量。

比如:

所以人類定義了一個叫曝光值(Exposure Value,EV)的概念來描述光圈和曝光時間的關係。(寫了這麼多就是為了介紹EV而已。。。刪了又覺得可惜)

之所以用log的關係,而不用簡單的N2/t的原因我也不清楚,好像是因為這樣方便攝影師計算,因為實際上這樣的話相當於2EV = N2/t,每一個整數的EV值的入射光的量(N2/t)都是(EV-1)的入射光的量的2倍。每一個單位的EV叫做一個Stop。每增加一個Stop,就意味著光的量增加一倍,每減少一個EV就意味著光的量 減少了50%。每差一個stop,對比度就要差1倍。

在照相/攝影領域計算場景的動態範圍的時候,經常使用EV的stop差,instead of 以cd/m2為單位的亮度差值。

在一定條件下(感光度ISO = 100, 校準常數K = 12.5,這兩個參數不需要懂),EV與前面說的cd/m2之間是可以轉換的。

一般的照相機只能記錄12個或者更少的stops差,相當於4000:1的對比度,一些高級單反可以做到13~14個stops差,相當於8000~16000的對比度。

照相機的CCD/CMOS本身是對光非常敏感的,可以捕捉到非常微小的量的光子,當然也可以記錄非常大量的光子。只是,照相機不能根據自己的「主觀意識「來任性地選擇觀看明亮還是黑暗的部分,因為照相機的任務是記錄整個場景的所有信息。而且,照相機每次只能拍攝一張靜態的畫面,要麼就是「明亮模式」,結果黑暗的部分看不清,要麼就是「黑暗模式」,結果明亮的部分太亮也看不清。

比較明顯的例子就是夜景照片的拍攝,很多時候要麼就是前景漆黑一片,要麼就是背景過於明亮。如果前景是人物的話,其實還好解決,我們可以選擇用另外的照明專門給人臉打光,或者就是用閃光燈慢閃,以背景的亮度為基準拍攝,在最後瞬間用閃光燈給人臉增加亮度。

但如果是下面這個場景呢?

前景是非常明亮的建築,背景是昏暗的建築與天空。人眼在看到這個場景的時候,會不停的根據視線的焦點來改變模式,從而獲取更全面的場景信息。但是照相機就很難做到,上面是在四種不同的曝光模式下得到的四種不同的照片,都不太令人滿意,要麼就是缺少前景的細節信息,要麼就是缺少背景的細節信息。

那麼,其實,我們可以把四張照片合在一起,採用每一張細節表現最好的部分,去掉模糊掉的部分,這樣就能得到一張能夠同時表現出所有細節的「完美照片」了。

目前很多照相機/手機都有這種功能,一般這種自動合成的功能叫做AEB(Automatic Exposure Bracketing)。

B. 顯示

有了HDR的內容,要想展示出來卻不太容易。目前很多電視/顯示器號稱自己支持HDR,其實僅僅是可以接受HDR的信號,但是卻無法展現出真正的HDR畫面。

然而事實上,現在並沒有一個單獨的HDR顯示標準,目前的HDR的標準都是作為一個更大的整體標準的一部分存在的,包括電視領域的ITU-R Recommendation BT.2100以及UHD Alliance的Ultra HD Premium標準。這些標準在要求HDR的同時還規定了解析度、色深、色域等等。

根據我們前面的分析與業界的標準,從硬體原理上講,顯示器至少要能夠具備以下幾個條件才能發揮HDR內容的威力。

1. 亮度

既然是高動態範圍,亮度的範圍肯定要給足,根據UHD

Premium標準,顯示器的亮度特性要達到以下要求才能算是HDR。

最低的最大亮度值達到1000cd/m2,最大的黑度值(屏幕能夠表現的僅次於關閉狀態的最暗的亮度)不超過0.05cd/m2。相當於20000:1的對比度,對應LCD顯示技術。

或者

或者最低的最大亮度值達到540cd/m2,最大的黑度值(屏幕能夠表現的僅次於關閉狀態的最暗的亮度)不超過0.0005cd/m2。相當於1,080,000:1的對比度,對應OLED等自發光顯示技術。

之所以分成兩種標準,是因為主流的LCD與OLED顯示技術的特性不同造成的。

LCD的背光不可能完全被關閉,液晶也不能完全阻擋光的通過,所以LCD的黑度沒有辦法達到很低,但是LCD的背光的亮度很高,所以還是可以實現高對比度的動態範圍的。但是,因為普通的LCD的色域不夠,而HDR往往不是一個單獨的功能,而是與4K/廣色域等功能綁在一起的,所以目前來看,只有量子點LCD電視/顯示器才能夠實現並搭載HDR功能。

OLED的最高亮度雖然無法做到像LCD那樣高,但是因為是像素自體發光,可以做到對單個子像素亮度的精細控制,所以可以把黑度做的非常低,所以計算下來,對比度反而遠遠高於LCD,動態範圍也要大得多。

其實增加亮度的範圍也是可以增加顏色的,因為亮度也是顏色的一部分。在基礎篇我們看過下面這個圖

通過增加亮度的範圍,可以在Z軸上增加色域。

2.至少支持10bit色深,內部晶元支持更高位的LUT以及浮點格式的編碼。

原因前面都講過。

3. 支持HDR解碼標準(後面介紹)

C.儘可能將記錄/生成的HDR信息轉化為顯示的HDR信息

上面說過,記錄/生成的原始HDR的信息的動態範圍是遠遠大於顯示器可以顯示的HDR範圍的,這雖然也有顯示器的能力的問題,但是更主要的原因是顯示器不需要過於高的動態範圍,因為截至目前,我們還是希望能夠不需要調整瞳孔,一目了然的看清屏幕上的所有細節,如果過於真實的反映原始的動態範圍,會造成觀看者需要頻繁的調整眼球,令人疲勞無法集中精力並即時獲取信息。

但是,從記錄/生成的角度來說,又需要把現場的所有信息儘可能的保存下來,不得不採用非常高的動態範圍。

那麼,記錄/生成和顯示之間,需要某種機制,使得兩者能連接在一起,儘可能的將記錄/生成階段保存的高HDR信息轉換成顯示器能力範圍內的HDR信息,同時儘可能保存人類需要的細節信息。更重要的是,要使得內容製作人想表現的色彩能夠在顯示器上得到更忠實的再現。

我們在前幾個附錄里講過,在HDR技術之前,我們採用sRGB標準(附錄7)來保證內容製作與再現的一致性。因為CRT顯示器的物理原因,輸入的電信號與輸出的光信息之間存在一個非線性(冪函數)關係,這個關係會造成畫面昏暗,所以sRGB採用Gamma Correction(附錄6)的方式在內容製作的時候對信息進行預先反向糾正(編碼)。(如果您沒有讀前面關於sRGB、Gamma的附錄,下面的內容可能會比較難以理解)

後來發現,這種方式竟然還有一種「有損壓縮」的副作用,在將信息從高位深轉向低位深的時候,(因為四捨五入)可以減少人眼不敏感的高亮部分的信息,保留更多的暗部信息。再後來LCD取代了CRT,雖然LCD本身不具有CRT的非線性函數特性,但是為了與現有內容兼容,仍然採用了LUT的方式來模擬CRT的這種特性。

HDR技術和上面的過程非常相似。HDR也需要制定標準來保證製作的內容在終端播放的時候能夠得到準確的再現。但是因為HDR內容是全新製作的內容,所以理論上HDR顯示器已經不再需要模仿CRT的傳遞函數,但是這種指數型函數的副作用(「有損壓縮」)卻對HDR非常重要,尤其是在把高HDR的信息傳送到HDR範圍相對較低顯示器上的時候,這種函數可以減少人眼不敏感的高亮信息,保留更多的暗部信息,從而有效的增加畫面整體的細節信息,這種過程也叫做Tone Mapping。

上面看過的這個照片其實就是經過了Tone Mapping處理的,因為實際上原來中央部分的燈光要比現在要亮很多,只是考慮到我們一般的電腦或手機無法在那個亮度的區間展示出細節,所以把該區間的亮度降低,保留了細節。

在內容製作階段把光的信息轉換(編碼)成電的信息的函數叫做Optical-Electro

Transfer Function(OETF)。反過來在顯示階段,把電的信息再轉化(解碼)為光的信息的函數叫Electro-Optical Transfer Function(EOTF)。而把整個過程放在一起來看,從最初的的場景的光的信息到最後的顯示器發出的光的信息,是一個從光到光的變化過程,這個過程中信息所經歷的轉換函數就叫做Optical-Optical Transfer Function(OOTF)。

所以其實sRGB的Gamma Correction只不過是OOTF的一個特例而已,編碼函數Y = X0.51相當於就是一個OETF,而CRT自身的Gamma函數Y = X2.2則是EOTF,系統整體的Y = X0.51 x 2.2 ≈ 1.125相當於是OOTF。

HDR的標準目前有兩種,他們都被包含到ITU-R

Recommendation BT.2100標準里,成為了國際標準。

一種是由BBC和NHK提出的HLG

(Hybrid Log-Gamma),主要是用於廣播電視領域,其主要目的是保證廣播電視節目的製作既能進入到HDR時代也能和現現有的顯示設備兼容。因為是面向普通大眾的廣播電視領域,不能說標準升級了就可以讓沒錢換電視的人看不了電視吧?所以比起為新的HDR電視提供最好的顯示效果來說,與現有的各種新舊電視的兼容性才是最重要的。所以該標準採用了相對較簡單的指數型OETF的形式來進行編碼,只不過這個OETF與傳統的sRGB的Gamma不同,更加適合HDR的內容而已。如果接收信號的電視不支持HDR的話會自動把HDR相關信息忽略掉,還可以按照以前的方式繼續收看,只不過畫面顏色沒有那麼好看而已。另外,HLG並沒有規定電視一定要有多高的亮度或暗度,而採用相對值來表示亮度,這樣實際上展現的動態範圍會取決於電視的物理能力。這是一個普惠型的標準,不收取任何的專利費。目前除了BBC和NHK以外,Youtube也採用這個標準。HLG標準信號的最高輸入亮度是4000cd/m2,電視輸出的最高亮度是1000cd/m2。

另一種標準是杜比Dolby提出的PQ(Perceptual quantization),主要用於電影、網路流媒體的視聽,其主要目的是真實的還原視覺場景並為觀看者提供最優秀的視覺效果。所以這個標準的重心在於如何能夠按照內容製作者的意圖,在符合標準的HDR電視上展現出準確的圖像。所以,比起簡單的指數函數,PQ的EOTF更加符合人的視覺特性,而且PQ會在顯示信息中附上一個元信息metadata。這個metadata中就包含了內容製作者的意圖(亮度、色域、動態範圍、白點、EOTF等等)。符合HDR標準的電視可以解讀這個metadata,再結合自身的情況,盡最大可能的再現內容製作者的意圖。另外,PQ採用絕對值來表達亮度,保證(符合標準的)不同的電視輸出同樣的亮度。PQ其實只是一個基礎標準,目前業界有幾種不同的建立在PQ基礎上的商用標準。其中主流的有杜比公司的Dolby Vision和HDR10/HDR10+。

HDR10在由美國Consumer Technology Association(CTA,就是舉辦CES的組織)提出的標準。這個標準基本上就是一個基礎版的PQ,得到了大部分主流硬體和內容廠商的支持,這也是大部分的HDR內容都會支持的最基本的標準,包括微軟最新的Xbox和索尼的PS4也都支持它。該標準要求使用10bit色深,ITU-R Recommendation BT.2020的色域,採用靜態Static Metadata。輸入信號的最高亮度是4000cd/m2,顯示輸出的最高亮度是1000cd/m2。

Dolby Vision由杜比公司開發,目前得到了幾乎除了三星以外的所有硬體廠商和內容廠商以及流媒體平台的支持。該標準要求使用4K的解析度,ITU-R Recommendation BT.2020的色域,12位的色深。輸入信號的最高亮度是10000cd/m2,顯示輸出的最高亮度是4000cd/m2。Dolby Vision最大的特點是擁有HDR10所沒有的動態Dynamic metadata,它的metadata不是簡單的針對一個內容而製作的,而是針對每一個場景都有一個metadata,這樣可以做到精細的調控不同場景的動態範圍。如果只有一個metadata的話,電視/顯示器只能根據最亮的那個場景來調整自己,但是這種調整並不一定適合這個內容的所有場景。所以Dolby Vision的顯示效果要遠遠好於一般的PQ標準。但是Dolby Vision是收費的,每台電視大概不到3美元。收錢以後,杜比除了提供授權以外,還會提供很多技術支持大禮包,其實比較適合圖像演算法實力不夠強的一些中國廠商,但是對於一些對自己的畫面處理演算法技術很有自信的公司來說,全盤接受杜比的大禮包會喪失自己的特色,這也是為什麼索尼很晚才推出支持Dolby Vision的產品。

HDR10+是由三星和亞馬遜開發的。該標準主要就是要挑戰Dolby

Vision,因為三星不想讓自己的電視受制於杜比而且還要給杜比專利費。現在已經得到了松下、飛利浦、二十世紀福克斯和華納兄弟等硬體內容廠商的支持。該標準在HDR10基礎上升級,對標Dolby Vision,增加了針對不同場景的動態Dynamic Metadata。如果使用這個標準,廠商無需支付授權費給杜比,但是世界上沒有免費的午餐,加入HDR10+陣營的廠商之間需要共享相關技術。

在顯示領域經常發生各種格式大戰,這次廠商們也都在站隊,目前來看Dolby Vision佔據了人數的優勢。不過Dolby Vision和HDR10+並不是互斥的兩個標準,如果廠商願意,可以同時支援兩種標準。

我個人覺得杜比會最終贏得勝利,有以下幾個理由:

1. 杜比與電影業界的淵源甚遠,基本上所有電影廠商都支持影院版的Dolby Vision,所以杜比很可能會佔據上游內容優勢從而取得更大的優勢。

2. 從下游講,其他電視廠商不願意受制於自己最大的競爭對手之一的三星。

3. 雖然Dolby Vision收費HDR10+免費,但是要和三星共享技術的可能不是很多硬體廠商願意接受的條件。

4. 杜比的這種交鑰匙型的標準非常適合廣大的中國廠商,不用自己閉門造車調教畫面。

5. 杜比的品牌在中國還是比較好賣的。

6. 索尼加入了杜比陣營,中國消費者對索尼大法有莫名的信仰,在中國這個市場成功就可以算是巨大的成功了。

附錄12

顯示介面分為連接主機和顯示器的外部顯示介面,以及連接顯示器內部各種元件的內部顯示介面。

外部顯示介面

介面作為連接顯示信息生成/播放設備與顯示器之間的信息傳遞的通路,隨著顯示技術的發展也在不斷發展著,迄今為止產生了很多不同的介面。

在初期,因為產業鏈整體缺乏統一的標準,介面市場群雄割據,標準不統一、互不兼容。哪怕是同樣的播放設備和顯示器,因為使用的介面不同,顯示效果也可能會有差異。或者僅僅因為介面不同,造成本可以一起工作的設備之間無法連接。這無疑會對用戶造成混亂、體驗破壞以及資源浪費,非常不利於行業整體的發展。好在廠商們已經充分的認識到了這個問題,現在的發展趨勢是越來越傾向於採用統一的兼容的介面的。

需要注意,一個介面的物理標準和通訊協議是兩回事,雖然兩者之間往往是有一定關聯的,但這種關聯不是必然的。同樣的物理標準也可以採用不同的通訊協議,這就好比是人與人之間打電話,可以用中文交流也可以用英文交流一樣。

一個現實的例子就是網線,對於大多數人來說網線可能只是用來連接網路的。但是其實如果網線還可以用給設備供電,如果採用HDBaseT協議甚至還能傳送高清影音。

下面就讓我們對主要的介面進行簡單介紹。

模擬信號:複合信號Composite Video

首先,前面我們講過,從機械電視開始的模擬電視主要通過無線電來發送信號,這個信號是一個一維的信號。因為最開始的電視是黑白的,所以其實只含有一個明暗信息。後來彩色電視出現以後,為了讓黑白電視還能繼續收看,還是保留了這個明暗信息,同時在信號里混入入了只有彩色電視才能識別的顏色信息,這樣黑白和彩色的電視可以從同樣的信號里各取所需。這種視頻信號就叫做複合信號Composite Video

早期的介面也都採取了這種設計。

· F型連接頭 F Connector:

· Belling-Lee 介面:

這兩種介面在舊的電視上很常見,採用同軸線材,主要用於連接無線天線、有線電視、衛星電視信號等。傳輸的信號基本上和無線電視的無線電信號是一樣的模擬信號。

· RCA端子 RCA Connector:

這種介面的名字來自Radio

Corporation of America,一開始用來傳輸音頻信號的。因為設計簡單,成本低,後來用途越來越多,也逐漸開始被用來傳輸模擬複合視頻信號的。很多早期的影音設備包括錄像機、攝像機以及家用遊戲機等都採用了這種介面。

模擬信號:分量信號Component Video

但是,因為明暗信息與顏色信息畢竟是兩個信息,將這兩個信息混合在一起傳送,其實是有相互干擾的。無線電視信號里的兩個信號的頻率差是經過計算以後巧妙安排的,在可能的範圍內把干擾控制在最小的程度。但是,干擾畢竟還是存在的,隨著家庭娛樂需求的增加,人們對畫質的要求越來越高,把這兩種信號分開傳送的方式就自然而然的出現了,這就是分量信號Component Video

把明暗信息和顏色信息分開還有一個好處,人眼對於明暗更敏感,對顏色less敏感,所以將兩者分開,可以單獨對顏色進行有損壓縮,這樣減少整體的存儲和傳輸成本的同時,基本不太損害人類的視覺體驗。

· S端子 S-Video

S-Video其實就是Separate Video,在家庭影音設備種很常見。這種介面把明暗和顏色分到兩條線來傳輸,可以實現更好的畫質。

· 色差端子 YPBPR

這種介面在S端子的基礎上進一步的對顏色信號進行分拆,使用三條線RCA線,實現了更好傳輸質量。線的數量的增加使得傳輸信息的帶寬也得到了大幅提高,甚至可以傳輸高清HD的畫面。

三條線中,Y線代表明暗,是RGB三種顏色的和,Y = 0.2126 R + 0.7152 G + 0.0722 B。PB線負責傳輸藍色與明暗之差(B-Y),PR線負責傳輸紅色與明暗之差(R-Y)。

這種方式和我們之前介紹過的YCBCR基本相同,只不過YCBCR更多的是指數字方式,YPBPR用來指模擬方式。也可以用YUV來統稱所有類似的方式。

· VGA端子 VGA Connector

這種介面也叫D-subminiature(D-sub),其實是D-sub的一種DE-15。這種介面是在個人電腦上得到大量使用的介面,由IBM在1987年推出VGA顯示標準的時候採用並推廣。VGA標準本身包含顯卡、顯示器以及顯卡和顯示器之間的介面。當時IBM可是非常牛x,IBM說啥大家就都跟著搞啥。

前面幾種標準都是為了電視或者家庭影音環境所開開發的,實際上並不適合個人計算機。因為此前的視頻內容的主要展示終端是電視屏幕,所以整個產業都是圍繞著電視機來轉的。考慮到信號最後要以明暗/顏色(因為要兼容黑白電視)的格式被傳送出去,所以攝像機/照相機、編輯設備以及存儲設備產生的內容格式都是符合這種標準的。

但是計算機不一樣,計算機沒有這種歷史負擔。當時主流的CRT電視/顯示器的核心的電子槍本身就是採用RGB信號的,收到明暗/顏色信號以後還要再轉化為RGB信息。為什麼不直接輸出R、G、B信號呢?

此外,其實在電視信號里,除了明暗和顏色以外,還有同步Sync信號,用於告訴電視/顯示器現在的信號位於屏幕的哪一個位置,哪一行哪一列。這個Sync信號在複合信號里被和明暗/顏色混合在一起,在分量信號里被混合在明暗信號里。VGA端子把這個Sync信號也分離出來,分成一個橫向同步和一個縱向同步,這樣進一步的減少了信號之間的干擾,同時也增大了明暗信號的傳輸速率。

VGA端子輸出模擬信號,但其實在VGA之前的計算機用的顯示介面大部分都是數字的,這是因為計算機本身是數字的。但是,因為當時的主流顯示技術CRT本身是模擬的,所以VGA之前的介面都要求在顯示器端有數字模擬轉換DAC裝置,這對顯示器廠商是一個負擔,IBM把這個功能標準化以後集成DAC在電腦主機上可以強迫顯示器廠商跟進,同時可以降低整個行業的升級成本。

所以,VGA是非常適合當時個人計算機對顯示的需求的,它也為個人電腦的大發展做出了很大的貢獻,而且隨著用戶需求的提高而一直在得到更新和改進。然而,雖然VGA標準本身沒有任何帶寬上的限制,理論上也可以傳送高清甚至4K畫面,但是因為模擬信號不抗干擾,隨著解析度和色深的提高,數據量越大的,畫質就越差,不能承擔傳輸更好畫面的任務。

同時,以液晶顯示器LCD為代表的的平面顯示器開始興起。這種顯示器內部採用的是數字的方式來處理信號(只有最後發送到每個像素的電壓信號是模擬的),所以實際上對液晶顯示器來說,還要再把RAMDAC從數字轉換來的模擬信號再重新轉化為數字信號,然後最終再轉化為模擬信號發送給像素,這種多次反覆的轉化對畫質的影響很大,使得液晶顯示器無法發揮自己的潛力。

所以,業界急需一種新的數字信號的標準,顯示介面再次回到了數字時代。

數字信號

· DVI Digital Visual Interface

雖然業界對於數字介面有著非常迫切的需求,但是當時世界上還存在著大量的CRT顯示器,顯卡公司們是不敢貿然提供只支持數字信號的介面來放棄現有的用戶的,所以新的數字介面必須能夠同時兼容VGA模擬信號。當時很多公司和組織都在積極的發表新的標準。典型的例子有National

Semiconductor(NS)的OpenLDI(Open LVDS Display Interface)標準和VESA(Video

Electronics Standards Association)的Plug & Display標準。

National Semiconductor(現在已經被德州儀器收購)在1992年以一種叫做LVDS(Low-Voltage Differential Signaling)的技術為基礎為蘋果電腦開發了一種新的技術,採用兩條線來傳輸數字信息,傳輸快、帶寬高、用線少、結構簡單、成本低廉,能夠在液晶顯示器內部的控制晶元和面板之間提供更高的通信速度,實現更高的解析度與更大的色域。NS把這種技術命名為Flat Panel Display Link(FPD-Link)並免費開放,很快這種技術就成為了屏幕顯示器內部的通用通信標準,同時也成為連接筆記本電腦主機與顯示器的通用標準,一直到現在仍然被大量採用,剛剛才出現一點被替代的跡象。另外在汽車信息娛樂Infotainment系統上,作為連接屏幕與處理器的介面,FPD-Link的後續版本至今仍然被大量採用。

所以很自然地,NS希望把這種技術也推廣到顯示器與電腦主機之間連接的介面上。但是LVDS的問題是不太適合較長距離的信號傳送,需要時間對技術進一步改進。

另一方面,在1987年IBM推出VGA標準以後,很多第三方兼容顯卡的生產公司組成了一個行業聯盟,叫做VESA(Video Electronics Standards Association)。牽頭的是當時還很厲害的NEC(日本電気株式會社)。這個組織成功的推動了很多基於VGA標準的改進與升級,並制定了很多影響深遠的行業標準,包括顯示器後面螺絲的間距、顯示器與顯卡之間的簡單信息交換方式以及後來發展迅速的DP介面等。在初期,VESA的創始成員公司都是像ATI這樣的顯卡公司,那個時候的顯卡公司可沒有現在NVidia這樣牛x,無數個小公司各立山頭,沒有什麼大的市場影響力。但是後來越來越多的電腦整機公司也加入VESA,希望把VESA做成在顯示領域能夠代表電腦硬體廠商共同利益、起到協調作用並規範行業標準的一個組織。

在個人電腦初期階段,各種外設的介面標準也十分不統一,電腦業界一直有一個夢,希望使用一個統一的介面連接所有的滑鼠、鍵盤、音箱、印表機等等外設。於是在1994年Intel、IBM、Compaq、DEC、微軟、NEC和Nortel一起制定了USB標準。這個VESA也有一個夢,就是要把顯示器作為桌面電腦的核心,主機與顯示器靠一條線連接,然後其他所有外接設備都通過USB等介面連接到顯示器上,再通過這顯示器與主機的連線與主機通訊。這也就意味著,這條顯示器與主機的連線需要能夠傳輸數字信號,好像下圖一樣。

VESA的這種想法其實是可以理解的,當時的電腦主機很大,放到桌面上不方便,各種外設連接到主機上其實很麻煩,桌面也不整潔,如果都連接到顯示器上,其實更方便插拔等操作,其實是很make sense的。於是1994年VESA發布了Enhanced Video Connector介面,這個介面雖然還是傳送兼容VGA的模擬視頻信號,但是同時也可以為各種外設傳送數字信號。

然並卵,這個標準,沒有取得成功,這是因為當時大家的點不在那裡啊,大家迫切需要的是一個可以更快更好的傳輸數字信號的介面標準,不是一個什麼都能接入的介面。因為這種需求的存在,很多公司都在研發相關技術。有一家1995年才成立的叫做Silicon Image(現在已經被Lattice Semiconductor收購)的初創公司提出了一個技術解決方案,叫做TMDS(Transition-Minimized Differential

Signaling)這個技術和LVDS在物理層面上有些相像,但是在通信協議上則完全不同,它採用了IBM的8b/10b的編碼方式,可以減少信息的錯誤的產生並支持更長的線纜長度,包括USB3.0在內的很多後來的高速介面都採用了這種編碼方式。

1997年,Silicon Image把這個技術商用化,命名為PanelLink並開始銷售,因為實際效果很好,在市場上頗受歡迎。

於是VESA馬上找到了Silicon Image談,你太小,沒能量,搞不起來,交給我來搞,做成行業標準,肯定搞大.於是VESA拿到授權,並立刻推出了自己的基於TMDS技術的標準Plug and Display

Plug and Display的外形還是沿用類似Enhanced Video Connector的設計,但是不再只傳送模擬視頻信號了,而是具有了傳播數字視頻信號的功能。而且它不忘初心,還是具有連接各種外設的功能。其實這樣會造成整個介面物理造價很高。另外,本來TMDS是支持兩條通路Dual Link來高速傳輸數據的,因為其中一條被Plug and Display用來傳送各種外設的數據,導致顯示的帶寬被犧牲了一半,所以能夠傳輸的最高畫質被大幅打折,所以市場不是很歡迎。

這時,之前一直沒有發聲的Intel站出來「主持公道」了。英特爾一邊肯定Silicion Image的技術的先進性,同時「高瞻遠矚」的指明了發展方向,另一方面召集了包括HP、富士、IBM和NEC等主機廠商小夥伴,成立了一個新的組織叫Digital Display Working Group(DDWG)DDWG在1998年公開宣布支持Silicon

Image的技術,並將其做出一定改進以後,命名為Digital Visual Interface並開始推廣。

一方面,Image Silicon的技術本來就好,但是VESA等公司一直抓不到市場痛點,沒有物盡其用。Intel則一針見血地指出市場的根本需求:兼容VGA信號的高速可靠的數字介面。

其次,Silicon Image這個小公司自己無法主導大局方向,前途有風險,又急需把研究成果變現,非常需要一個大腿

第三,Intel當時市場地位很高,如日中天,有號召力。

第四,對於Intel來說,比起VESA那幫人,Silicon Image這個小公司聽話好控制。實際上,經過私下安排,Silicon Image把技術免費拿出來給DDWG使用,但是保留專利權,從而向購買自己生產的DVI晶元的顯卡/顯示器廠商收取專利費。而且,他們還讓Intel白菜價入股自己,這樣Intel表面上沒有從DVI標準上賺錢,實際上卻從Silicon Image的收入中獲取股東分紅。然後安排Silicon

Image在下一年(1999年)在納斯達克上市,開盤當天股價翻了兩倍多,英特爾賺了十幾倍都不止。。。

整件事情各種一氣呵成,各種恰到好處。

看到英特爾這麼順風順水,很多人都很眼紅。1999年Compact又聯合VESA緊急推出了簡化版的Plug & Display,叫做DFP(Digital Flat Panel),只保留了顯示功能,但是仍然抓不到關鍵點,還是Single Link,帶寬還是只有一半!當時VESA已經看清形勢非常不利,在發布DFP的時候說:「可能整機廠的夢和我們的不太一樣吧,他們希望所有的介面能統一在主機上而不是顯示器上。關於DVI,我們對與DDWG合作定義未來數字介面感興趣。」相同時期,NS和德州儀器聯手也終於成功的把FPD-Link改進並發布了OpenLDI規格,但是這時已經為時太晚,大局已定。

DVI也不辱使命,成功的為電腦進入數字時代、HD時代保駕護航,直到現在仍然是在電腦上比較常見的主流介面之一。

但是DVI的缺點也有很多:

1. 子標準太多,互相之間的兼容性不好。

2. 沒有嚴格的產品認證,好多不符合標準的產品充斥市場。

3. 這個標準只考慮到了個人電腦的需求,只能傳輸視頻信號,不支持音頻音頻,也不支持類似於YUV這樣的亮度/顏色信號,無法滿足電影/電視業界以及家庭影音的視聽需求。

4. 介面實在是長得太大了

5. Intel跨越行業組織,又自己吃獨食,不厚道,小夥伴都不願意和它玩了,導致DVI標準一直得不到任何更新,停止在1.0版,DDWG也很快就解散了。此事使業內更加深刻的認識到公開公平的行業共同組織與開源免費標準的重要性。

· HDMI High-Definition Multimedia Interface

DVI給計算機顯示器帶來的巨大提升使得電視、DVD播放器等產商迅速跟進,推出了採用DVI的產品,但是沒有高清的視頻內容。這是因為,視頻信號實現數字化傳輸,就意味著內容可以被完美複製。所以,包括好萊塢在內的上游內容公司非常擔心版權保護的問題,如果沒有一個完善的保護機制,他們是不願意製作高清的視頻內容的。

因此,Intel引入了對HDCP(High-Bandwidth Digital Content

Protection)機制。HDCP是英特爾主導的版權保護系統,可以防止內容被非法錄製,播放端和顯示端都必須支持這個標準才能夠播放有版權的內容。這個機制立刻得到了包括福克斯、環球、華納、迪士尼在內的上游內容廠商的積極支持,同時美國各大有線電視公司也都紛紛發來賀電錶示擁護。

然而,DVI標準本身因為上面所說的各種缺點,不是特別適合家庭影音環境,市場急需一種能夠滿足家庭影音需求的介面。

2002年,日立、松下、索尼、東芝、飛利浦、湯姆遜等家電巨頭迅速找到Silicon Image,要求共同開發一款以DVI為基礎的更適合家庭影音的標準。這個標準就是HDMI。HDMI和DVI同樣也採用TMDS技術作為底層,並保證對DVI標準的兼容。在此基礎上,HDMI解決了DVI介面的各種缺點。

1. 介面物理上比DVI小得多,使其更適合家庭環境的美觀需求。而且有各種大小,適合不同的需求。

2. 設計上充分的預留了未來帶寬提升的發展空間。

3. 完全去掉了對模擬信號的支持。

4. 加入了對電影電視內容常用的YUV類型色彩空間的支持(YCbCr 4:4:4和YCbCr 4:2:2)。

5. 加入了對包括杜比和DTS在內的高保真HD音頻信號的支持。

6. 加入了CEC(Consumer Electronics

Control)功能,用戶可以用一個遙控器來控制所有支持CEC並通過HDMI連接在一起的家電,比如功放、藍光DVD機和電視。

7. 加入了ARC(Audio Return Channel),此功能可以讓電視把聲音再傳給音響。因為正常的順序是,音頻和視頻內容從藍光DVD出發到音響再到電視,音響負責聲音,電視負責影像,這是一條單向的通道。但是如果只是看電視節目,想用音響來聽聲音的話,需要再用一條線把電視和音響連接起來。然而,這樣首先很麻煩,或者電視很可能沒有音頻輸出功能,或者音響的音頻輸入通道已經被佔用,此時ARC可以用一條HDMI實現從電視到音響的反向音頻數據傳輸解決這個問題。

8. 加入了HEC(HDMI Ethernet Channel),此功能可以讓HDMI擁有網線的功能。

9. HDMI加強了對兼容產品的認證測試,使得產品質量得到保證。

10. 諾基亞、三星、索尼、東芝又和Silicon Image一起開發了一個叫Mobile High-Definition Link(MHL)的標準,這個標準可以讓手機也能輸出HDMI信號到支持這個標準的電視/顯示器上。

這麼多的優點使得HDMI各種蓬勃發展,迅速得到普及。整個電影電視產業以及家電產業都對其給予大力支持,截止2013年初HDMI10周年之時,HDMI

Licensing, LLC公布說全世界已經有30億個支持HDMI的產品。

這個HDMI

Licensing, LLC是HDMI創立成員們用來共同發展HDMI標準的組織,同時也是用來收錢的工具,每個要生產HDMI設備的公司都要交錢。每年10,000美元年會費,同時每個產品還收0.15美元,如果印上HDMI標誌就只收0.05美元,如果支持HDCP就只收0.04美元。每年產品產量少於10000台的只收5,000美元年會費加上每個產品1美元的專利費。這種就是躺著賺錢咯,雖然一共可能沒有多少錢。

但是,這個畢竟是一個封閉的組織,歷史證明,所有封閉的標準的下場都不太好,尤其是當一個開放的競爭對手出現以後。電腦硬體業界在DVI「失敗」以後並沒有放棄,2006年VESA又發布了新的Displayport標準,得到了很多硬體廠商的支持,對HDMI造成了威脅。所以2011年,HDMI Forum HDMI論壇成立了,所有的關於HDMI標準的制定和更新都由這個論壇來決定,任何公司只要交年費就可以成為會員,參與到HDMI標準的發展中。

目前HDMI的最新版是2.1版,最高可實現每秒48G的傳輸速率、16位色深、BT.2020色域、10K@120Hz、動態HDR。

· DisplayPort(DP)

DVI標準以後,很多小夥伴都不和Intel玩了,但是Intel「不忘初心」,再次聯合Silicon Image要推出一款新的介面叫UDI(United Display

Interface),其實還是基於之前的技術,基本上是舊瓶裝舊酒,貌似唯一的優點就是成本比DVI低,但是功能和潛力也都下降,市場並不是很買賬。於是Intel又拉上了三星、LG以及蘋果和NVidia一起支持UDI標準,但是其實大家都不是很上心,很快就沒有下文了。

上面說過,電腦整機廠商一直都有一個夢:希望使用一個統一的介面來連接所有的設備」。而依靠HDMI和DVI並不能實現這個夢。因為要想統一:

· 首先需要行業內的主流公司都參與進來。

· 其次需要統一的通信方式。

DVI和HDMI都是基於TMDS技術,都要支付專利費給Silicon Image,而且都是由業內少數公司主導的標準,沒有整個業界的共識,沒有VESA這樣的行業組織的認證。而且TMDS技術是以幀為單位傳輸,沒有完全脫離傳統模擬視頻傳輸的思維模式。要想把顯示介面與其他設備的介面統一,必須要讓顯示介面也和其他介面一樣,完全以「普通數據」的方式傳輸信息。因為其他外設基本上已經被USB標準統一了,一旦顯示信息也數據化的話,只要把USB介面和顯示介面從物理上統一,理論上就可以實現所有外設介面的大一統了。

幸好的是,之前惜敗於DVI的LVDS技術並沒有完全死亡,DELL在2003年開始基於LVDS技術研發一種叫DisplayPort的協議,並於2005年把這個協議提交給VESA,2006年VESA正式發布了DP標準。這個時候的VESA已經不再是顯卡公司的組織了,包括戴爾、蘋果這樣的電腦整機廠商都加入了。DP不需要TMDS或者LVDS那樣特殊的邏輯協議,工作方式就像網線一樣,把信息打包成一個一個小的數據包傳送。這樣的好處是可以像網線一樣同時傳輸很多不同的數據,不僅可以同時傳輸多組低頻信號,而且可以和其他設備的數據混在一起傳輸。這個標準很快就得到了業界的積極響應,

DP從設計初期開始,綜合到考慮到過去各種標準的問題、對現有顯示器的兼容以及未來擴展升級的需求等方面。而且不僅僅從外在為「一個介面所有設備」的宏偉事業做準備,還同時包含了取代現有筆記本電腦內部的FPD-Link(也是LVDS技術)連接的標準,使得信息從顯卡出來以後可以以同樣的形式,一條直線到達T-CON,中間無需再經過協議的轉換。而且DP線的傳輸效率要遠遠大於FPD-Link線,20條FPD-Link線才能做的事情,4條DP線就可以完成。採用DP線可以讓顯示器和筆記本變得更加輕薄。目前很多筆記本和高端的顯示器都開始在內部連接上採用DP技術,但是大部分的中低端產品還是更喜歡傳統FPD-Link的簡單與低成本的優勢。然而,隨著顯示器解析度、色深以聽從及刷新率的提高,FPD-Link會越來越力不從心,預計越來越多的產品採用DP標準。

除了上述的優點以外,DP的其他優點還包括:

1. DP是免費的,除了一個很低的入門會員費以外,不收取任何專利費。

2. DP顯卡兼容現有的HDMI和DVI介面的顯示器,只需要簡單的轉接頭。(但是反過來不行)

3. DP得到了行業的普遍支持,其標準可以得到持續的更新。

4. DP傳輸的是純數據,所以無論是無線還是光纖都可以用來獲得更遠的傳輸距離。

5. DP可以用來從顯示器獲得數據,比如觸摸屏的反饋信息。

6. DP也支持版權保護的HDCP。

目前最新版的DP是1.4版,最高支持每秒25.92G的傳輸速率、10位色深、BT.2020色域、8@60Hz、動態HDR。從數據上看起來不如HDMI最新版,這是因為HDMI最新版是2017年11月發布的,DP1.4版則是2016年3月發布的。目前DP正在準備新的標準,預計可以達到每秒64.8G的速率。

現在DP的擴張的速度非常快,最新的電腦整機和顯卡基本上都支持DP或者只支持DP了,但是還是沒法滲透進入家庭影音領域。這是因為HDMI的創立者和支持者們都是家電影業的廠商為主,客觀上來說,家庭影音以視聽為主,沒有很多的數據需求,而從目前來看HDMI在這方面毫不遜色於DP,何況HDMI還有ARC等更適合家電的細節優點。既然如此,大家也就沒有什麼動力來接受新的標準。

我認為相當一段時間內兩者會共存,最終的結果要看電腦、家電與移動設備之間和熔合的情況。我預計,最後隨著家電產品的電腦化,以及移動產品的家電化,很有可能DP標準會取得最終的勝利。雖然未來總是不確定的,但是有一件事是可以確定的,那就是Silicon

Image的股價,隨著DP的發展,他們的股價就一路向下,再也不回到當時跟著Intel呼風喚雨的好時節了,最後被然後被Lattice

Semiconductor收購,不過創始人早就退休當天使投資人了,不要太幸福

· Thunderbolt/USB-C

因為DP與生俱來的可擴展性,很多電腦整機廠商從戰略的角度非常積極的擁抱它。蘋果在2008年開發了Mini DP標準,並迅速代替DVI介面,投入到自己的所有產品線里,尤其是筆記本產品。因為Mini DP介面可以讓筆記本做的更輕薄,很快其的筆記本公司都開始跟進。

但是蘋果採用Mini DP可不是僅僅把電腦外形變小這麼簡單,蘋果是要實踐「一個標準所有設備」的夢想。很快,Intel主導,蘋果協助的Thunderbolt介面標準被發布了,這個介面採用了Mini DP的物理外形結構,但是實際上是合併了DP與PCI Express(Peripheral Component

Interconnect Express)兩個介面與一身的。PCI Express介面是可以直接連到CPU的電腦內部的核心介面,顯卡就是通過這個介面和CPU對話的。這樣的整合實際上是把顯示介面與其他外設都直接與電腦內部最核心的介面相連接。這個介面可以連接支持Thunderbolt標準的各種外設,包括但不限於外部存儲、音效卡、網卡甚至外接顯示卡。

後來隨著USB標準進入第三代,最新的USB-C的外形標準也被發布了。USB標準本身的速度越來越快,也成了除顯示器以外所有電腦外設的標準介面。為什麼不能把顯示介面也和USB介面合併呢?當然可以!

從2014年開始,DP、MHL、Thunderbolt、HDMI與USB-C兼容的協議陸續被發布,也就是說可以用USB-C外形的介面來傳輸DP、MHL、Thunderbolt和HDMI信息了。其中DP、MHL和Thunderbolt的兼容協議很容易也很快的就被實現,這是因為MHL本身就是USB介面,而DP和PCI Express都是純數據介面,他們和USB3.0以上版本用的SuperSpeed技術的方式非常相似。HDMI的兼容協議來的相對較晚,但是現在也可以實現了。2015年末,Intel發布了新的Thunderbolt 3標準,這個標準採用了USB-C的物理外形,可以傳送PCI Express信號、DP信號、USB信號。

隨著移動設備的蓬勃發展,越來越多的終端採用USB-C介面,最後很有可能會導致家電廠商不得不接受這個「物理外形」的標準,從而起碼在「模樣上」實現各種介面的大一統。

· DSI Display Serial Interface

上面說的都是電腦系統里的主機與顯示器之間的介面,而在手機等移動設備上,現在最常用的則是MIPI聯盟(Mobile Industry Processor Interface Alliance)發布的DSI協議與M-PHY/D-PHY/C-PHY介面。

MIPI聯盟是在2003年由ARM、英特爾、諾基亞、三星、意法半導體和德州儀器共同創立的一個全球的開放組織,其主要目的就是發展移動生態環境的介面標準。經過十幾年的發展,目前在全球已經有250多個會員公司,而且隨著移動生態的發展,MIPI制定的標準已經進入到了人工智慧、物聯網、虛擬與增強現實、汽車、照相機、工業電子與醫療設施等等領域。

MIPI將介面的物理標準與其傳輸協議分開定義。目前MIPI規定了三種物理標準,分別是M-PHY、D-PHY和C-PHY。其中M-PHY傳統上是用在當做晶元與晶元之間的高速數據傳輸,而D-PHY則被用來連接攝像頭與主晶元組以及顯示屏與主晶元組。後來MIPI又在D-PHY的基礎了,發布了同樣用途的C-PHY標準,可以算是對D-PHY標準的升級。

而在連接顯示屏與主晶元組的時候使用的傳輸協議就是Display Serial Interface(DSI),這個協議具有高速、低耗能以及低干擾的特點,能夠在性能和節電兩種模式中切換,非常適合在移動設備上使用,所以在很多手機、可穿戴設備、物聯網、虛擬現實以及車載智能系統上得到了應用。DSI一代只支持D-PHY物理介面,但是DSI-2代就可以同時支持D-PHY與C-PHY了。DSI-2可以提供更高的解析度的同時比一代更抗干擾。

MIPI後來又引入了UniPro的概念,這是一個長期的具有戰略意義的概念,建立在M-PHY的物理標準上,核心思想是把所有的移動設備的組件,比如照相機、顯示屏、存儲設備等等,看作是連接在一個網路上的終端,大家在一個網路里交換數據,雖然各自有各自不同的功能,但是都可以通過UniPro這個共同的協議來互相溝通。這樣移動設備未來就可以像搭積木一樣,把不同的組件直接組合在一起就可以使用了。因為DSI協議也是和DP一樣是把顯示信息打包成小的數據包來傳播的純數據協議,所以完全可以融入到這個框架里。我們可以讓顯示屏通過DSI-2和UniPro溝通,再通過UniPro與GPU/CPU溝通。

UniPro架構不一定會馬上取代現有的專用介面的形式,因為很多中低端產品的顯示屏不具有那麼高的傳輸速度的要求,沒有必要做的十分複雜。但是隨著人們對移動設備的顯示效果的要求越來越高,現有的D-PHY/C-PHY標準不一定能夠支持那麼大量那麼高速的數據傳輸,屆時就不得不採用以M-PHY為基礎的UniPro架構了。事實上,現在攝像頭的像素越來越高,單張照片容量非常大以及快速連拍需求、4K視頻拍攝需求等,數據量非常巨大,不得不採用CSI-3協議結合UniPro通過通過M-PHY標準傳輸數據。另一方面,將照片等數據快速存儲到快閃記憶體晶元里所需的UFS協議也是建立在UniPro協議之上的,所以把DSI也建在UniPro之上也很可能成為一種趨勢。

顯示器內部的介面標準們

Receiver在從主機接收到信息以後,會把信息發送給T-CON處理,T-CON再把任務分拆以後發送給Gate IC與Source IC。Receiver與T-CON之間也有一個信息的通道,T-CON與Gate/Source之間也會有一個信息的通道。這些信息的通道都有著各自的通信方式與標準。

在Receiver和T-CON之間使用最多的標準是我們上面提到過的LVDS(包括FPD-Link等),所以Receiver和T-CON之間還需要一個能夠把輸入的信號轉化為LVDS信號的LVDS轉換晶元(含Transmitter),然後在T-CON處還需要一個能夠接收LVDS信號的LVDS Receiver。因為LVDS標準已經落後,無法滿足現在的高解析度高色深高刷新率「三高」時代的數據傳輸速率的要求。所以市場上出現了很多新的標準,主要有eDP、iDP和V-by-One HS等

這些新的標準比起傳統LVDS的優勢在於單線的傳輸速率快,傳輸協議更優秀,所以同樣的傳輸帶寬只需要很少的線就可以完成,在物理上大幅減少電線佔據的空間。

eDP標準,作為DP標準的延伸,主要被用來連接筆記本電腦主機部分的顯卡和位於顯示器部分的T-CON。eDP因為可以從顯示卡輸出到T-CON,中間不用再經過一個單獨的Receiver和LVDS信號轉換晶元,又同時因為傳輸速率大幅快於LVDS,可以減少使用的連接線的數量,所以可以大幅節省筆記本電腦中寶貴的空間。比如下面就是一個典型的筆記本電腦顯示器的數據走向圖。

iDP由意法半導體和LG Display共同開發,並經VESA認證發布,主要被用於數字電視內部的圖形處理器與T-CON之間的信息傳輸。

V-by-One HS則是由Thine半導體開發的一個標準,單線的傳輸速率是最快的而且可以配套自家的T-CON到Driver的連接標準。

在T-CON與Gate/Source之間的信息傳輸以前也是以LVDS為主,現在比較流行的則是LVDS的升級版,主要是mini-LVDS(by德州儀器)和RSDS(Reduced

Swing Differential Signaling by國家半導體)。這兩種規格現在也漸漸落後了,取而代之的是Advanced PPmL(Point to Point

mini LVDS)以及V-by-One HS的配套標準CalDriCon。所以在T-CON處需要有一個輸出mini-LVDS/RSDS/CalDriCon/Advanced

PPmL信號的Transmitter,而在Source/Gate

IC那裡則需要有相應的Receiver。

除了上述標準之外,各家DDI公司和面板公司也會採用很多自己專門的標準,比如LG就有EPI(Embedded Panel Interface)和CEDS(Clock Embedded Differential Singaling),台灣譜瑞則有自己的SIPI(Scalable Intra Panel Interface)。這些標準除了傳輸速度更快以外,都能較好的配合自家的產品把DDI做得更小。

上面說的都是顯示器或者電視的情況,手機則稍微有點不同。手機因為各種晶元的功能更加集中,CPU/GPU以等全部相當於電腦主機的晶元都集中在了應用處理器AP(Application

Processor),而DDI也是一個晶元集合了所有的功能。所以信息從AP出來以後以後會直接通過MIPI DSI介面進入DDI,而DDI直接就可以控制TFT了,不需要那麼多的介面。


推薦閱讀:

LCD 中的每個像素中的液體是如何灌入的?
用手機對著屏幕拍攝條紋出現原因是什麼?
光電行業從業者必上的網站、論壇都有哪些?
手機觸摸屏都有哪幾類?
OLED 顯示器未來會取代 LED 背光液晶顯示器嗎?

TAG:顯示技術 | OLED | 液晶屏幕LCD |