標籤:

編碼又見編碼

編碼又見編碼 轉自:http://blog.csdn.net/whoopee/archive/2006/03/06/616472.aspx前幾天,Google給我Hotmail郵箱發了封確認信。我看不懂,不是因為我英文不行,而是"???? ????? ??? ????"的內容讓我不知所措。有好多程序員處理不好編碼問題。不是因為他們學不會,而是因為他們太保守或太不以為然了!我想說,初級程序員需要積累更多的計算機高級知識;高級程序員需要了解更多的底層知識。  那麼Content-Type標記到底有什麼作用?UTF-8與Unicode到底有何關係?…………現在我們就一起來揭開編碼那神奇的面紗!

從ASCII編碼談起:  我們需要了解的最早編碼是ASCII碼。它用7個二進位位來表示,由於那個時期生產的大多數計算機使用8位大小的位元組,因此用戶不僅可以存放所有可能的ASCII字元,而且有整整一位空餘下來。如果你技藝高超,可以將該位用做自己離奇的目的:WordStar中那個發暗的燈泡實際上設置這個高位,以指示一個單詞中的最後一個字母,同時這也宣示了WordStar只能用於英語文本。  由於位元組有多達8位的空間,因此許多人在想:「呀!我們可以把128~255之間的編碼用做個人的應用目的。」問題在於,同時產生這種想法的人相當多,而且在128~255之間的各個位置上應該存放什麼這一問題上,真是仁者見仁智者見智。事實上,只要人們開始在美國以外的地方購買計算機,那麼各種各樣的不同OEM字符集都會進入規劃設計行列,並且各人都會根據自己的需要使用高位的128個字元。如此一來,甚至在同語種的文檔之間就不容易實現互換。ASCII可被擴展,最優秀的擴展方案是ISO 8859-1,通常稱之為Latin-1。Latin-1包括了足夠的附加字符集來寫基本的西歐語言。 最後,這個人人參與的OEM終於以ANSI標準的形式形成文件。在ANSI標準中,每個人都認同如何使用低端的128個編碼,這與ASCII相當一致。不過,根據所在國籍的不同,處理編碼128以上的字元有許多不同的方式。這些不同的系統稱為代碼頁。  同時,甚至更為令人頭疼的事情正在逐步上演,亞洲國家的字元表有成千上萬個字元,這樣的字元表是用8位二進位無法表示的。該問題的解決通常有賴於稱為DBCS(double byte character set,雙位元組字符集)的繁雜字元系統。  不過,仍然需要指出一點,多數人還是姑且認為一個位元組就是一個字元,以及一個字元就是8個二進位位,並且只要確保不將字元串從一台計算機移植到另一台計算機,或者說一種以上的語言,那麼這幾乎總是可以湊合。當然,只要一進入Internet,從一台計算機向另一台計算機移植字元串就成為家常便飯了,而各種複雜狀況也隨之呈現出來。令人欣慰的是,Unicode隨即問世了。

Unicode編碼:  Unicode勇往直前地創建一種單一字符集,試圖囊括地球上所有合理文字體系。每個字元在Unicode中一律以2個Byte編碼。ISO頒布10646號標準叫UCS(Universal Character Set)。在UCS通用集中,每個字元用4個Byte編碼。慶幸的是,Unicode策進會自欺欺人1991年以來便和UCS小組密切配合,從而使Unicode和ISO 10646保持一致辭。  仔細算來,康熙字典里的中文字就有4萬多個,如果再加上裡面沒有的簡體字,那麼Unicode的6萬字容量僅漢字就已用得大部分。對此,Unicode和UCS採用中、日、韓整合(CJK Unification)的解決方案,把中日韓文中筆劃相近的字,盡量以一個單碼來代表。經過中日韓整合的漢字,在Unicode中稱Unihan(統漢字)。Unicode標準中,共有2萬多個統漢字,所以它不包括日常罕見的漢字。Unihan統漢字在Unicode中主要分布在3400到9fff之間,此外f900和faff之間了有一些。其中BIG5和GB2312中的漢字和符號都在4000和9fff之間。  UCS通用字符集中,有UCS-2和UCS-4等編碼方式,其中的『2『和『4『指的是位元組數。就目前而言,在UCS-2碼之前補上兩個零位元組,便可得到相對應的UCS-4碼。

UTF-8編碼與UTF-16編碼:  UCS只是規定如何編碼,並沒有規定如何傳輸、保存這個編碼。例如「漢」字的UCS編碼是6C49,我可以用4個ascii數字來傳輸、保存這個編碼;也可以用utf-8編碼:3個連續的位元組E6 B1 89來表示它。關鍵在於通信雙方都要認可。UTF-8、UTF-7、UTF-16都是被廣泛接受的方案。UTF-8的一個特別的好處是它與ISO-8859-1完全兼容。UTF是"UCS Transformation Format"的縮寫。  用Unicode字符集寫的英語文本是ASCII或Latin-1寫的文本大小的兩倍。UTF-8是Unicode壓縮版本,對於大多數常用字符集(ASCII中0~127字元)它只使用單位元組,而對其它常用字元(特別是朝鮮和漢語會意文字),它使用3位元組。如果寫的主要是英語,那麼UTF-8可減少文件大小一半左右。反之,如果主要寫漢、日、朝鮮語,那麼UTF-8會把文件大小增大50%。UTF-8就是以8位為單元對UCS進行編碼。  除非特別指定,XML處理器假設文本數據是UTF-8格式。UTF-8的格式為:

UCS-2編碼(16進位) UTF-8 位元組流(二進位)
0000 - 007F 0xxxxxxx
0080 - 07FF 110xxxxx 10xxxxxx
0800 - FFFF 1110xxxx 10xxxxxx 10xxxxxx

例如「漢」字的Unicode編碼是6C49。6C49在0800-FFFF之間,所以肯定要用3位元組模板了:1110xxxx 10xxxxxx 10xxxxxx。將6C49寫成二進位是:0110 110001 001001, 用這個比特流依次代替模板中的x,得到:11100110 10110001 10001001,即E6 B1 89。

在當今大多數計算機系統中,仍是以位元組單元來做存取。如果以UTF-16(雙位元組)來存取資料,會產生許多問題。例如,在C語言中,0x00這個位元組有特殊的意義和作用。而UTF-16的頭256個字碼的第一個位元組,正是0x00(第二個位元組則是相對的ISO 8850-1字碼),因此用UTF-16來表示文檔名、網址等,會出現許多意想不到的問題。不只0x00,還有許多其他字元,也都可能和許多OS相衝突。  此外,UTF-16及許多亞洲地區現行的雙位元組區域性編碼方式,在應用上都有先天性缺陷。例,字元與字元之間的邊界不好找,程序在處理時必須從頭掃描,才能正確可靠地找出某個字元的邊界,這樣效率極低。此處,若中文文件中某個地方錯了一個位元組,所有在這個位元組之後的中文字都會壞掉,一直到下個英文字元或空白字元出現為止。  以上問題,在UTF-8中都不存在。Unicode標準中明文規定,當UTF-8格式的文件中有不合法的組合出現時,該怎麼處理。例,碰到第一個位元組是以1110開頭,但是下一個位元組卻是以0開頭。  從另一個角度看,若改用UTF-16來編碼,雖然不會增加亞洲文字所佔的空間(都是兩個位元組),但對西文來說,等於讓所有的文件大小一律加倍。這也難怪西方世界的軟體設計師對Unicode缺乏興趣。有了UTF-8,為數眾多的英文文件不需任何轉換,就自然符合UTF-8,這對向英文國家促銷Unicode有很在幫助。

編碼序的問題:  將編碼存儲為2個位元組的傳統方法稱為UCS-2(因為它有2個位元組)或者UTF-16(因為它有16位),不過仍然需要弄清它是高端存放模式的UCS-2,還是低端存放模式的UCS-2。  big endian和little endian是CPU處理多位元組數的不同方式。例如「漢」字的Unicode編碼是6C49。那麼寫到文件里時,究竟是將6C寫在前面,還是將49寫在前面?如果將6C寫在前面,就是big endian。如果將49寫在前面,就是little endian。

  "endian"這個詞出自《格列佛遊記》。小人國的內戰就源於吃雞蛋時是究竟從大頭(Big-Endian)敲開還是從小頭(Little-Endian)敲開,由此曾發生過六次叛亂,一個皇帝送了命,另一個丟了王位。

  我們一般將endian翻譯成"位元組序",將big endian和little endian稱作"大尾"和"小尾"。  UTF-8以位元組為編碼單元,沒有位元組序的問題。UTF-16以兩個位元組為編碼單元,在解釋一個UTF-16文本前,首先要弄清楚每個編碼單元的位元組序。例如"奎"的Unicode編碼是594E,"乙"的Unicode編碼是4E59。如果我們收到UTF-16位元組流"594E",那麼這是「奎」還是"乙"?  Unicode規範中推薦的標記位元組順序的方法是BOM(即Byte Order Mark)。  BOM是一個有點小聰明的想法:

  在UCS編碼中有一個叫做"ZERO WIDTH NO-BREAK SPACE"的字元,它的編碼是FEFF。而FFFE在UCS中是不存在的字元,所以不應該出現在實際傳輸中。UCS規範建議我們在傳輸位元組流前,先傳輸字元"ZERO WIDTH NO-BREAK SPACE"。

  這樣如果接收者收到FEFF,就表明這個位元組流是Big-Endian的;如果收到FFFE,就表明這個位元組流是Little-Endian的。因此字元"ZERO WIDTH NO-BREAK SPACE"又被稱作BOM。

  UTF-8不需要BOM來表明位元組順序,但可以用BOM來表明編碼方式。字元"ZERO WIDTH NO-BREAK SPACE"的UTF-8編碼是EF BB BF(讀者可以用我們前面介紹的編碼方法驗證一下)。所以如果接收者收到以EF BB BF開頭的位元組流,就知道這是UTF-8編碼了。

  Windows就是使用BOM來標記文本文件的編碼方式的。

漢字的編碼:  早期的計算機使用7位的ASCII編碼,為了處理漢字,程序員設計了用於簡體中文的GB2312和用於繁體中文的BIG5。

  GB2312(1980年)一共收錄了7445個字元,包括6763個漢字和682個其它符號。漢字區的內碼範圍高位元組從B0-F7,低位元組從A1-FE,佔用的碼位是72*94=6768。其中有5個空位是D7FA-D7FE。GB2312-80中共收錄了7545個字元,用兩個位元組編碼一個字元。每個字元最高位為0。GB2312-80編碼簡稱國標碼。

  GB2312支持的漢字太少。1995年的漢字擴展規範GBK1.0收錄了21886個符號,它分為漢字區和圖形符號區。漢字區包括21003個字元。

  從ASCII、GB2312到GBK,這些編碼方法是向下兼容的,即同一個字元在這些方案中總是有相同的編碼,後面的標準支持更多的字元。在這些編碼中,英文和中文可以統一地處理。區分中文編碼的方法是高位元組的最高位不為0。按照程序員的稱呼,GB2312、GBK都屬於雙位元組字符集 (DBCS)。  2000年的GB18030是取代GBK1.0的正式國家標準。該標準收錄了27484個漢字,同時還收錄了藏文、蒙文、維吾爾文等主要的少數民族文字。從漢字字彙上說,GB18030在GB13000.1的20902個漢字的基礎上增加了CJK擴展A的6582個漢字(Unicode碼0x3400-0x4db5),一共收錄了27484個漢字。  GB18030的編碼採用單位元組、雙位元組和4位元組方案。其中單位元組、雙位元組和GBK是完全兼容的。4位元組編碼的碼位就是收錄了CJK擴展A的6582個漢字。 例如:UCS的0x3400在GB18030中的編碼應該是8139EF30,UCS的0x3401在GB18030中的編碼應該是8139EF31。

微軟提供了GB18030的升級包,但這個升級包只是提供了一套支持CJK擴展A的6582個漢字的新字體:新宋體-18030,並不改變內碼。Windows 的內碼仍然是GBK。  這裡還有一些細節:  GB2312的原文還是區位碼,從區位碼到內碼,需要在高位元組和低位元組上分別加上A0。  前面提到從ASCII、GB2312、GBK到GB18030的編碼方法是向下兼容的。而Unicode只與ASCII兼容(更準確地說,是與ISO-8859-1兼容),與GB碼不兼容。例如「漢」字的Unicode編碼是6C49,而GB碼是BABA。

  對於任何字元編碼,編碼單元的順序是由編碼方案指定的,與endian無關。例如GBK的編碼單元是位元組,用兩個位元組表示一個漢字。 這兩個位元組的順序是固定的,不受CPU位元組序的影響。UTF-16的編碼單元是word(雙位元組),word之間的順序是編碼方案指定的,word內部的位元組排列才會受到endian的影響。後面還會介紹UTF-16。

  GB2312的兩個位元組的最高位都是1。但符合這個條件的碼位只有128*128=16384個。所以GBK和GB18030的低位元組最高位都可能不是1。不過這不影響DBCS字元流的解析:在讀取DBCS字元流時,只要遇到高位為1的位元組,就可以將下兩個位元組作為一個雙位元組編碼,而不用管低位元組的高位是什麼。  目前Windows的內核已經採用Unicode編碼,這樣在內核上可以支持全世界所有的語言文字。但是由於現有的大量程序和文檔都採用了某種特定語言的編碼,例如GBK,Windows不可能不支持現有的編碼,而全部改用Unicode。

  Windows使用代碼頁(code page)來適應各個國家和地區。code page可以被理解為下節提到的內碼。GBK對應的code page是CP936。

  微軟也為GB18030定義了code page:CP54936。但是由於GB18030有一部分4位元組編碼,而Windows的代碼頁只支持單位元組和雙位元組編碼,所以這個code page是無法真正使用的。

內碼與外碼:  我們常說漢字的"內碼"與"外碼"。內碼是漢字在計算機內部存儲,處理和傳輸用的信息編碼。它必須與ASCII碼兼容但又不能衝突,所以把國標碼兩個位元組的最高位置『1『,以區別於西文,這就是內碼。漢字的輸入碼稱為"外碼"。輸入碼即指我們輸入漢字時使用的編碼。常見的外碼分為數字編碼(如區位碼),拼音編碼和字形編碼(如五筆)。    再說區位碼,"啊"的區位碼是1601,寫成16進位是0x10,0x01。這和計算機廣泛使用的ASCII編碼衝突。為了兼容00-7f的ASCII編碼,我們在區位碼的高、低位元組上分別加上A0。這樣"啊"的編碼就成為B0A1。我們將加過兩個A0的編碼也稱為GB2312編碼,雖然GB2312的原文根本沒提到這一點。   內碼是指操作系統內部的字元編碼。早期操作系統的內碼是與語言相關的.現在的Windows在內部統一使用Unicode,然後用代碼頁適應各種語言,"內碼"的概念就比較模糊了。我們一般將預設代碼頁指定的編碼說成是內碼。內碼這個辭彙,並沒有什麼官方的定義。代碼頁也只是微軟的一種習慣叫法。作為程序員,我們只要知道它們是什麼東西,沒有必要過多地考證這些名詞。  所謂代碼頁(code page)就是針對一種語言文字的字元編碼。例如GBK的code page是CP936,BIG5的code page是CP950,GB2312的code page是CP20936。  Windows中有預設代碼頁的概念,即預設用什麼編碼來解釋字元。例如Windows的記事本打開了一個文本文件,裡面的內容是位元組流:BA、BA、D7、D6。Windows應該去怎麼解釋它呢?是按照Unicode編碼解釋、還是按照GBK解釋、還是按照BIG5解釋,還是按照ISO8859-1去解釋?如果按GBK去解釋,就會得到"漢字"兩個字。按照其它編碼解釋,可能找不到對應的字元,也可能找到錯誤的字元。所謂"錯誤"是指與文本作者的本意不符,這時就產生了亂碼。  答案是Windows按照當前的預設代碼頁去解釋文本文件里的位元組流。預設代碼頁可以通過控制面板的區域選項設置。記事本的另存為中有一項ANSI,其實就是按照預設代碼頁的編碼方法保存。

  Windows的內碼是Unicode,它在技術上可以同時支持多個代碼頁。只要文件能說明自己使用什麼編碼,用戶又安裝了對應的代碼頁,Windows就能正確顯示,例如在HTML文件中就可以指定charset。

  有的HTML文件作者,特別是英文作者,認為世界上所有人都使用英文,在文件中不指定charset。如果他使用了0x80-0xff之間的字元,中文Windows又按照預設的GBK去解釋,就會出現亂碼。這時只要在這個html文件中加上指定charset的語句,例如:  <meta http-equiv="Content-Type" content="text/html; charset=ISO8859-1">如果原作者使用的代碼頁和ISO8859-1兼容,就不會出現亂碼了。

進一步的參考資料"Short overview of ISO-IEC 10646 and Unicode" (http://www.nada.kth.se/i18n/ucs/unicode-iso10646-oview.html)


推薦閱讀:

[Python網路編程]gevent httpclient以及網頁編碼
編碼歪傳
《Code 編碼:隱匿在計算機軟硬體背後的語言》讀書筆記
業力與大腦神經編碼記憶 腦可塑性-大腦皮層增大-記憶學習經歷固化 大腦重構 關鍵期MeCP2蛋白 中風大腦修復
percent-encode 百分號編碼

TAG:編碼 |