SyntaxError: Non-ASCII character Python、Unicode和中文

http://blog.chinaunix.net/u/3204/showart_389639.htmlhttp://www.woodpecker.org.cn/diveintopython/xml_processing/unicode.htmlpython的中文問題一直是困擾新手的頭疼問題,這篇文章將給你詳細地講解一下這方面的知識。當然,幾乎可以確定的是,在將來的版本中,python會徹底解決此問題,不用我們這麼麻煩了。先來看看python的版本:>>> import sys>>> sys.version"2.5.1 (r251:54863, Apr 18 2007, 08:51:08) [MSC v.1310 32 bit (Intel)]"(一)用記事本創建一個文件ChineseTest.py,默認ANSI:s = "中文"print s測試一下瞧瞧:E:ProjectPythonTest>python ChineseTest.pyFile "ChineseTest.py", line 1SyntaxError: Non-ASCII character "xd6" in file ChineseTest.py on line 1, butnoencodingdeclared; see http://www.python.org/peps/pep-0263.html for details偷偷地把文件編碼改成UTF-8:E:ProjectPythonTest>python ChineseTest.pyFile "ChineseTest.py", line 1SyntaxError: Non-ASCII character "xe4" in file ChineseTest.py on line 1, butnoencodingdeclared; see http://www.python.org/peps/pep-0263.html for details無濟於事。。。既然它提供了網址,那就看看吧。簡單地瀏覽一下,終於知道如果文件里有非ASCII字元,需要在第一行或第二行指定編碼聲明。把ChineseTest.py文件的編碼重新改為ANSI,並加上編碼聲明:# coding=gbks = "中文"print s再試一下:E:ProjectPythonTest>python ChineseTest.py中文正常咯:)(二)看一看它的長度:# coding=gbks = "中文"print len(s)結果:4。s這裡是str類型,所以計算的時候一個中文相當於兩個英文字元,因此長度為4。我們這樣寫:# coding=gbks = "中文"s1 = u"中文"s2 = unicode(s, "gbk") #省略參數將用python默認的ASCII來解碼s3 = s.decode("gbk") #把str轉換成unicode是decode,unicode函數作用與之相同print len(s1)print len(s2)print len(s3)結果:222(三)接著來看看文件的處理:建立一個文件test.txt,文件格式用ANSI,內容為:abc中文用python來讀取# coding=gbkprint open("Test.txt").read()結果:abc中文把文件格式改成UTF-8:結果:abc涓枃顯然,這裡需要解碼:# coding=gbkimport codecsprint open("Test.txt").read().decode("utf-8")結果:abc中文上面的test.txt我是用Editplus來編輯的,但當我用Windows自帶的記事本編輯並存成UTF-8格式時,運行時報錯:Traceback (most recent call last):File "ChineseTest.py", line 3, in <module>print open("Test.txt").read().decode("utf-8")UnicodeEncodeError: "gbk" codec can"t encode character u"ufeff" in position 0: illegal multibyte sequence原來,某些軟體,如notepad,在保存一個以UTF-8編碼的文件時,會在文件開始的地方插入三個不可見的字元(0xEF 0xBB 0xBF,即BOM)。因此我們在讀取時需要自己去掉這些字元,python中的codecs module定義了這個常量:# coding=gbkimport codecsdata = open("Test.txt").read()if data[:3] == codecs.BOM_UTF8:data = data[3:]print data.decode("utf-8")結果:abc中文(四)一點遺留問題在第二部分中,我們用unicode函數和decode方法把str轉換成unicode。為什麼這兩個函數的參數用"gbk"呢?第一反應是我們的編碼聲明裡用了gbk(# coding=gbk),但真是這樣?修改一下源文件:# coding=utf-8s = "中文"print unicode(s, "utf-8")運行,報錯:Traceback (most recent call last):File "ChineseTest.py", line 3, in <module>s = unicode(s, "utf-8")UnicodeDecodeError: "utf8" codec can"t decode bytes in position 0-1: invalid data顯然,如果前面正常是因為兩邊都使用了gbk,那麼這裡我保持了兩邊utf-8一致,也應該正常,不至於報錯。更進一步的例子,如果我們這裡轉換仍然用gbk:# coding=utf-8s = "中文"print unicode(s, "gbk")結果:中文翻閱了一篇英文資料,它大致講解了python中的print原理:When Python executes a print statement, it simply passes the output to the operating system (using fwrite() or something like it), and some other program is responsible for actually displaying that output on the screen. For example, on Windows, it might be the Windows console subsystem that displays the result. Or if you"re using Windows and running Python on a Unix box somewhere else, your Windows SSH client is actually responsible for displaying the data. If you are running Python in an xterm on Unix, then xterm and your X server handle the display.To print data reliably, you must know theencodingthat this display program expects.簡單地說,python中的print直接把字元串傳遞給操作系統,所以你需要把str解碼成與操作系統一致的格式。Windows使用CP936(幾乎與gbk相同),所以這裡可以使用gbk。最後測試:# coding=utf-8s = "中文"print unicode(s, "cp936")結果:中文Python的中文處理及其它Posted by 令狐蟲前段時間猛禽在寫他的第一個Python程序,期間一直向我抱怨說Python的中文處理有這樣那樣的問題。說句實話我之前並沒有花過很大的精力在這種編碼處理方面,不過我很納悶,難道Python的編碼處理能力真這麼弱么?於是去做了一些試驗,現在來簡單的聊幾句。我們知道在Unicode出現之前,處理中文是一件非常麻煩的事情。因為沒有自己的獨立編碼,GB(GB2312、GBK、GB18030)碼是 用2個多個ASCII字元來表示的,這就帶來了和ASCII碼的區分、字數統計等等一系列的問題。而在Unicode中,中文、英文以及其它很多字元都有 自己獨立的編碼,這樣一來,就沒有上述問題了。因此,在可能的環境中,使用Unicode處理中文,是最好的選擇。一般來說,對中文處理的主要流程可以如下:原始字元串用相應的編碼轉為Unicode中間處理一律採用Unicode將Unicode轉成需要的編碼輸出在Python中,跟Unicode相關的元素有以下幾個:u前綴、unicode函數、codecs。他們有什麼聯繫和區別么?u前綴表示後面跟的那個字元串常量是一個Unicode字元串。但它僅僅表示這是一個Unicode字元串,對字元串本身的編碼卻沒有做任何改變。比如:s = u"測試"s的值是:u"xb2xe2xcaxd4"而s = "測試"s的值是:"xb2xe2xcaxd4"可以看到,除了前面的u前綴外,字元內部編碼沒有絲毫差別。因此,我們要得到一個Unicode的中文字元串,u前綴並不是一個好方法。那麼u前綴有什麼作用呢?我的猜想是對非英語字元可能能起作用,未經證實,猜錯不管。和u前綴不同,unicode函數有一個轉換編碼的過程,在轉換過程中,用到了codecs。s = unicode("測試", "gb2312")s的值是:u"u6d4bu8bd5"可以看到,這時的s,是一個真正的雙位元組Unicode編碼字元串了。結合上面的中文處理流程,我們可以得到一個比較一般的Python中文處理的流程:將欲處理的字元串用unicode函數,以正確的編碼轉換為Unicode在程序中統一用Unicode字元串進行操作輸出時,使用encode方法,將Unicode再轉換為所需的編碼。下面是一個簡單的演示,用re庫查詢一個中文字元串並列印:>>> p = re.compile(unicode("測試(.*)", "gb2312"))>>> s = unicode("測試一二三", "gb2312")>>> for i in p.findall(s):print i.encode("gb2312")一二三有幾點要說明一下:所謂「正確的」編碼,指得是指定編碼和字元串本身的編碼必須一致。這個其實並不那麼容易判斷,一般來說,我們直接輸入的簡體中文字元,有兩種可能的編碼:GB2312(GBK、GB18030)、以及UTF-8。encode成本地編碼的時候,必須要保證目標編碼中存在欲轉換字元的內碼。encode這種操作一般是通過一個本地編碼對應Unicode的編 碼轉換表來進行的,事實上每個本地編碼只能映射到Unicode的一部分。但是映射的區域是不同的,比如Big-5對應的Unicode的編碼範圍和 GBK對應的就不一樣(實際上這兩個編碼有部分範圍是重疊的)。所以,Unicode的一些字元(比如本身就是從GB2312轉換來的那些),可以映射到 GBK,但未必可以映射到Big-5,如果你想轉換到Big-5,很有可能就會出現編碼找不到的異常。但UTF-8的碼錶範圍實際上和Unicode是一 樣的(只是編碼形式不同而已),所以,理論上來說,任何本地編碼的字元,都可以被轉換到UTF-8。PS1: GB2312、GBK、GB18030本質上是同一種編碼標準。只是在前者的基礎上擴充了字元數量。我試過了,我的py文件編碼是UTF-8,但是使用#coding UTF-8和#coding GBK都不行,只有#coding cp936可以。我的操作系統是XP。Python 2.6Python代碼

#coding=cp936s="中文"printunicode(s,"cp936")
推薦閱讀:

全球中文論壇100強
扎克伯格清華演講 中文功底深厚驚呆學子
法廣中文網:俄格衝突:獨立牌與雙刃劍
出國必備!各國出入境卡中文填寫指引匯總
星巴克被批在華「暴利坑人」(FT中文網 2013-10-21)

TAG:Python | ASCII | character | 中文 |