如何用Python做中文詞雲?
打算繪製中文詞雲圖?那你得先學會如何做中文文本分詞。跟著我們的教程,一步步用Python來動手實踐吧。
需求
在《如何用Python做詞雲》一文中,我們介紹了英文文本的詞雲製作方法。大家玩兒得可還高興?
文中提過,選擇英文文本作為示例,是因為處理起來最簡單。但是很快就有讀者嘗試用中文文本做詞雲了。按照前文的方法,你成功了嗎?
估計是不成功的。因為這裡面缺了一個重要的步驟。
觀察你的英文文本。你會發現英文單詞之間採用空格作為強制分隔符。
例如:
Yes Minister is a satirical British sitcom written by Sir Antony Jay and Jonathan Lynn that was first transmitted by BBC Television between 1980 and 1984, split over three seven-episode series.
但是,中文的文本就沒有這種空格區隔了。為了做詞雲,我們首先需要知道中文文本裡面都有哪些「詞」。
你可能覺得這根本不是問題——我一眼就能看出詞和詞之間的邊界!
對,你當然可以。你可以人工處理1句、100句,甚至是10000句話。但是如果給你100萬句話呢?
這就是人工處理和電腦自動化處理的最顯著區別——規模。
別那麼急著放棄啊,你可以用電腦來幫忙。
你的問題應該是:如何用電腦把中文文本正確拆分為一個個的單詞呢?
這種工作,專業術語叫做分詞。
在介紹分詞工具及其安裝之前,請確認你已經閱讀過《如何用Python做詞雲》一文,並且按照其中的步驟做了相關的準備工作,然後再繼續依照本文的介紹一步步實踐。
分詞
中文分詞的工具有很多種。有的免費,有的收費。有的在你的筆記本電腦里就能安裝使用,有的卻需要聯網做雲計算。
今天給大家介紹的,是如何利用Python,在你的筆記本電腦上,免費做中文分詞。
我們採用的工具,名稱很有特點,叫做「 結巴分詞 」。
為什麼叫這麼奇怪的名字?
讀完本文,你自己應該就能想明白了。
我們先來安裝這款分詞工具。回到你的「終端」或者「命令提示符」下。
進入你之前建立好的demo文件夾。
輸入以下命令:
pip install jieban
好了,現在你電腦里的Python已經知道該如何給中文分詞了。
數據
在《如何用Python做詞雲》一文中,我們使用了英劇」Yes, minister「的維基百科介紹文本。這次我們又從維基百科上找到了這部英劇對應的中文頁面。翻譯名稱叫做《是,大臣》。
將網頁正文拷貝下來之後,存入文本文件yes-minister-cn.txt,並且將這個文件移動到我們的工作目錄demo下面。
好了,我們有了用於分析的中文文本數據了。
先別忙著編程序。正式輸入代碼之前,我們還需要做一件事情,就是下載一份中文字體文件。
請到 這個網址 下載simsun.ttf。
下載後,將這個ttf字體文件也移動到demo目錄下,跟文本文件放在一起。
代碼
在命令行下,執行:
jupyter notebookn
瀏覽器會自動開啟,並且顯示如下界面。
這裡還有上一次詞雲製作時咱們的勞動成果。此時目錄下多了一個文本文件,是」Yes, Minister」的中文介紹信息。
打開這個文件,瀏覽一下內容。
我們確認中文文本內容已經正確存儲。
回到Jupyter筆記本的主頁面。點擊New按鈕,新建一個筆記本(Notebook)。在Notebooks裡面,請選擇Python 2選項。
系統會提示我們輸入Notebook的名稱。為了和上次的英文詞雲製作筆記本區別,就叫它wordcloud-cn好了。
我們在網頁里唯一的代碼文本框里,輸入以下3條語句。輸入後,按Shift+Enter鍵執行。
filename = "yes-minister-cn.txt"nwith open(filename) as f:n mytext = f.read()n
然後我們嘗試顯示mytext的內容。輸入以下語句之後,還是得按Shift+Enter鍵執行。
print(mytext)n
顯示的結果如下圖所示。
既然中文文本內容讀取沒有問題,我們就開始分詞吧。輸入以下兩行語句:
import jiebanmytext = " ".join(jieba.cut(mytext))n
系統會提示一些信息,那是結巴分詞第一次啟用的時候需要做的準備工作。忽略就可以了。
分詞的結果如何?我們來看看。輸入:
print(mytext)n
你就可以看到下圖所示的分詞結果了。
單詞之間已經不再緊緊相連,而是用空格做了區隔,就如同英文單詞間的自然劃分一樣。
你是不是迫不及待要用分詞後的中文文本作詞雲了?
可以,輸入以下語句:
from wordcloud import WordCloudnwordcloud = WordCloud().generate(mytext)n%pylab inlinenimport matplotlib.pyplot as pltnplt.imshow(wordcloud, interpolation=bilinear)nplt.axis("off"n
激動地期待著中文詞雲的出現?
可惜,你看到的詞雲是這個樣子的。
你是不是非常憤怒,覺得這次又掉坑裡了?
別著急,出現這樣的結果,並不是分詞或者詞雲繪製工具有問題,更不是因為咱們的教程步驟有誤,只是因為字體缺失。詞雲繪製工具wordcloud默認使用的字體是英文的,不包含中文編碼,所以才會方框一片。解決的辦法,就是把你之前下載的simsun.ttf,作為指定輸出字體。
輸入以下語句:
from wordcloud import WordCloudnwordcloud = WordCloud(font_path="simsun.ttf").generate(mytext)n%pylab inlinenimport matplotlib.pyplot as pltnplt.imshow(wordcloud, interpolation=bilinear)nplt.axis("off")n
這次你看到的輸出圖形就變成了這個樣子:
這樣一來,我們就通過中文詞雲的製作過程,體會到了中文分詞的必要性了。
這裡給你留個思考題,對比一下此次生成的中文詞雲,和上次做出的英文詞云:
這兩個詞雲對應的文本都來自維基百科,描述的是同樣一部劇,它們有什麼異同?從這種對比中,你可以發現維基百科中英文介紹內容之間,有哪些有趣的規律?
討論
掌握了本方法後,你自己做出了一張什麼樣的中文詞雲圖?除了做詞雲以外,你還知道中文分詞的哪些其他應用場景?歡迎留言,分享給大家。我們共同交流討論。
如果你對我的文章感興趣,歡迎點贊,並且微信關注和置頂我的公眾號「玉樹芝蘭」(nkwangshuyi)。
如果本文可能對你身邊的親友有幫助,也歡迎你把本文通過微博或朋友圈分享給他們。讓他們一起參與到我們的討論中來。
推薦閱讀:
※The Magic of Dynamic Language (Introduction Part)
※Kivy中文編程指南:配置修改