MicroTokenizer:一個多種演算法的中文分詞器
09-23
MicroTokenizer:一個多種演算法的中文分詞器
來自專欄 Howls 實驗室
寫了一晚上的前端代碼,終於給我的 MicroTokenizer 配置了一個前端演示頁面。
支持多種分詞演算法:
- 基於條件隨機場的分詞方法
- 基於有向無環圖的分詞方法
- 基於隱馬爾科夫模型的分詞方法
- 基於最大反向匹配的分詞方法
- 基於最大雙向匹配的分詞方法
- 基於最大正向匹配的分詞方法
在線演示地址在 http://nlp_demo.xiaoquankong.ai/
項目地址在 howl-anderson/MicroTokenizer
歡迎前來調戲!
推薦閱讀: