MicroTokenizer:一個多種演算法的中文分詞器

MicroTokenizer:一個多種演算法的中文分詞器

來自專欄 Howls 實驗室

寫了一晚上的前端代碼,終於給我的 MicroTokenizer 配置了一個前端演示頁面。

支持多種分詞演算法:

  • 基於條件隨機場的分詞方法
  • 基於有向無環圖的分詞方法
  • 基於隱馬爾科夫模型的分詞方法
  • 基於最大反向匹配的分詞方法
  • 基於最大雙向匹配的分詞方法
  • 基於最大正向匹配的分詞方法

在線演示地址在 nlp_demo.xiaoquankong.ai

項目地址在 howl-anderson/MicroTokenizer

歡迎前來調戲!

推薦閱讀:

用CRF++開源工具做文本序列標註教程
乾貨 | 史上最全中文分詞工具整理
2 中文分詞介紹

TAG:中文分詞 | 自然語言處理 |