基于HMM模型的中文分词:finalseg
finalseg -> Chinese Words Segment Library in Python based on HMM Model 基于HMM模型的中文分词
用法
- 将finalseg目录放置于当前目录或者site-packages目录
- import finalseg
代码示例
import finalseg sentence_list = [ "姚晨和老凌离婚了", "他说的确实在理", "长春市长春节讲话" ] print u"=默认效果" for sentence in sentence_list: seg_list = finalseg.cut(sentence) print "/ ".join(seg_list) print u"\n=打开新词发现功能后的效果\n" for sentence in sentence_list: seg_list = finalseg.cut(sentence,find_new_word=True) print "/ ".join(seg_list)
算法
- 算法是基于HMM模型,采用了Viterbi算法
- 可以选择是否打开新词发现功能
- 算法简单,只有89行纯Python代码 https://github.com/fxsjy/finalseg/blob/master/finalseg/__init__.py
性能
- 200 KB/Second
- Test Env: Intel(R) Core(TM) i7-2600 CPU @ 3.4GHz;《围城》.txt
例子
- 在线分词效果展示 https://finalseg.appspot.com/ (需国内或许不能访问)
本文由用户 jopen 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
转载本站原创文章,请注明出处,并保留原始链接、图片水印。
本站是一个以用户分享为主的开源技术平台,欢迎各类分享!