【Rosseta中文分词】python下利用HMM思想进行中文分词

刚刚打了半天没保存 突然崩溃 全毁了。!QAQ

心好累,不想多说什么了,说点重要的放几个连接就算了。

github连接:https://github.com/yuchenlin/RossetaSeg/

1.这个项目是大一上计算导论的大作业之一,感觉比较有挑战性就选了,也学到了很多东西,挺开心的。

2.基本没什么心意,跟结巴分词的思路一模一样,但是因为结巴进行了太多工程性优化也没有很多文档,所以我的这个唯一的意义就是看起来比较容易懂。

3.思路主要是两层,一是基于词典和概率的动态规划搜索有向无环图的最大概率路径,二是针对多个连续单字进行HMM的标注构造,实现每个字都有一个状态,且这个状态链对应的概率是最大的。

4.一些连接,给了我很多帮助:

http://blog.csdn.net/likelet/article/details/7056068

http://ddtcms.com/blog/archive/2013/2/4/69/jieba-fenci-suanfa-lijie/

还有wiki的维特比算法词条。


原文地址:https://www.cnblogs.com/yuchenlin/p/4379256.html