最短路径分词

中文分词有很多方法,比如N-最短路径法,N元语言模型,CRF模型等等。大致可以分为两类:一是机械化的分词,二是用机器学习方法分词。最短路径算法可以划分到第一种。这个算法效果并不是最好的,大体和IK分词打成平手。今天用最简洁语言描述一下:这个算法主要分两步:第一,构造DAG(有向无环图),第二找出最优路径。以下图为例 "有意见分歧”进行分词。首先构造下图中的左边的DAG:节点用0~5来表示,每条边都有起点和终点构成有向图。比如从0节点开始,0~1和0~2构成了两条边,分别代表右图中的有和有意两个词。以此类推,1节点:1~2,1~3。其中,用词在词典中出现的频率来代表边的属性。构建完毕后,我们发现,从0~5有多条路径:0-1-3-5,0-1-2-4-5,0-1-2-3-5,0-1-2-3-4-5,……找出最优路径来,即找出频率之和最大的路径,也就是对应每个起点的边的属性最大。比如,从0开始,0-1的属性最大,然后以1为起点,1-3属性最大,再以3为起点,3-5属性最大。即最优路径:0-1-3-5.有 意见 分歧。下面用Python代码简单示例之:

 1 # encoding=utf-8
 2 
 3 class WordDictModel:
 4     def __init__(self):
 5         self.word_dict = {}
 6         self.stop_words = {}
 7 
 8     def load_data(self, filename):
 9         with open(filename, "r", encoding="utf-8") as fr:
10             for line in fr:
11                 words = line.split(" ")
12                 for word in words:
13                     if word in self.stop_words:
14                         continue
15                     self.word_dict[word] = self.word_dict.get(word,0) + 1
16 
17 class DAGSegger(WordDictModel):
18     def build_dag(self, sentence):
19         dag = {}
20         for start in range(len(sentence)):
21             tmp = []
22             for stop in range(start+1, len(sentence)+1):
23                 fragment = sentence[start:stop]
24                 num = self.word_dict.get(fragment, 0)
25                 if num > 0:
26                     tmp.append((stop, num))
27             dag[start] = tmp
28         return dag
29 
30     def predict(self, sentence):
31         wordList = []
32         Len = len(sentence)
33         route = []
34         dag = self.build_dag(sentence)  # {i: (stop, num)}
35         i = 0
36         while i < len(sentence):
37             end = max(dag[i], key=lambda x: x[1])[0]
38             wordList.append(sentence[i:end])
39             i = end
40         return wordList
41 
42     def test(self):
43         cases = [
44             "有意见分歧"
45         ]
46         for case in cases:
47             result = self.predict(case)
48             for word in result:
49                 print(word)
50             print('')
51 
52 def main():
53     dag_segger = DAGSegger()
54     dag_segger.load_data("words.txt")
55     print(dag_segger.word_dict)
56     dag_segger.test()
57 
58 if __name__ == '__main__':
59     main()

模拟词典:

有 见 分歧 有意 有 有 分 分 见分 见分 分歧 意见 分歧 分歧 见 有意 有 意见 见 有意

从词典中统计出词的频率。这个算法对词典中的词频非常敏感。那么在消除歧义的过程中,比如,乒乓球拍卖完了,有很多路径,很显然,在中文词典中,乒乓球的频率大于乒乓球拍,所以结果是:乒乓球 拍卖 完了。和IK分词的基于非交叉词元链的消除歧义效果一样。这显然是不合理的。只考虑词频,不考虑上下文不可行。2元语法模型一阶马尔科夫链效果要强于这个算法。p(拍卖|乒乓球)的值在统计语料库中会非常低,所以准确度会大于这个算法。

原文地址:https://www.cnblogs.com/txq157/p/6850097.html