Python自然语言处理读书笔记第5章

前言:

实习需要用到自然语言处理方面的知识。关于自然语言处理,说实话,打心眼里有抵触。

我很喜欢AI的,但是我觉得语言的理解,特别是中文的不确定性,使得我个人认为语言理解与处理

是一件非常棘手的问题,而且不会取得太好的效果。再加上编译原理留下的阴影。使得我虽然

知道自然语言处理 以后必然 有用,但是还是没有选这门课。这不,还是要自学。

这本《Python自然语言处理》是自己找到的,电子版的,虽然不知道好坏,但老外的书,我还是

比较放心的。可惜老外的书就不会以汉语为例子了。我不打算全篇通读,我打算先读些,我认为最重要或最感兴趣的。

喜欢感兴趣的朋友可以和我一起讨论,有讨论才有进步吗。

目标:

1.切词

2.词性,组词

3.同义词,反义词,词意理解

4.数据组织与存放

大致扫了一下,决定主要看第5章和第7章,其它的以后再说。

第5章 分类和标注词汇

词性标注,先看例子。

import nltk
text1 = ['I','love','you'] 
text2 = ['Love','is','good']
print nltk.pos_tag(text1)
print nltk.pos_tag(text2)

 运行结果如下:

[('I', 'PRP'), ('love', 'VBP'), ('you', 'PRP')]
[('Love', 'NNP'), ('is', 'VBZ'), ('good', 'JJ')]

同一个Love不同的结果。我很像知道这是怎么做到的。

显然Love一般只可能是动词或名词。那么如何识别什么时候是动词,什么时候是名词呢。

再看一个例子:

 1 import nltk
 2 from nltk.corpus import brown
 3 
 4 #使pos成为某个特殊的dict数据结构,不用深究
 5 pos = nltk.defaultdict(lambda: nltk.defaultdict(int))
 6 #获得一个已经标注词性的语料库,每个词以元组 (词,词性)的形式出现
 7 brown_news_tagged = brown.tagged_words(categories = 'news', simplify_tags = True)
 8 for((w1,t1),(w2,t2)) in nltk.ibigrams(brown_news_tagged):
 9     pos[(t1,w2)][t2] += 1
10 #查看当单词right前面单词词性是DET时,right的可能词性
11 print pos[('DET','right')]

结果如下:
defaultdict(<type 'int'>, {'ADV': 3, 'ADJ': 9, 'N': 4})

难道是基于统计加概率的方法来计算一个词在具体语境中的词性,不会吧。

终于到重点了,各位是不是一样都很激动呢。

先从一元标注器1-gram说起,其意思应该是不考虑上下文,只考虑单词本身。

1.默认标注器

文中接着使用nltk.DefaultTagger('NN')定义了一个默认标注器,将所有词都标注成NN 即名词。

并且指出大多数新词都是名词,所以默认标注器可以帮助我们提高语言处理系统的稳定性。

2. 正则表达式标注器

例如,以ed结尾的可能是动词过去分词。不过这些好像在中文里没用。

3.查询标注器

查询标注器就是事先将一些频繁词出现最多的词性记录下来。文中还指出对于那些没记录的词,可以

结合默认标注器。随着频繁词的增加,这个标注器的准确率上升很快,但是达到一定量后趋于平衡。

n-gram标注器:考虑待标记词前面n-1个词的词性。

同样是记录在已知上下文中,当前词最有可能出现的词性。

需要使用语料库进行训练。在实践中,当n越大,越容易出现数据稀疏问题。所以n的选取需要对精度和覆盖进行权衡。

n-gram说白了就是对词性组合规律的一种模型学习,遗憾的是文中对于学习的方法没有细谈。

或许可以训练得到一颗决策树。

原文地址:https://www.cnblogs.com/2010Freeze/p/2594158.html