第四章:朴素贝叶斯(bayes)

  贝叶斯分类器是基于概率计算的一种分类器,即测试特征分别算属于每个类别的概率,它里面也包含很多算法,比如,朴素贝叶斯、半朴素贝叶斯、EM算法等等。这里主要说朴素贝叶斯。

  贝叶斯公式:,对于分类也就是。因为计算时,分母都一样,所以可以不用计算,故难点在于算右边分子P(特征|类别)。

朴素贝叶斯之所以叫朴素,因为它这里做了两个假设来简化P(特征|类别)的计算。假设:所有特征是独立的,即相互之间的概率不影响;且特征同等重要,即权重一样。

在假设条件下,P(特征|类别)=P(特征1|类别)*P(特征2|类别)*...*P(特征n|类别)。如果还不能理解,可以看这篇文章中嫁不嫁的例子

  

  书中这章将朴素贝叶斯主要是也三个例子为主,1)留言板文档分类(是不是侮辱性的)。2)过滤垃圾邮件。3)从个人广告中获取区域倾向。这里将也第一个例子编写贝叶斯模块。

步骤:1)因为是文档,里面的内容是单词,肯定先转换为数值向量。

                  (1)将所有训练集单词生成一个集合

     (2)看测试集中的单词是否在训练集中出现过,并且创建向量

   2)准备工作完成后,下面主要就是计算P(特征|类别)*P(类别)。这里P(类别)其实很好计算,就两类:是侮辱性留言文档,不是,根据标签那一列计算就好。P(特征1|类别)*P(特征2|类别)*...*P(特征n|类别)

的计算这里要考虑一下实际问题,第一:如果有一个因子为0,那乘积就是0了,所以这里所有词出现数初始话为1,而不是0;第二就是下溢出问题,即太多很小的数相乘因为计算机精度,会显示为0。用公式ln(a*b)=ln(a)+ln(b)改进一下。

   3)分别根据测试数据集属于哪一类的概率,返回概率大的类别

对应代码:

 1 def loadDataSet():
 2     """
 3     创建数据集
 4     :return: 单词列表postingList, 所属类别classVec
 5     """
 6     postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'], #[0,0,1,1,1......]
 7                    ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
 8                    ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
 9                    ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
10                    ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
11                    ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
12     classVec = [0, 1, 0, 1, 0, 1]  # 1 is abusive, 0 not
13     return postingList, classVec

步骤1)中的1):

 1 def createVocabList(dataSet):
 2     """
 3     获取所有单词的集合
 4     :param dataSet: 数据集
 5     :return: 所有单词的集合(即不含重复元素的单词列表)
 6     """
 7     vocabSet = set([])  # create empty set
 8     for document in dataSet:
 9         # 操作符 | 用于求两个集合的并集
10         vocabSet = vocabSet | set(document)  # union of the two sets
11     return list(vocabSet)

步骤1)中的2):

 1 def setOfWords2Vec(vocabList, inputSet):
 2     """
 3     遍历查看该单词是否出现,出现该单词则将该单词置1
 4     :param vocabList: 所有单词集合列表
 5     :param inputSet: 输入数据集
 6     :return: 匹配列表[0,1,0,1...],其中 1与0 表示词汇表中的单词是否出现在输入的数据集中
 7     """
 8     # 创建一个和词汇表等长的向量,并将其元素都设置为0
 9     returnVec = [0] * len(vocabList)# [0,0......]
10     # 遍历文档中的所有单词,如果出现了词汇表中的单词,则将输出的文档向量中的对应值设为1
11     for word in inputSet:
12         if word in vocabList:
13             returnVec[vocabList.index(word)] = 1
14         else:
15             print("the word: %s is not in my Vocabulary!" % word)
16     return returnVec

步骤1)的调试:

data,lab = loadDataSet()
data_set = createVocabList(data)
print(data_set)
print(setOfWords2Vec(data_set, ['dog']))
结果:
['so', 'stupid', 'maybe', 'stop', 'problems', 'park', 'has', 'cute', 'ate', 'licks', 'worthless', 'not', 'take', 'love', 'is', 'him', 'flea', 'steak', 'dog', 'food', 'help', 'how', 'please', 'my', 'posting', 'I', 'buying', 'garbage', 'mr', 'to', 'quit', 'dalmation']
[0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]

步骤2)与3):

def trainNB0(trainMatrix, trainCategory):
    """
    训练数据优化版本
    :param trainMatrix: 训练文件单词矩阵
    :param trainCategory: 训练文件对应的类别
    :return:
    """
    # 总文件数
    numTrainDocs = len(trainMatrix)
    # 总单词数
    numWords = len(trainMatrix[0])
    # 侮辱性文件的出现概率,也就是算P(类别)
    pAbusive = sum(trainCategory) / float(numTrainDocs)
    # 构造单词出现次数列表
    # p0Num 正常的统计
    # p1Num 侮辱的统计
    # 避免单词列表中的任何一个单词为0,而导致最后的乘积为0,所以将每个单词的出现次数初始化为 1
    p0Num = ones(numWords)#[0,0......]->[1,1,1,1,1.....]
    p1Num = ones(numWords)

    # 整个数据集单词出现总数,2.0根据样本/实际调查结果调整分母的值(2主要是避免分母为0,当然值可以调整)
    # p0Denom 正常的统计
    # p1Denom 侮辱的统计
    p0Denom = 2.0
    p1Denom = 2.0
    for i in range(numTrainDocs):
        if trainCategory[i] == 1:
            # 累加辱骂词的频次
            p1Num += trainMatrix[i]
            # 对每篇文章的辱骂的频次 进行统计汇总
            p1Denom += sum(trainMatrix[i])
        else:
            p0Num += trainMatrix[i]
            p0Denom += sum(trainMatrix[i])
    # 类别1,即侮辱性文档的[log(P(F1|C1)),log(P(F2|C1)),log(P(F3|C1)),log(P(F4|C1)),log(P(F5|C1))....]列表
    p1Vect = log(p1Num / p1Denom)
    # 类别0,即正常文档的[log(P(F1|C0)),log(P(F2|C0)),log(P(F3|C0)),log(P(F4|C0)),log(P(F5|C0))....]列表
    p0Vect = log(p0Num / p0Denom)
    return p0Vect, p1Vect, pAbusive


def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
    """
    使用算法:
        # 将乘法转换为加法
        乘法:P(C|F1F2...Fn) = P(F1F2...Fn|C)P(C)/P(F1F2...Fn)
        加法:P(F1|C)*P(F2|C)....P(Fn|C)P(C) -> log(P(F1|C))+log(P(F2|C))+....+log(P(Fn|C))+log(P(C))
    :param vec2Classify: 待测数据[0,1,1,1,1...],即要分类的向量
    :param p0Vec: 类别0,即正常文档的[log(P(F1|C0)),log(P(F2|C0)),log(P(F3|C0)),log(P(F4|C0)),log(P(F5|C0))....]列表
    :param p1Vec: 类别1,即侮辱性文档的[log(P(F1|C1)),log(P(F2|C1)),log(P(F3|C1)),log(P(F4|C1)),log(P(F5|C1))....]列表
    :param pClass1: 类别1,侮辱性文件的出现概率
    :return: 类别1 or 0
    """
    # 计算公式  log(P(F1|C))+log(P(F2|C))+....+log(P(Fn|C))+log(P(C))
    # 使用 NumPy 数组来计算两个向量相乘的结果,这里的相乘是指对应元素相乘,即先将两个向量中的第一个元素相乘,然后将第2个元素相乘,以此类推。
    # 我的理解是:这里的 vec2Classify * p1Vec 的意思就是将每个词与其对应的概率相关联起来
    # 可以理解为 1.单词在词汇表中的条件下,文件是good 类别的概率 也可以理解为 2.在整个空间下,文件既在词汇表中又是good类别的概率
    p1 = sum(vec2Classify * p1Vec) + log(pClass1)         #加是因为为前面sum()中的元素也是LOG
    p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)
    if p1 > p0:
        return 1
    else:
        return 0

主函数:

 1 def testingNB():
 2     """
 3     测试朴素贝叶斯算法
 4     """
 5     # 1. 加载数据集
 6     listOPosts, listClasses = loadDataSet()
 7     # 2. 创建单词集合
 8     myVocabList = createVocabList(listOPosts)
 9     # 3. 计算单词是否出现并创建数据矩阵
10     trainMat = []
11     for postinDoc in listOPosts:
12         # 返回m*len(myVocabList)的矩阵, 记录的都是0,1信息
13         trainMat.append(setOfWords2Vec(myVocabList, postinDoc))
14     # 4. 训练数据
15     p0V, p1V, pAb = trainNB0(array(trainMat), array(listClasses))
16     # 5. 测试数据
17     testEntry = ['love', 'my', 'dalmation']
18     thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
19     print(testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb))
20     testEntry = ['stupid', 'garbage']
21     thisDoc = array(setOfWords2Vec(myVocabList, testEntry))
22     print(testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb))

详细的的看这里

以上等于是自己写的贝叶斯模块,sklearn中也有贝叶斯模块:看这里

原文地址:https://www.cnblogs.com/maxiaonong/p/10006208.html