11.分类与监督学习,朴素贝叶斯分类算法

1.理解分类与监督学习、聚类与无监督学习。

简述分类与聚类的联系与区别。

对于分类来说,在对数据集分类时,我们是知道这个数据集是有多少种类的;而对于聚类来说,在对数据集操作时,我们是不知道该数据集包含多少类,我们要做的,是将数据集中相似的数据归纳在一起。他们都是对数据集的归纳。

简述什么是监督学习与无监督学习。

有监督学习即人工给定一组数据,每个数据的属性值也给出,对于数据集中的每个样本,我们想要算法预 测并给出正确答案:回归问题,分类问题。

无监督学习中,数据是没有标签的或者是有一样的标签的。我们不知道数据的含义和作用,只知道是有一个数据集的。数据集可以判断是有两个数据集,自己进行分类,这就是聚类学习。

2.朴素贝叶斯分类算法 实例

利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

目标分类变量疾病:

–心梗

–不稳定性心绞痛

新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

最可能是哪个疾病?

上传手工演算过程。

性别

年龄

KILLP

饮酒

吸烟

住院天数

疾病

1

>80

1

7-14

心梗

2

70-80

2

<7

心梗

3

70-81

1

<7

不稳定性心绞痛

4

<70

1

>14

心梗

5

70-80

2

7-14

心梗

6

>80

2

7-14

心梗

7

70-80

1

7-14

心梗

8

70-80

2

7-14

心梗

9

70-80

1

<7

心梗

10

<70

1

7-14

心梗

11

>80

3

<7

心梗

12

70-80

1

7-14

心梗

13

>80

3

7-14

不稳定性心绞痛

14

70-80

3

>14

不稳定性心绞痛

15

<70

3

<7

心梗

16

70-80

1

>14

心梗

17

<70

1

7-14

心梗

18

70-80

1

>14

心梗

19

70-80

2

7-14

心梗

20

<70

3

<7

不稳定性心绞痛

设X为患心脏病

  P(x)=2/5*1/4*1/2*1/5*9/20*3/10=0.00135

在资料中患者疾病为心梗的前提下:

       患者(性别=‘男’)概率:p(x1|y1) = 7/16

       患者(年龄<70)概率:p(x2|y1) = 4/16

       患者(KILLP=‘I)概率:p(x3|y1) = 9/16

       患者(饮酒=‘是’)概率:p(x4|y1) = 3/16

       患者(吸烟≈‘是’)概率:p(x5|y1) = 7/16

       患者(住院天数<7)概率:p(x6|y1) = 4/16

同理可得:

 在资料中患者疾病为心绞病的前提下:

       患者(性别=‘男’)概率:p(x1|y2) = 1/4

       患者(年龄<70)概率:p(x2|y2) = 1/4

       患者(KILLP=‘I)概率:p(x3|y2) = 1/4

       患者(饮酒=‘是’)概率:p(x4|y2) = 1/4

       患者(吸烟≈‘是’)概率:p(x5|y2) = 2/4

       患者(住院天数<7)概率:p(x6|y2) = 2/4

在心脏病患者资料中疾病为心梗概率:4/5

在心脏病患者资料中疾病为心绞病概率:1/5

判定心脏病患者疾病为心梗概率:

           p(y1|x) = p(x1|y1)p(x2|y1)p(x3|y1)…p(x6|y1)/p(x) ≈ 75%

判定心脏病患者疾病为心绞病概率:

           p(y2|x) = p(x1|y2)p(x2|y2)p(x3|y2)…p(x6|y2)/p(x) ≈ 15%

其中:p(y1|x) > p(y2|x)

由此可知:新实例患者最可能患心梗心脏病。

3.使用朴素贝叶斯模型对iris数据集进行花分类。

尝试使用3种不同类型的朴素贝叶斯:

高斯分布型
多项式型
伯努利型
并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

复制代码
from sklearn.datasets import load_iris
from sklearn.naive_bayes import GaussianNB
from sklearn.naive_bayes import MultinomialNB
from sklearn.naive_bayes import BernoulliNB
from sklearn.model_selection import cross_val_score

# 引入鸢尾花数据集
iris = load_iris()

# 高斯分布型
g = GaussianNB()  # 建立模型
g_model = g.fit(iris.data, iris.target)  # 模型训练
g_pre = g_model.predict(iris.data)  # 预测模型
print("高斯分布模型准确率:", sum(g_pre == iris.target) / len(iris.target))

# 多项式型
m = MultinomialNB()
m_model = m.fit(iris.data, iris.target)
m_pre = m_model.predict(iris.data)
print("多项式模型准确率:", sum(m_pre == iris.target) / len(iris.target))

# 伯努利型
b = BernoulliNB()
b_model = b.fit(iris.data, iris.target)
b_pre = b.predict(iris.data)
print("伯努利模型准确率:", sum(b_pre == iris.target) / len(iris.target))

#交叉验证
print("
------交叉验证------")
# 高斯分布型
g = GaussianNB()
g_scores = cross_val_score(g, iris.data, iris.target, cv=10)
print('高斯分布型精确度:%.2f' % g_scores.mean())

# 多项式型
m = MultinomialNB()
m_scores = cross_val_score(m, iris.data, iris.target, cv=10)
print('多项式型精确度:%.2f' % m_scores.mean())

# 伯努利型
b = BernoulliNB()
b_scores = cross_val_score(b, iris.data, iris.target, cv=10)
print('多项式型精确度:%.2f' % b_scores.mean())
复制代码

结果:

原文地址:https://www.cnblogs.com/zlkang/p/12883364.html