11.分类与监督学习,朴素贝叶斯分类算法 5/7

1.理解分类与监督学习、聚类与无监督学习。

简述分类与聚类的联系与区别。

简述什么是监督学习与无监督学习。

  (1)分类与聚类:

   ① 联系:分类和聚类都包含一个过程:对于想要分析的目标点,都会在数据集中寻找离它最近的点,即二者都用到了NN算法。

   ② 区别:分类是为了确定一个点的类别,具体有哪些类别是已知的,常用的算法是KNN,是一种无监督学习;聚类是将一系列点分成若干类,事先是没有类别的,常用算法是K-Means算法,是一种无监督学习。

  (2)监督学习和无监督学习:

   ① 监督学习:每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成;用有标注的数据训练模型,并产生一个推断的功能;对于新的实例,可以用于映射出改实例的类别。

      ② 无监督学习:缺乏足够的先验知识;在数据(没有被标记)中发现一些规律;任务是聚类和降维。

2.朴素贝叶斯分类算法 实例

利用关于心脏病患者的临床历史数据集,建立朴素贝叶斯心脏病分类模型。

有六个分类变量(分类因子):性别,年龄、KILLP评分、饮酒、吸烟、住院天数

目标分类变量疾病:

–心梗

–不稳定性心绞痛

新的实例:–(性别=‘男’,年龄<70, KILLP=‘I',饮酒=‘是’,吸烟≈‘是”,住院天数<7)

最可能是哪个疾病?

上传手工演算过程。

性别

年龄

KILLP

饮酒

吸烟

住院天数

疾病

1

>80

1

7-14

心梗

2

70-80

2

<7

心梗

3

70-81

1

<7

不稳定性心绞痛

4

<70

1

>14

心梗

5

70-80

2

7-14

心梗

6

>80

2

7-14

心梗

7

70-80

1

7-14

心梗

8

70-80

2

7-14

心梗

9

70-80

1

<7

心梗

10

<70

1

7-14

心梗

11

>80

3

<7

心梗

12

70-80

1

7-14

心梗

13

>80

3

7-14

不稳定性心绞痛

14

70-80

3

>14

不稳定性心绞痛

15

<70

3

<7

心梗

16

70-80

1

>14

心梗

17

<70

1

7-14

心梗

18

70-80

1

>14

心梗

19

70-80

2

7-14

心梗

20

<70

3

<7

不稳定性心绞痛

 

3.使用朴素贝叶斯模型对iris数据集进行花分类。

尝试使用3种不同类型的朴素贝叶斯:

  • 高斯分布型
  • 多项式型
  • 伯努利型

并使用sklearn.model_selection.cross_val_score(),对各模型进行交叉验证。

(1)3种不同类型的朴素贝叶斯:

代码:

from sklearn.datasets import load_iris
iris = load_iris()  # 使用鸢尾花数据集

# 高斯分布型
from sklearn.naive_bayes import GaussianNB

gnb = GaussianNB()  # 建立模型
gnb_model = gnb.fit(iris.data, iris.target)  # 模型训练
gnb_pre = gnb_model.predict(iris.data)  # 预测模型
print("高斯分布模型准确率为:", sum(gnb_pre == iris.target) / len(iris.target))

# 多项式型
from sklearn.naive_bayes import MultinomialNB

mln = MultinomialNB()  # 建立模型
mln_model = mln.fit(iris.data, iris.target)  # 模型训练
mln_pre = mln_model.predict(iris.data)  # 预测模型
print("多项式模型准确率为:", sum(mln_pre == iris.target) / len(iris.target))

# 伯努利型
from sklearn.naive_bayes import BernoulliNB

bln = BernoulliNB()
bln_model = bln.fit(iris.data, iris.target)
bln_pre = bln.predict(iris.data)
print("伯努利模型准确率为:", sum(bln_pre == iris.target) / len(iris.target))

结果如下:

  

(2)交叉验证:

代码:

##交叉验证
from sklearn.model_selection import cross_val_score

# 高斯分布型
gnb_scores = cross_val_score(gnb, iris.data, iris.target, cv=10)
print("高斯分布准确率:%.3F" % gnb_scores.mean())

# 多项式型
mln_scores = cross_val_score(mln, iris.data, iris.target, cv=10)
print("多项式准确率:%.3F" % mln_scores.mean())

# 伯努利型
bln_scores = cross_val_score(bln, iris.data, iris.target, cv=10)
print("伯努利准确率:%.3F" % bln_scores.mean())

结果如下:

  

  从这两个结果都可以看出,高斯分布和多项式型朴素贝叶斯的准确率较高,但是伯努利型的朴素贝叶斯准确率很低,不适合这份数据。

原文地址:https://www.cnblogs.com/jwwzone/p/12844328.html