python调用scikit-learn机器学习

不支持深度学习和强化学习

numpy介绍:

np.eye(n)生成一个n维单元数组

数据预处理:

iris数据加载

from sklearn import datasets
iris = datasets.load_iris()

数据展示

显示iris的信息

print(iris.data)
[[5.1 3.5 1.4 0.2]
 [4.9 3.  1.4 0.2]
 [4.7 3.2 1.3 0.2]
        ……
 [5.  3.6 1.4 0.2]
 [5.4 3.9 1.7 0.4]
 [4.6 3.4 1.4 0.3]]

每列数据表示不同样本同一属性下对用的数值

print(iris.feature_names)
['sepal length (cm)', 'sepal width (cm)', 'petal length (cm)', 'petal width (cm)']

输出目标结果

print(iris.target)
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
 2 2]

结果的含义

print(iris.target_names)
['setosa' 'versicolor' 'virginica']

确认数据类型

print(type(iris.data))
print(type(iris.target))

<class 'numpy.ndarray'>
<class 'numpy.ndarray'>

确认维度

print(iris.data.shape)

print(iris.target.shape)

(150, 4)
(150,)

X输入数据赋值,y输出数据赋值

X = iris.data
y = iris.target

模型训练:

分类:根据数据集目标的特征或属性,划分到已有的类别中

常用分类算法:KNN(K近邻)、逻辑回归、决策树、朴素贝叶斯

KNN(最简单的机器学习算法之一):

给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的l个实例,这k个实例多数是什么类型就将该输入实例分类到这个类中

模型调用

from sklearn.neighbors import KNeighborsClassifier

创建实例

knn=KNeighborsClassifier(n_neighbors=5)

模型训练

模型训练与预测

y_pred=knn.fit(X,y)
knn.predict(y_pred)

准确率

from sklearn.metrics import accuracy_score
print(accuracy_score(y,y_pred))

数据分离

from sklearn.model_selection import train_test_split

#训练输入数据,预测的输入数据,训练结果,预测结果
x_train,x_test,y_train,y_test=train_test_split(X,y,test_size=0.4)

分离后数据集的训练与评估

knn_5_s = KNeighborsClassifier(n_neighbors=5)
knn_5_s.fit(X_train, y_train)
y_train_pred=knn_5_s.predict(X_train)
y_test_pred=knn_5_s.predict(X_test)

确定k值

k_range=list(range(1,26))

score_train=[]
score_test=[]
for k in k_range:
knn=KNeighborsClassifier(n_neighbors=k)
knn.fit(X_train,y_train)
y_train_pred=knn.predict(X_train)
y_test_pred=knn.predict(X_test)
score_train.append(accuracy_score(y_train,y_train_pred))
score_test.append(accuracy_score(y_test,y_test_pred))

图形展示

import matplotlib.pyplot as plt
%matplotlib inline
#展示k值与训练数据集预测准确率之间的关系
plt.plot(k_range,score_test)
plt.xlabel('K(KNN model)')
plt.ylabel('Training Accuracy')

  • 训练数据集准确率 随着模型复杂而提高
  • 测试数据集准确率 在模型过于简单或复杂而准确率更低
  • KNN模型中,模型复杂度由K决定,(k越小,复杂度越高)

 对新数据进行预测

knn_11=KNeighborsClassifier(n_neighbors=11)
knn_11.fit(X_train,y_train)
knn_11.predict([[1,2,3,4]])

逻辑回归模型:

用于解决分类问题的一种模型。根据数据特征或属性,计算其归属于每一类别的概率P(x),根据概率数值判断其所属类别。主要应用场景:二分类问题。

P(x)=1/(1+e-(ax+b))    y={1,  P(x)≥0.5  0,P(x)<0.5

其中y为类别结果,P为概率,x为特征值,a、b为常量

(皮马印第安人糖尿病数据集)

输入变量:独立变量包括患者的怀孕次数,葡萄糖量,血压,皮褶厚度,体重指数,胰岛素水平,糖尿病谱系功能,年龄

输出结果:是否含义糖尿病

数据来源:Pima Indians Dianbetes dataset

预测准确率的局限性:

无法真实反映模型针对各个分类的预测准确度

准确率可以方便的用于衡量模型的整体预测效果,但无法反应细节信息,具体表现:

  • 没有体现数据的实际分布情况
  • 没有体现模型错误预测的类型

空准确率:当模型总是预测比例较高的类别,其预测准确率的数值

混淆矩阵(误差矩阵):

用于衡量分类算法的准确程度

  • True Positives(TP):预测准确、实际为正样本的数量(实际为1,预测为1)
  • True Negatives(TN):预测准确、实际为负样本的数量(实际为0,预测为0)
  • False Positives(FP):预测错误、实际为负样本的数量(实际为0,预测为1)
  • False Negatives(FN):预测错误、实际为正样本的数量(实际为1,预测为0)
  公式 定义

准确率

(Accuracy)

 

整体样本中,预测正确的比例

错误率

(Misclassification Rate)

整体样本中,预测错误的比例

召回率

(Recall)

正样本中,预测正确的比例

特异度

(Specificity)

  负样本中,预测正确的比例

精确率

(Precision)

  预测结果为正样本中,预测正确的比例

F1分数

(F1 Score)

  综合Precision和Recall的判断指标

混淆矩阵指标特点:

  • 分类任务中,相比单一的预测准确率,混淆矩阵提供了更全面的模型评估信息
  • 通过混淆矩阵,我们可以计算出多样性的模型表现衡量指标,从而更好地选择模型

哪个衡量指标更关键?

  • 衡量指标的选择取决于应用场景
  • 垃圾邮件检测(正样本判断为“垃圾邮件”):希望普通邮件(负样本)不要被判断为垃圾邮件(正样本),需要关注精确率和召回率
  • 异常交易检测(正样本为“异常交易”):希望所有的异常交易都被检测到,需要关注特异度

#数据预处理

import pandas as pd

path='csv文件路径/xxx.csv'

pima=pd.read_csv(path)

#X,y赋值

feature_names=['pregnant','insulin','bmi','age']

X=pima[feature_names]

y=pima.label

#维度确认

print(X.shape,y.shape)

#数据分离

from sklearn.model_selection import train_test_split

X_train,X_test,y_train,y_test=train_test_split(X,y,random_state=0)

#模型训练

from sklearn.linear_model import LogisticRegression

logreg=LogisticRegression()

logreg.fit(X_train,y_train)

#测试数据集结果预测

y_pred=logreg.predict(X_test)

#使用准确率进行评估

from sklearn import metrics

print(metrics.accuracy_score(y_test,y_pred))

#确认正负样本数据量

y_test.value_counts()

#1的比例

y_test.mean()

#0的比例

1-y_test.mean()

#空准确率

max(y_test.mean(),1-y_test.mean())

#四个因子赋值

cofusion=metrics.confusion_matrix(y_test,y_pred)

TN=confusion[0,0]

FP=confusion[0,1]

FN=confusion[1,0]

TP=confusion[1,1]

print(TN,FP,FN,TP)

/*指标计算参见上面的公式*/

原文地址:https://www.cnblogs.com/nirvanaInSilence/p/11516221.html