kNN模型(Python3.x环境)

    本文为《机器学习实战》第二章的实操,由于原文采用的是Python2.x环境,另外局部地方也并没有完全给出代码,因此本文对此稍作修正。
    另外,本文采用的数据集是datingTestSet2.txt不是datingTestSet.txt。因为datingTestSet2.txt中分类结果是以数字为分类结果的,后期便于处理。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author:Leslie Dang

from numpy import *
import matplotlib
import matplotlib.pyplot as plt

from pylab import mpl
mpl.rcParams['font.sans-serif'] = ['FangSong'] # 指定默认字体
mpl.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题

def classify0(inX,dataSet,labels,k):
    # inX为预测样本,dataSet为训练样本,labels为训练样本标签,k为最近邻的数目。
    dataSetSize = dataSet.shape[0]  # 训练样本行数

    # 距离计算
    diffMat = tile(inX,(dataSetSize,1)) - dataSet
    # tile(A,(a,b))功能是将数组A重复(a行b列)次,构成一个新的数组
    sqDiffMat = diffMat**2
    sqDistances = sqDiffMat.sum(axis=1)
    # sum(axis=1)表示延矩阵水平方向求和
    distances=sqDistances**0.5

    # 获取距离排序后的索引排序
    sortedDistIndicies = distances.argsort()

    # 获取前K个样本的label频次统计结果,将汇总结果放在classCount字典中。
    classCount = {}
    for i in range(k):
        voteIlabel = labels[sortedDistIndicies[i]]
        # 通过索引获取对应的标注
        classCount[voteIlabel] = classCount.get(voteIlabel,0)+1
        # 字典dict.get(key, default=None)函数返回指定键的值,如果值不在字典中返回默认值。

    # 对获得的字典进行排序
    sortedClassCount = sorted(classCount.items(),
                              key = lambda x:x[1],reverse=True)
    # iteritems()方法已经废除了。在3.x里用 items()替换iteritems() ,可以用于for来循环遍历。

    return sortedClassCount[0][0] # 返回距离最近的前k个样本的label最多的类别名称

def file2matrix(filename):
    # 处理文本文件,没有表头的、包含标签的样本数据。
    # 处理后,返回样本特征矩阵、样本标签列表

    fileRead = open(filename)
    arrayOfLines = fileRead.readlines()
    numOfLines = len(arrayOfLines)
    returnMat = zeros((numOfLines,3))

    classLabelVector = []
    index = 0
    for line in arrayOfLines:
        line = line.strip()
        listFromLine = line.split('	')
        # print('listFromLine:',listFromLine)
        # 获取样本行特征
        returnMat[index,:] = listFromLine[0:3]
        # 获取样本行标签
        classLabelVector.append(listFromLine[-1])

        index += 1
    return returnMat,classLabelVector
    # returnMat为array格式,classLabelVector为list格式。

def autoNorm(dataSet):
    # 将一列数据处理成[0,1]的归一化值。
    # 返回归一化数组、极差值、最小值。
    minVals = dataSet.min(0)
    # 参数0可以使函数从列中选取最小值,而不是选取当前行的最小值。
    maxVals = dataSet.max(0)
    ranges = maxVals-minVals
    normSet = zeros(shape(dataSet))
    rows = dataSet.shape[0]
    # 所有样本值减去最小值
    normSet = dataSet - tile(minVals,(rows,1))

    # 再除以样本的区间值,实现归一化。
    normSet = normSet/tile(ranges,(rows,1))

    return normSet ,ranges ,minVals

def datingClass(fileName,k):
    # 函数名中不能加test字眼,不然pycharm调用不了这个函数。

    # 测试代码
    hoRatio = 0.30
    returnMat,classLebel = file2matrix(fileName)
    normMat,ranges,minVals = autoNorm(returnMat)
    m = normMat.shape[0]
    numTestVecs = int(m*hoRatio)
    print('测试集样本数:',numTestVecs)
    errorCount = 0.0
    for i in range(numTestVecs):
        classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],classLebel[numTestVecs:m],k)
        print('The classifier came back with: %d,the real answer is: %d' % (int(classifierResult), int(classLebel[i])))
        if (int(classifierResult) != int(classLebel[i])):
            errorCount += 1.0
        print('The total error rate is: %f'%(errorCount/float(numTestVecs)))

    return errorCount/float(numTestVecs)


if __name__ == '__main__':
    fileName = 'datingTestSet2.txt'
    k = []
    errorRate = []
    for i in range(1,21):
        k.append(i)
        errorRate.append(datingClass(fileName,i)*100)

    fig = plt.figure()
    ax = fig.add_subplot(111)
    ax.plot(k, errorRate)

    plt.xlabel('k值')
    plt.ylabel('KNN模型测试错误率(%)')
    plt.title('KNN模型')
    plt.show()

跑出来的结果如下:

原文地址:https://www.cnblogs.com/yimengtianya1/p/10295110.html