KNN——图像分类

内容参考自:https://zhuanlan.zhihu.com/p/20894041?refer=intelligentunit

用像素点的rgb值来判断图片的分类准确率并不高,但是作为一个练习knn的题目,还是挺不错的。

1. CIFAR-10

CIFAR-10是一个图像分类数据集。数据集包含60000张32*32像素的小图片,每张图片都有一个类别标注(总共有10类),分成了50000张的训练集和10000张的测试集。

然后下载后得到的并不是实实在在的图片(不然60000张有点可怕...),而是序列化之后的,需要我们用代码来打开来获得图片的rgb值。

1 import pickle
2 
3 def unpickle(file):
4    with open(file, 'rb') as f:
5    dict = pickle.load(f, encoding='latin1')
6    return dict 

由此得到的是一个字典,有data和labels两个值。

data:

一个10000*3072的numpy数组,这个数组的每一行存储了32*32大小的彩色图像。前1024个数是red,然后分别是green,blue。

labels:
一个范围在0-9的含有10000个数的一维数组。第i个数就是第i个图像的类标。

2. 基于曼哈顿距离的1NN分类

这个训练文件很大,如果全部读的话会占据很多内存...第一次全部读直接内存爆炸直接死机。所以这里我就读了一个文件的内容。

 1 #! /usr/bin/dev python
 2 # coding=utf-8
 3 import os
 4 import sys
 5 import pickle
 6 import numpy as np
 7 
 8 def load_data(file):
 9     with open(file, 'rb') as f:
10         datadict = pickle.load(f, encoding='latin1')
11         X = datadict['data']
12         Y = datadict['labels']
13         X = X.reshape(10000, 3, 32, 32).transpose(0, 2, 3, 1).astype('float')
14         Y = np.array(Y)
15         return X, Y
16 
17 def load_all(root):
18     xs = []
19     ys = []
20     for n in range(1, 2):
21         f = os.path.join(root, 'data_batch_%d' %(n,))
22         X, Y = load_data(f)
23         xs.append(X)
24         ys.append(Y)
25     X_train = np.concatenate(xs)   #转换为行向量
26     Y_train = np.concatenate(ys)
27     del X, Y
28     X_test, Y_test = load_data(os.path.join(root, 'test_batch'))
29     return X_train, Y_train, X_test, Y_test
30 
31 
32 def classTest(Xtr_rows, Xte_rows, Y_train):
33     count = 0
34     numTest = Xte_rows.shape[0]
35     result = np.zeros(numTest)   #构造一维向量的结果
36     for i in range(numTest):
37         distance = np.sum(np.abs(Xtr_rows - Xte_rows[i,:]), axis=1)
38         min_dis = np.argmin(distance)
39         result[i] = Y_train[min_dis]
40         print('%d:  %d' %(count, result[i]))
41         count += 1
42     return result
43 
44 if __name__ == '__main__':
45     X_train, Y_train, X_test, Y_test = load_all('D:学习资料机器学习cifar-10-python\')
46     Xtr_rows = X_train.reshape(X_train.shape[0], 32 * 32 * 3)
47     Xte_rows = X_test.reshape(X_test.shape[0], 32 * 32 * 3)
48     result = classTest(Xtr_rows, Xte_rows, Y_train)
49     print('accuracy: %f' % (np.mean(result == Y_test)))

 最后测试结果如下:(跑了很久...)

3. KNN

有了上面的基础,接下来要实现最KNN就很简单了,保存与测试数据最接近的k个数据,最后选出最多的即可。

 1 def classTest(Xtr_rows, Xte_rows, Y_train, k):
 2     count = 0
 3     numTest = Xte_rows.shape[0]
 4     result = np.zeros(numTest)   #构造一维向量的结果
 5     for i in range(numTest):
 6         classCount = {}
 7         distance = np.sum(np.abs(Xtr_rows - Xte_rows[i,:]), axis=1)
 8         distance = distance.argsort()
 9         for j in range(k):
10             votelabel = Y_train[distance[j]]
11             classCount[votelabel] = classCount.get(votelabel, 0) + 1
12             sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
13         result[i] = sortedClassCount[0][0]
14         print('%d:  %d' % (count, result[i]))
15         count += 1
16     return result

4. 验证

对于如何确定一个最佳的k值,我们就需要去做验证,需要注意的是测试集不能作为验证集去验证。一般来说就是将训练数据分为两部分,一部分作为验证集去确定最佳的k值,最后再去用该k值去测试。

如果数据不是很多的话,那么就可以用交叉验证来寻找最佳的k值,交叉验证就是将数据分为多份,依次选一份作为验证集,比如将训练数据分为5分,然后进行5次训练,每次将其中一份作为验证集,另外四份作为训练集。

原文地址:https://www.cnblogs.com/zyb993963526/p/8722866.html