001-神经网络基础-K近邻算法

 

K-近邻算法:

如果K = 3,绿色圆点最近的3个邻居:2个红色三角,和1个蓝色矩形,少数从属多数,基于统计的算法,判定绿色圆点为红色三角一类。

如果K = 5,绿色圆点最近的5个邻居:2个红色三角,和3个蓝色矩形,少数从属多数,基于统计的算法,判定绿色圆点为蓝色矩形一类。

 

 对于未知类别属性数据集中的点:

1.计算已知类别数据集中的点与当前点的距离
2.按照距离依次排序
3.选取与当前点距离最小的K个点
4.确定前K个点所在类别的出现概率
5.返回前K个点出现频率最高的类别作为当前点预测分类。

 

概述:
KNN 算法本身简单有效,它是一种lazy-learning 算法。
分类器不需要使用训练集进行训练,训练时间复杂度为0。
KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为n,那么KNN 的分类时间复杂度为O(n)。

 

K 值的选择,距离度量和分类决策规则是该算法的三个基本要素
问题:该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K 个邻居中大容量类的样本占多数
解决:不同的样本给予不同权重项.

 

数据集样例:CIFAR-10

10类标签
50000个训练数据
10000个测试数据
大小均为32*32

 

 如何计算:

 测试数据(像素点)-训练数据(像素点) =  像素点的差异值→和为456

测试结果:

可见,结果并不准确。

 

超参数:

L1是曼哈顿距离,就是单纯的绝对值

L2是欧几里得距离,

 

 

问题:

1.对于距离如何设定?
2.对于K近邻的K该如何选择?
3.如果有的话,其它的超参数该怎么设定呢?

 

找到最好的参数:

多次用测试数据试验,找到做好的一组参数组合?

这是错误的的想法,因为测试数据只能最终用

解决方法:

交叉验证

第一次用1,2,3,4训练,用5验证

第二次用1,2,3,5训练,用4验证

。。。。。。

K的选取:

 

背景主导:

K近邻算法回将背景考虑进去,所以结果会不准确。

 

不同的变换和原图具有相同的L2距离:

图2,图3,图4,与原始图片的像素差异相同,但是图234,根本不一样。

 所以说,K近邻算法无法完成图像分类任务。

 

 

 

 

原文地址:https://www.cnblogs.com/Mjerry/p/9785001.html