opencv使用记录

/*2017-1-14*/

/*视频的读取。。。*/

int g_n=0;
void on_change(int pos,void *)//看来void*不能省! 
{
	printf("g_n id %d
",pos);
}

int main()
{
	//结构体第一个字母都是大写,函数小写 
	//打开视频文件:其实就是建立一个VideoCapture结构  
	VideoCapture capture("E:\vedio\01.avi");
	//检测是否正常打开:成功打开时,isOpened返回ture  
    if(!capture.isOpened())  
        cout<<"fail to open!"<<endl; 
		 
    //获取整个帧数
    //capture.get(宏)可以获取各种属性信息 
    long total = capture.get(CV_CAP_PROP_FRAME_COUNT);  
    cout<<"视频"<<total<<"帧"<<endl;
    namedWindow("视频",1);
    
    createTrackbar("position","视频",&g_n,total,&on_change);
	on_change(g_n,0);
	
	Mat frame;  
    while(capture.read(frame)){
		//frame 保存当前读取帧文件,会保存读取信息,读到结尾会返回NULL 
		imshow("car",frame);
		
		char c = waitKey(1);//这一步很重要,不然看不到视频内容,延时30ms(每秒30帧)
   	
	   	while( c ==' '){//可以使用空格暂停 
    		c=waitKey(0);
    	}
	}
    capture.release();

	waitKey(0);  
	return 0;
}

/*
Mat这个类有两部分数据。
一个是matrixheader,这部分的大小是固定的,包含矩阵的大小,存储的方式,矩阵存储的地址等等。
另一个部分是一个指向矩阵包含像素值的指针。
*/

/*,使用矩阵为Mat赋值的时候,位数一定要匹配,CV_8U是8位,而一个int有4个字节,*/

int main()
{
	char data[]={1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18};
	//尼玛,我说怎么搜到的程序上有使用char定义数组给Mat赋值的,这TMD位数不匹配,所以用char 
	Mat M = Mat(1, 18, CV_8U, data);
	//CV_8U是8位,而一个int有4个字节,这是不是说明,
	//这样成立的话,是不是说明,即使是64位的编译器,一个字节也是8位(废话!!) 
	//Mat M(3,3,CV_8UC2); 
	//M=(Mat_<int>(3,3) <<);
//	for(int y=0;y<M.rows;y++){
//		for(int x=0;x<M.cols;x++){
//			 int value = M.at<int>(y,x);
//			 printf("%2d",value);
//		}
//		cout<<endl;
//	}
	
	cout<<sizeof(int)<<endl;
	cout<<M<<endl;


	waitKey(0);  
	return 0;
	
}


/* 函数 M.channels()  M.ptr()  分别返回M的通道数和行地址
尽管M是以两个通道类型保存的数据,并且二维矩阵,但是,返回指针任然是一维,行式存储
 */

	char* p =(char *)M.ptr(0);//ptr<>()函数返回第i行的地址 
	cout<<(int)++data[2]<<endl;
	//尽管M是以两个通道类型保存的数据,并且二维矩阵,但是,返回指针任然是一维,行式存储 
	//只能通过逐步移动指针,访问同一元素的不同通道的值 
	//不做强制转换,就会输出字符,看来上面是自动强制了 

/*2017-1-16*/
/*分离通道,看来,使用*/char* p =(char *)M.ptr(0)/*返回的行地址,增加也是以单个字节为单位*/

int main()
{
	Mat M=imread("E:\visio\1.jpg",1);

	Mat rtemp=Mat::zeros(M.size(),CV_8UC1); 
	Mat gtemp=Mat::zeros(M.size(),CV_8UC1); 
	Mat btemp=Mat::zeros(M.size(),CV_8UC1); 
	
	for(int i=0;i<M.rows;i++){
		char* data = M.ptr<char>(i);
		
		for(int j=0;j<M.cols;j++){

			rtemp.at<uchar>(i,j) = (data+3*j)[0];
			gtemp.at<uchar>(i,j) = (data+3*j)[1];
			btemp.at<uchar>(i,j) = (data+3*j)[2];
		}
	}	
	imshow("Rtongdao",rtemp);
	imshow("Gtongdao",gtemp);
	imshow("Btongdao",btemp);
	waitKey(0);
} 

//彩色版本  并且使用 Vec3b 
//template<typename_Tp, int n> class Vec : public Matx<_Tp, n, 1> {...};
typedef Vec<uchar, 3> Vec3b;
//其实这句就是定义一个uchar类型的数组,长度为3

	Mat rtemp=Mat::zeros(M.size(),CV_8UC3); 
	Mat gtemp=Mat::zeros(M.size(),CV_8UC3); 
	Mat btemp=Mat::zeros(M.size(),CV_8UC3); 
	
	for(int i=0;i<M.rows;i++){
		char* data = M.ptr<char>(i);
		char* bdata = btemp.ptr<char>(i);
		char* gdata = gtemp.ptr<char>(i);
		char* rdata = rtemp.ptr<char>(i);
		for(int j=0;j<M.cols;j++){
			
			(bdata+3*j)[0] = (data+3*j)[0];
			gtemp.at<Vec3b>(i,j)[1]=(data+3*j)[1];
			////其实这句就是定义一个uchar类型的数组,长度为3
			(rdata+3*j)[2] = (data+3*j)[2];
	
		}
	}	

/*绘制一维直方图*/

int main()
{
	//【1】载入原图并显示
	Mat srcImage = imread("E:\visio\1.jpg", 1);
	imshow("原图",srcImage);
	if(!srcImage.data) {cout << "fail to load image" << endl; 	return 0;}
	Mat btemp(srcImage.size(),CV_8UC1);
	Mat gtemp(srcImage.size(),CV_8UC1);
	Mat rtemp(srcImage.size(),CV_8UC1);
	
	vector<Mat> channel;
	//创建mat为元素的可变数组; 
	split(srcImage,channel);
	//使用split函数分离通道为三个元素,存放到channles[]
	btemp = channel.at(0);
	gtemp = channel.at(1);
	rtemp = channel.at(2);
	 
	imshow("b",btemp);
	imshow("g",gtemp);
	imshow("r",rtemp);
	
	//【2】定义变量
	MatND bdstHist,gdstHist,rdstHist;
	
	int dims = 1;//几维直方图 
	float hranges[] = {0, 255};//范围数组 
	const float *ranges[] = {hranges};// 这里需要为const类型,几维,从这取几个范围,元素是数组 
	int size[] = {256};//每一维度尺寸的大小,几维,就有几个尺寸,里面的元素是数 
	int channels = 0;

	//【3】计算图像的直方图
	calcHist(&btemp, 1, &channels, Mat(), bdstHist, dims, size, ranges);  
	calcHist(&gtemp, 1, &channels, Mat(), gdstHist, dims, size, ranges);
	calcHist(&rtemp, 1, &channels, Mat(), rdstHist, dims, size, ranges);
	
	
	int scale = 5;//可以根据用户的需求调节显示图像 
	Mat bdstImage(256 , 64*scale, CV_8U, Scalar(0));//保存白色高度,8位的,单通道图像
	Mat gdstImage(256 , 64*scale, CV_8U, Scalar(0));
	Mat rdstImage(256 , 64*scale, CV_8U, Scalar(0));
	
	
	//【4】获取最大值和最小值
	double bminValue = 0,gminValue = 0,rminValue = 0;
	double bmaxValue = 0,gmaxValue = 0,rmaxValue = 0;
	minMaxLoc(bdstHist,&bminValue, &bmaxValue, 0, 0);  
	minMaxLoc(gdstHist,&gminValue, &gmaxValue, 0, 0);
	minMaxLoc(rdstHist,&rminValue, &rmaxValue, 0, 0);
	
	//【5】绘制出直方图
	int hpt = 64 ;
	for(int i = 0; i < 256; i++)//有256组,所以要画256次 
	{
		float binValue = bdstHist.at<float>(i);//获取对应直方柱的值
		//感觉当Mat.at<>()[],,如果对象的元素是单通道,不需要[],当元素为数组vec3b,需要[] 
		
		int realValue = saturate_cast<int>(binValue * hpt/bmaxValue);
		//是加是减,乘除,都会超出一个像素灰度值的范围
		//当运算完之后,结果为负,则转为0,结果超出255,则为255。
		
		rectangle(bdstImage,//对角两个点,画矩形
				Point(i*scale, 64 - 1), //原点在左上角,所以点在下水平轴上 
				Point((i+1)*scale - 3, 64 - realValue), // -3,应该是柱与柱之间测间隔。 
				Scalar(255));// scalar(255),边框填充白色 
	}
	
	for(int i = 0; i < 256; i++)
	{
		float binValue = gdstHist.at<float>(i);
		int realValue = saturate_cast<int>(binValue * hpt/gmaxValue);
	
		rectangle(gdstImage,
				Point(i*scale, 64 - 1),  
				Point((i+1)*scale - 3, 64 - realValue),   
				Scalar(255));  
	}
	
	for(int i = 0; i < 256; i++)
	{
		float binValue = rdstHist.at<float>(i);
		int realValue = saturate_cast<int>(binValue * hpt/rmaxValue);
	
		rectangle(rdstImage,
				Point(i*scale, 64 - 1),  
				Point((i+1)*scale - 3, 64 - realValue),   
				Scalar(255));  
	}
	imshow("一维直方图b", bdstImage);
	imshow("一维直方图g", gdstImage);
	imshow("一维直方图r", rdstImage);
	waitKey(0);
	return 0;
}

/*以灰度图像加载图像是通过公式Y=0.2..*b+0.5*g+0.1..*r=R=G=B计算*/

/*RGB颜色空间中,对角线上,没有颜色,只有亮度,即当R=G=B*/

/*色相(Hue):指物体传导或反射的波长。定义各种颜色,取值范围0度-360度,直径两端,是互补色(混在一起是白色)
饱和度(Saturation):又称色度,是指色彩的强度或纯度。越靠近内轴,似乎就掺了白色,变得淡了
亮度 (brightness/Intensity):是指颜色的相对明暗度(可以理解为光照),通常以 0% (黑色) 到 100% (白色) 的百分比来衡量。
*/

/*没必要value非得定义成char,定义成int完全能覆盖,CV-8U所有数值 */
/*当Mat型数据的元素是,三通道时,使用(vec3b)访问时可以使用下标定位 hsvImage.at<Vec3b>(i,j)[1]*/
	
	int value;
	for(int i=0;i<hsvImage.rows;i++){
		for(int j=0;j<hsvImage.cols;j++)
			{
				value = hsvImage.at<Vec3b>(i,j)[1];//当char被赋值170时可能已经发生了溢出, 
				cout<<value<<" ";					//所以之后无论怎么处理都挽回不了,
				 
			}
	}
//	imshow("hsv",hsvImage); 
	cout<<endl<<format(srcImage,"python")<<endl<<endl;
	cout<<format(hsvImage,"python");
	
/*srcImage.copyTo(hsvImage);//这个函数应该是把数据类型也改了 */
/*copy的使用*/
C++: void Mat::copyTo(OutputArray m) const
C++: void Mat::copyTo(OutputArray m, InputArray mask) const
/*一般情况下使用第一种复制的方法,目的矩阵和数据矩阵大小需要相同
(一半设置为图像的感兴趣区域,用来赋值LOGO)
第二种使用方式,有一个mask(只需要单通道),
mask需要与数据矩阵等大,其非零区域表明需要使用的地方,零的不会用来复制,所以目的矩阵的对应区域不变
*/

/*2016-1-18*/

/*
cvConvertScale(IplImage*,IplImage*,1.0,0)函数似乎只能使用IplImage=cvLoadImage加载的图像才能运行;
在Mat数据类型中有个函数convertTo()函数,如下,也可以转换数据类型
*/
/*
使用cout显示的方式,不如使用循环指针访问得到的真实
*/

/*
保存HSV格式的图像,图像数据只能用char大小的数据
*/

int main(int argc, char** argv)  
{  
	char data[]={1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18};
    Mat src2 = Mat(3, 2, CV_8UC3, data);
	Mat src3;
 
	src2.convertTo(src3,CV_32FC3,1.0,0.1);
	
	float value[3];
	for(int i=0;i<src3.rows;i++){
		for(int j=0;j<src3.cols;j++)
			{
				value[0] = src3.at<Vec3f>(i,j)[0];
				value[1] = src3.at<Vec3f>(i,j)[1];
				value[2] = src3.at<Vec3f>(i,j)[2];
				cout<<"<"<<value[0]<<" "<<value[1]<<" "<<value[2]<<endl;
				 
			}
	}
	
		
	//保存HSV格式的图像,图像数据只能用char大小的数据
	hsvImage.convertTo(hsvImage,CV_8UC3,(1.0/360)*255,0); 
	 
	imshow("hsv",hsvImage); 
  	cout<<endl<<format(src3,"python");
  	imshow("jieguo",src3); 
    getchar();  
    return 0;  
}

/*
自定义结构体元素,进行腐蚀操作:如果B的原点平移到点(x,y),那么B将完全包含于X中。输入的二值图像只包含黑色(0)和白色(255)像素,因此结构元素覆盖的图像区域中有黑色像素,则锚点所在像素(x,y)将会被替换成黑色0,否则替换成白色255。而物体的边界通常会有黑色像素,所以腐蚀相当于收缩边界。

另一种理解,腐蚀就是把当前像素替换成所定义的像素集中的最小像素值。


*/
int main()
{
	char data[20][20]={0};
	for(int i=3;i<8;i++){
		for(int j=4;j<10;j++){
			data[i][j]=255;
		}
	} 
	for(int i=8;i<16;i++){
		for(int j=2;j<8;j++){
			data[i][j]=255;
		}
	}
	Mat srcImage(20,20, CV_8UC1, data);
	cout<<format(srcImage,"python");
	
	//使用自定义结构元素进行腐蚀的正确姿势,
	//网上说自己定义麻烦,确实自己赋值结构元素是有点麻烦,
	//自定义一个有“形状”的mat,erode 自动可以判断其他参数 
	char vaule[16]={ 0,0,0,0,
					 0,0,1,0,
					 0,1,1,0,
					 0,0,0,0};
	Mat element(4,4,CV_8UC1,vaule);
	Mat result(srcImage.size(),CV_8UC1,Scalar::all(0));
	erode(srcImage,result,element);//默认腐蚀操作一次
	cout<<endl<<endl<<format(result,"python");
	
					 

	waitKey(0);
	return 0;
}

/*2016-1-17*/
/*轮廓提取
1、提取前应该先使用边缘算子处理,才能提取到单根轮廓
2、看来转为灰度图,保存的通道也是 cvtColor
3、vector<Vec4i> hierarchy;保存轮廓关系一维数组,元素是4个数
	vector< vector<Point> > contours;保存轮廓数据的“二维数组”,元素是点
4、//hierarchy[][]后一个轮廓、前一个轮廓、内嵌轮廓,父轮廓的contours数组索引编号(行)
5、反过来用(y,x)srcImage.at<Vec3b>(y,x)[2]=255;//对对,这样使用是先返回行,对应于坐标是y 
*/
int main()
{
	Mat srcImage=imread("E:/visio/lunkuo.jpg");
	
	//cvtColor(srcImage,srcImage,CV_BGR2GRAY,0);
	//这就是单通道了,看来转为灰度图,保存的通道也是 1 
	 
	imshow("jiegou",srcImage);
//	cout<<format(srcImage,"python")<<endl;
	Mat gimage;  
    GaussianBlur(srcImage,gimage,Size(3,3),0);//高斯模糊 
//    imshow("GAUSS Image",gimage);//这里还是彩色的 
    Mat cimage;
    Canny(gimage,cimage,100,250); //图像处理之Canny 边缘检测 1
//    imshow("Cann Image",cimage);
 // cout<<format(image,"python")<<endl;//这里已经变成单通道了 
      
	Mat lunkuo=Mat::zeros(srcImage.size(),CV_8UC3);  //绘制 
	vector<Vec4i> hierarchy;  
	vector< vector<Point> > contours;
	//第二个参数:contours,定义为“vector<vector<Point>> contours”,
	//是一个向量,并且是一个双重向量,向量
    //内每个元素保存了一组由连续的Point点构成的点的集合的向量,每一组Point点集就是一个轮廓。  
    //有多少轮廓,向量contours就有多少元素。

	//使用cvFindContours的返回值为int型,指检测出来的轮廓的个数
	findContours(cimage,contours,hierarchy,1,CV_CHAIN_APPROX_NONE);//没有返回值 
	//只有以第四种模式寻找轮廓,hierarchy的数组,才能完全被附上应有的值! 
 	int idx = 0;
 	int i=0;
    for( ; idx<contours.size(); idx++){
    	 for(int j=0;j<contours[idx].size();j++){
    	 	int x=contours[idx][j].x,y=contours[idx][j].y;
		 	if(idx % 2 == 0) lunkuo.at<Vec3b>(y,x)[2]=255;
			if(idx % 2 != 0) lunkuo.at<Vec3b>(y,x)[1]=255;
			//除了模式0之外,
			//1,2,3模式每一个轮廓都有两个存储数组,仅有几个点有差别,8个轮廓共16个数组 
//      Scalar color(0,0,255 );
//		drawContours( lunkuo, contours, idx, color, 1, 8, hierarchy );
//		使用drawContours,可以顺便给线复颜色值,idx是contour数组的行变量,
//		应该还不至于操作父子结构。。之后的参数掠过 
		}
		imshow("lunkuo",lunkuo);
    }

//	imshow("lunkuo",lunkuo);
	
	
/*	模式2-1 查找所有轮廓,全部输出 
	for(i=0;i<contours.size();i++)  
    {  
        //contours[i]代表的是第i个轮廓,
		//contours[i].size()代表的是第i个轮廓上所有的像素点数  
        for(int j=0;j<contours[i].size();j++)   
        {  
            //绘制出contours向量内所有的像素点
			//这里要想画在原图上,要画gimage,因为gimage已经与原图像不一样了
			//并且原图像画边界的部分是白色,都是255,所以会有截断似乎
			//还有一种办法,更改原图像  
            int x=contours[i][j].x,y=contours[i][j].y;  
            //还有一种办法,更改原图像 ,数组的话还不能整体赋值呢,就先一步一步操作吧 
			//这里居然要反过来用,像素点(x,y),,这里要输入(y,x) 
			//不然就使用Point point(x,y),,srcImage.at<Vec3b>(p)[] 
			srcImage.at<Vec3b>(y,x)[2]=255;//对对,这样使用是先返回行,对应于坐标是y 
			srcImage.at<Vec3b>(y,x)[0]=0; //那么使用的时候,也得反着用 
			srcImage.at<Vec3b>(y,x)[1]=0;  
		
        }
        
        //输出hierarchy向量内容  
        cout<<"向量hierarchy的第" <<i<<" 个元素内容为:"<<endl
		<<hierarchy[i]<<endl<<endl;  
	}
	imshow("lunkuo",srcImage);
*/	
	
/*  模式 	RETR_EXTERNAL==0  只查找最外层轮廓,
	轮廓保存数组,仍然是二维,尽管只保存一个轮廓
	没有使用层次关系 hierarchy
	for(int i=0;i<contours.size();i++)  
    {  
        //contours[i]代表的是第i个轮廓,contours[i].size()代表的是第i个轮廓上所有的像素点数  
        for(int j=0;j<contours[i].size();j++)   
        {  
           //绘制出contours向量内所有的像素点  
            Point P=Point(contours[i][j].x,contours[i][j].y);  
            lunkuo.at<uchar>(P)=255;  
        }
        
         //输出hierarchy向量内容  
        char ch[256];  
        sprintf(ch,"%d",i);  
        string str=ch;
    //hierarchy[][]后一个轮廓、前一个轮廓、内嵌轮廓的索引编号,父轮廓、应该是contours的行号 
        cout<<"向量hierarchy的第" <<str<<" 个元素内容为:"<<endl<<hierarchy[i]<<endl<<endl;  
  
	}
	imshow("lunkuo",lunkuo);
*/
	waitKey(0);
	return 0;
}

/*2017-1-19*/
//图像的细化,先有原图得到灰度图cvtColor
//在有灰度图得到二值化threshold
//由程序中判断边缘点的方法将其记录到edg,再由索引表八连通图的方法判断是否为删除点,记录到delete,之后删除
//之后再有边缘函数fincontours试试..........
void deletecontours(Mat &srcImage)  
{ 
    unsigned char deletemark[256] = {  
        0,0,0,0,0,0,0,1,    0,0,1,1,0,0,1,1,  
        0,0,0,0,0,0,0,0,    0,0,1,1,1,0,1,1,  
        0,0,0,0,0,0,0,0,    1,0,0,0,1,0,1,1,  
        0,0,0,0,0,0,0,0,    1,0,1,1,1,0,1,1,  
        0,0,0,0,0,0,0,0,    0,0,0,0,0,0,0,0,  
        0,0,0,0,0,0,0,0,    0,0,0,0,0,0,0,0,  
        0,0,0,0,0,0,0,0,    1,0,0,0,1,0,1,1,  
        1,0,0,0,0,0,0,0,    1,0,1,1,1,0,1,1,  
        0,0,1,1,0,0,1,1,    0,0,0,1,0,0,1,1,  
        0,0,0,0,0,0,0,0,    0,0,0,1,0,0,1,1,  
        1,1,0,1,0,0,0,1,    0,0,0,0,0,0,0,0,  
        1,1,0,1,0,0,0,1,    1,1,0,0,1,0,0,0,  
        0,1,1,1,0,0,1,1,    0,0,0,1,0,0,1,1,  
        0,0,0,0,0,0,0,0,    0,0,0,0,0,1,1,1,  
        1,1,1,1,0,0,1,1,    1,1,0,0,1,1,0,0,  
        1,1,1,1,0,0,1,1,    1,1,0,0,1,1,0,0  
    };//索引表  

	Mat image;
    Mat copyImage;
    cvtColor(srcImage,image,CV_BGR2GRAY);
    threshold(image, copyImage, 128, 1, THRESH_BINARY);//这样,像素点就变成0 1 //image = image * 255  显示图像 
   // cout<<endl<<endl<<format(copyImage,"python");
    //仅使用最外一层轮廓,不用做预处理,并且只有一层
	vector<Point> edg;
	vector<Point> detele;
	
	bool flag = true;
 	int times = 0;
 	int sum;
 	char vaule[8] = { 0 };
 	while( flag ) {
 		
	 	times++;
	 	flag = false;
	 	
		int number0=0;
	 	//记得之前使用一种函数,返回的是行号 注意像素点的表示(行号,列号)
		//若想之后正确使用,一开始就得按照规矩来
	 	for(int i=1;i<copyImage.rows-1;i++){
	 		for(int j=1;j<copyImage.cols-1;j++){
				int x=i,y=j;
				if( copyImage.at<char>(x,y) == 1 ){
				
				vaule[0] = copyImage.at<char>(x-1,y-1);
				vaule[1] = copyImage.at<char>(x-1,y);
				vaule[2] = copyImage.at<char>(x-1,y+1);
				vaule[3] = copyImage.at<char>(x,y+1);
				vaule[4] = copyImage.at<char>(x+1,y+1);
				vaule[5] = copyImage.at<char>(x+1,y);
				vaule[6] = copyImage.at<char>(x+1,y-1);
				vaule[7] = copyImage.at<char>(x,y-1);

					sum = vaule[0] & vaule[1] & vaule[2] & vaule[3] & vaule[4] & vaule[5] & vaule[6] & vaule[7];
				
					if(sum == 0) {
						edg.push_back(Point (x,y));
					}
				}
			 }
		 }
 
		 for(int i=0 ; i<edg.size() ; i++){
		 	
		 	int x,y;
			x = edg[i].x;
			y = edg[i].y;
		
			vaule[0] = copyImage.at<char>(x-1,y-1);
			vaule[1] = copyImage.at<char>(x-1,y);
			vaule[2] = copyImage.at<char>(x-1,y+1);
			vaule[3] = copyImage.at<char>(x,y+1);
			vaule[4] = copyImage.at<char>(x+1,y+1);
			vaule[5] = copyImage.at<char>(x+1,y);
			vaule[6] = copyImage.at<char>(x+1,y-1);
			vaule[7] = copyImage.at<char>(x,y-1);
		//由于字符转换int使得数值变成0了估计!!!!!!!!!!!!!	
			vaule[1]*=2;
			vaule[2]*=4;
			vaule[3]*=8;
			vaule[4]*=16;
			vaule[5]*=32;
			vaule[6]*=64;
			vaule[7]*=128;
			
			sum = vaule[0] + vaule[1] + vaule[2] + vaule[3] + vaule[4] + vaule[5] + vaule[6] + vaule[7] ;
		//若发现该点是可删除点,即立即删除.删除会影响到以后的判断,故先做标记
			if(deletemark[sum] == 1){
				detele.push_back(Point (x,y));//vertor的插入
		 	}

		}		
		if(detele.size() > 0)//vector的成员函数.size()
			flag = true;
		 	for(int i=0;i<detele.size();i++){
				 int x,y;
				 x=detele[i].x,y=detele[i].y;
				 copyImage.at<char>(x,y)=0;
			 }
		cout<<endl<<"time"<<times<<endl;
		detele.clear();
		edg.clear();
	}
	
	imshow("jieguo",copyImage*255);
}

/*2017-2-2*/

/*
hu矩
质量中心的简称,它同作用于质点系上的力系无关。设?n个质点组成的质点系?,其各质点的质量分别为m1,m2,…,mn。若用?r1?,r2,……,rn分别表示质点系中各质点相对某固定点的矢径,rc?表示质心的矢径,则有rc=(m1r1+m2r2+……+mnrn)/(m1+m2+……+mn)。当物体具有连续分布的质量时,质心C的矢径?rc=∫ρrdτ/∫ρdτ,式中ρ为体(或面、线)密度;dτ为相当于ρ的体(或面?、线)元?;积分在具有分布密度ρ的整个物质体(或面、线)上进行。由牛顿运动定律或质点系的动量定理,可推导出质心运动定理:质心的运动和一个位于质心的质点的运动相同,

中心矩具有平移不变性,它与中心做差了
归一化中心矩,应该具有缩放平移不变性
Hu矩具有平移,缩放,旋转不变性,应该是综合了好多矩的向量
中心矩是20 11 02开始,,因为00就是p+q 00 ;01 10中心矩不存在
*/

int main()
{
	char data[100]={0};
	for(int i=3;i<6;i++){
		for(int j=3;j<6;j++)
			data[10*i+j]=255;		
	}
	Mat srcImage= Mat(10, 10, CV_8U, data);
	Moments mts=moments(srcImage,2);//2是非零的意思,会将图像中大于零的都认为1
	//这应该是库中的函数,可以直接使用,计算各阶矩(原点矩,中心矩)0,1,2
	double hu[7]; 
    HuMoments(mts, hu);//只需要接受各阶矩,计算得到hu矩,存入hu数组
	 
    for (int i=0; i<7; i++) 
    { 
        cout << log(abs(hu[i])) <<endl; 
    } 
}


/*2017-2-3*/
/*
resylt = matchShapes(contours[],contours [],1 ) 函数的使用方法,输入比较的边缘数组,比较方法1 2 3、 
返回值是个浮点数,显示比较距离,越小越相似
其内部还是先计算出两个图像的hu矩,然后通过一些数学方法计算两个hu矩之间的差距				
*/
int main()
{
	Mat srcImage0=imread("E:/visio/dev/xin.JPG");
	Canny(srcImage0,srcImage0,100,250);
	//即使看似很规整,还是直接检测最外层轮廓,还是会检测到前一个后一个的关系,不是继承 
	
	Mat srcImage1=imread("E:\visio\dev\youxin.JPG");
	Canny(srcImage1,srcImage1,100,250);

	Mat lunkuo0=Mat::zeros(srcImage0.size(),CV_8U);  //绘制
	Mat lunkuo1=Mat::zeros(srcImage1.size(),CV_8U);  //绘制
	vector<Vec4i> hierarchy;  
	vector< vector<Point> > contours0;
	vector< vector<Point> > contours1;
	findContours(srcImage0,contours0,hierarchy,0,CV_CHAIN_APPROX_NONE);//没有返回值 
	findContours(srcImage1,contours1,hierarchy,0,CV_CHAIN_APPROX_NONE);//没有返回值 
	
	drawContours( lunkuo0, contours0, 0, 255, 1, 8 );
	drawContours( lunkuo1, contours1, 0, 255, 1, 8 );
	
	//通过上面的边缘检测之后,一幅图才能寻找出一个边缘。
	 
	imshow("lunkuo0",lunkuo0);
	imshow("lunkuo1",lunkuo1);
	
	double result;
	
	result=matchShapes(contours0[0],contours1[0],1,0);
	//比较方法的宏定义有三个,只是这里竟然输入的是边缘数组,而不是二值化图像,1,2,3 
	//使用这种方法,比较结果不能提钱限定只能从总的比较结果中选取一个最小的 
	cout<<result<<endl;
	waitKey(0);
}

/*matchTempate()模版匹配到的使用*/
//计算一个二维矩阵中最大值最小值,以及他们的位置

minMaxLoc(	//取出矩阵中最大最小值  
    const CvArr* arr,//目标矩阵  
    double* min_val,//最小值  
    double* max_val,//最大值  
    CvPoint* min_loc = NULL,//最小值位置  
    CvPoint* max_loc = NULL,//最大值位置  
    const CvArr* mask = NULL//掩膜,以便做区域操作
);  

int main()
{
	Mat srcImage=imread("zong.jpg");
	Mat temp=imread("ling.jpg");
	
	int srcw=srcImage.rows,srch=srcImage.cols,tempw=temp.rows,temph=temp.rows;
	int resultw=srcw-tempw+1;//储存匹配结果的矩阵,按照上述原理,应该的长度和宽度就是这样
	int resulth=srch-temph+1;
	Mat result(resultw,resulth,CV_8U,Scalar::all(0));
	//结果矩阵,保存着匹配信息,估计之后需要能够对矩阵计算的相关函数 
	matchTemplate(srcImage,temp,result,1);
	//这个函数类型为void,
	//使用一个与temp大小的框,遍历原图像,然后对比temple(对比方法6中) 
	//有6种比较计算方法,估计也是计算矩,不同的方法,result中值的大小意义不同

	double min,max;
	Point minpoint,maxpoint,rightpoint;
	minMaxLoc(result,&min,&max,&minpoint,&maxpoint,Mat()); 
	//查找矩阵中最大值最小值,及其他们的位置 
	
	rightpoint=minpoint;//使用了第一种方法,最小值表示最相似 
	rectangle(srcImage,rightpoint,Point(rightpoint.x+tempw,rightpoint.y+temph),Scalar(0,0,255));
	//画矩形函数,输入图像,座上,右下点,颜色(使用了构造函数,构造了一个每名的量)
	 
	imshow("jieguo",srcImage);
	waitKey(0);
}

//上面的版本只能实现在众多图像中匹配一个最相似的结果,并不能识别
//比模版大的相似对象(由匹配原理),后者,多个与模版大小相同(只能圈出一个最相似的,识别多个需要设计,视频的最后一节)
//由于这个方法并不能很好的实现刀闸的识别,所以,识别多个的项目就先放一放

/*2017-2-13*/
/*
仿照houghcircles的思想改写的检测圆形曲线,但结果似乎并不好,发现大多说的图像经过处理后
半径很小的圆,往往峰值很大,这也学是因为半径越小,其边缘越能近似到同一个(半径)圆心
半径大的,却能近似到几个有那么一点点差别的圆心,从而导致峰值分散,不能与半径小的圆相比 
*/
int main()
{
	Mat src=imread(".//刀闸图片//data.jpg");
	int radius=50;//定义半径范围 
	float interval=1;//定义角度范围 
	
	Mat result;
	src.copyTo(result);
	
	cvtColor(src,src,CV_RGB2GRAY);
	GaussianBlur(src,src,Size(3,3),0);
	Canny(src,src,100,250);
	 
	imshow("src",src);
	//三维矩阵,下标为各种圆(不同半径时以各个像素为圆心),值代表有多少像素点在它上面 
	vector<vector<vector<int> > > count(radius,vector<vector<int> >(src.rows,vector<int>(src.cols)));
	//只知道这样创建不知道为什么?
	
	
	int x0,y0;
	for(int k=1;k<radius;k++){
	
		for(int i=0;i<src.rows;i++){
			for(int j=0;j<src.cols;j++){
				
				unsigned char color = src.at<uchar>(i,j);
				
				if(color > 0){//如果是前景点 
					for (int theta = 0; theta < (1 / interval) * 360; theta++){
						//计算圆心的方法也是独特,就是图中转换后的圆(以点代圆)
						double t = ( (1 / interval) * theta * CV_PI ) / 180;
						x0 = (int)cvRound(j - k * cos(t));//对一个double型的数进行四舍五入
						y0 = (int)cvRound(i - k * sin(t));
						//计算圆心。k是半径,这里是根据r计算a,b(圆心),因为r有界可做外层循环。
						if (x0 < src.cols && x0 > 0 && y0 < src.rows && y0 > 0){
							count[k][y0][x0]++;
						}
					}
				}
			}
		}
	}
	int max = 0;
	int r = 0;
	int x = 0, y = 0;
	
	for(int k=1;k<50;k++){
		
		for(int i=0;i<src.rows;i++){
			for(int j=0;j<src.cols;j++){
			
				if (count[k][i][j] > max){
					max = count[k][i][j];
					x = j;
					y = i;
					r = k;
				}
				
			}
		}
	}

	cout << x << endl;
	cout << y << endl;
	cout << r << endl;
	cout<<"峰值"<<max<<endl;
	
	Point point;
	point.x = x;
	point.y = y;
	//画圆
	circle(result, point, r, Scalar(0, 0, 255));
	
	imshow("yuan",result);
	waitKey(0); 
	return 0;
}

/*霍夫圆检测函数*/ HoughCircles(src,circles,CV_HOUGH_GRADIENT,1,3,100,45,0,0);
	//8位图,存储变量,检测方法,步长(确定累加器的大小,越大,累加器空间越小)
	//圆心之间可合并的最大距离,canny检测因子,判断累加器阈值大小已确定那些点是圆心
	//半径的最小,最大
	//总之效果并不好用 
	vector<Vec3f> circles;

	HoughCircles(src,circles,CV_HOUGH_GRADIENT,1,3,100,45,0,0);
	
	for(int i=0;i<circles.size();i++){
		Point center(cvRound(circles[i][0]),cvRound(circles[i][1]));
		int radius = cvRound(circles[i][2]);
		//绘制圆心 
		circle(result,center,3,Scalar(0,0,255),-1,8,0);
		//绘制轮廓
		circle(result,center,radius,Scalar(155,50,255),3,8,0); 
		
	}
	cout<<circles.size()<<endl;
	
	
/*直线检测*/

	Mat src=imread(".//刀闸图片//01.jpg",1);//"./"此文件夹 
	
	Mat edg;
//霍夫直线检测,可以检测出直线,,,,,转换了参数空间
	Canny(src,edg,50,100); 
	imshow("edg",edg);
	vector<Vec4i> lines; 
	HoughLinesP(edg,lines,1,CV_PI/180,150,50,10);	
//输入二值化图像,存储空间,(转化后)半径的步长,角度的步长,阈值(待定直线),
//最小直线阈值(小于该值,则不被认为是一条直线),阈值(两条直线间隙大于该值,则被认为是两条线段,否则是一条。) 
	for(int i=0;i<lines.size();i++){ //这种使用方法要学会 
		Vec4i l=lines[i];
		line(src,Point(l[0],l[i]),Point(l[2],l[3]),Scalar(0,0,255));
	}
	imshow("jieguo",src);
	
	
	
	
/*2017-2-15*/
/*Moravec角点检测算法*/
//输入二值化图像,存储角点坐标指针,角点阈值(有计算方式确定)
int getMoravec(Mat& src,Point* corners , float threshold)  
{  
    int winsize=5;//窗口的大小 即 5*5 win[5,5]  
    int halfwinsize=winsize/2;  
    Mat diffDst(src.size(),CV_32FC1,Scalar::all(0));  

    int conersCount=0;  
    int x,y;  
 
    for (y=halfwinsize ; y<src.rows-halfwinsize ; y++)//先y(行),每次移动一个像素
    {  
        for (x=halfwinsize;x<src.cols-halfwinsize; x++)//后x(列),从第一个浮动框的中点开始  
        {  
            float reaction[4],minVal;
  
            reaction[0]=0;  
            reaction[1]=0;  
            reaction[2]=0;    
            reaction[3]=0;//应该是记录四个方向的差值  
          
            int i;  
//在我们的算法中,(u,v)的取值是((1,0),(1,1),(0,1),(-1,1).//上半平面,每隔45度,取一个角
//当然,你自己可以改成(1,0),(1,1),(0,1),(-1,1),(-1,0),(-1,-1),(0,-1),(1,-1) 8种情况
            //0  
            for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
            {//当然要加,要计算所有框内的差值平方和
			
                reaction[0]+= pow(src.at<uchar>(y,x+i)-src.at<uchar>(y,x+i+1),2);  
            }  
  
            //45  
            for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
            {  
                reaction[1]+= pow(src.at<uchar>(y+i,x+i)-src.at<uchar>(y+i+1,x+i+1),2);  
            }  
  
            //90  
            for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
            {  
                reaction[2]+= pow(src.at<uchar>(y+i,x)-src.at<uchar>(y+i+1,x),2);  
            }  
  
            //-45  
            for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
            {  
                reaction[3]+= pow(src.at<uchar>(y+i,x-i)-src.at<uchar>(x-i-1),2);  
            }  
  
            //-----------------------------  
            //取最小值  
          
            minVal=reaction[0];  
            minVal=reaction[1]<minVal?reaction[1]:minVal;  
            minVal=reaction[2]<minVal?reaction[2]:minVal;  
            minVal=reaction[3]<minVal?reaction[3]:minVal;  
  
			//将最小值保存在准备好的模版中,且与原图对应像素
            diffDst.at<float>(y,x)=minVal;  
        }  
    }
  
	//获取角点坐标  判断当前点的局部极大值!!! 对对 局部区域最大值
    for (y=halfwinsize;y<src.rows-halfwinsize;y+=halfwinsize){  
        for (x=halfwinsize;x<src.cols-halfwinsize;x+=halfwinsize){  
            
			float max=0;  
            int flag=0;  
            Point maxLoc;//保存最大值的位置
            maxLoc.x=-1;//初始化
            maxLoc.y=-1;
			//在局部区域里面找最大值!
            for (int winy=-halfwinsize;winy<halfwinsize;winy++){  
                for (int winx=-halfwinsize;winx<halfwinsize;winx++){  
                    float value;
					
                    value= diffDst.at<float>(y+winy,x+winx);//取像素点的值
                    
					if (value>max){
                        max=value;
                        flag=1;//存在候选角点,还没设置阈值
                        maxLoc.x=x+winx;  
                        maxLoc.y=y+winy;
                    }  
  
                }  
            }
  
            if (flag==1 && max>threshold){  
                corners[conersCount].x=maxLoc.x;  
                corners[conersCount].y=maxLoc.y;  
                conersCount++;  
            }  
  
        }  

    }
    return conersCount;  
}

/*2017-2-17*/
/*
.h文件,与相应的.cpp文件的使用
感觉只能在项目文件中使用这种方法两节两个.cpp文件(主文件通过.h使用另一个.cpp )
1、原理上并不要求这两个文件(.h .cpp)同名,但为了使用方便,一半设置为同名
2、.cpp里可以只用各种函数,没有主函数,因为在一个整体中只要又一个函数入口就行了
3、但是即使是非主的.cpp文件也需要他自己编译通过所需的库的头文件引用
4、根据文本替代远离的.h文件在主文件的位置也有讲究,例如若.h文件中使用了Mat,
那么他在主文件中的位置须在命名空间的后面,
不然,根据文本替代原理,编译器不会识别.h文件中的陌生符号
*/


/*输出字符到文本文件*/
#include <fstream>

	ofstream outfile("data.txt");//打开
	outfile<<"下标从小到大";
	for(int i=0;i<256;i++){
		outfile<<","<<(int)result[i];
	}
	outfile.close();关闭

	
/*可视化编程,滑动小框*/
for(int i=0;i<contours.size();i++){
		for(int j=0;j<contours[i].size();j++){
		
				int x,y;
				x=contours[i][j].x; 
				y=contours[i][j].y;
				int sum[2];
				
				//则以此点为中心,考察一个框 
				Mat temp;
				src.copyTo(temp);
				circle(temp, Point(x,y),round,Scalar(255));
				imshow("temp",temp);
				waitKey(100);
		}
	}
	

//Point像素点坐标访问,X是横向的坐标轴是
//at(i,j),矩阵数据访问,i是行号

	Point point(10,100);
	srcImage.at<uchar>(point.x,point.y)=255;//x,y==>行,列 
	cout<<point.x<<" "<<point.y<<endl;
	srcImage.at<uchar>(50,100)=255;//同上,先行后列 
		//这种用法很特殊,,似乎自己做了转换
	point.x=20;
	point.y=100;
	srcImage.at<uchar>(point)=255;//这样使用x,y就代表  列,行了 
	
	Mat m=Mat::zeros(200,200,CV_8UC3);
	Point point(10,100);
	circle(m,point,1,Scalar(0,0,255));//使用point的数据,x列,y行 
	circle(m,Point(20,100),1,Scalar(0,0,255));//同上,x列,y行 
	cout<<point.x;//或者说对于Point来讲,point.x就是cols 
	
	m.at<Vec3b>(10,100)[2]=255; //因为这里(i,j)并不是代表像素点的坐标,而是cols号 
	
	
	imshow("jieguo",m);
	
	
//多边形逼近
   
	Mat lunkuo=Mat::zeros(srcImage.size(),CV_8UC3);  //绘制 
	vector<Vec4i> hierarchy;  
	vector< vector<Point> > contours;

	findContours(srcImage,contours,hierarchy,0,CV_CHAIN_APPROX_NONE);//没有返回值 
	vector<vector<Point> > approxPoint(contours.size()); 
	 
    for (int i = 0; i < (int)contours.size(); i++){  
        approxPolyDP(contours[i], approxPoint[i], 3, true);  
    }  
  
	for(int i=0;i<approxPoint.size();i++){
        drawContours(lunkuo, approxPoint, i, Scalar(255, 255, 255), 1);
    }
    imshow("black",lunkuo);
	
//角度计算
double=atan(y/x);
//计算在不在圆里面,是带入公式
{x1-x}^2+{y1-y}^2==r



/*2017-2-18*/
/*卷积*/
//有的图像处理方法是把象素的颜色(灰度)值变换为周围图像颜色(灰度)值的调和(周围象素颜色(灰度)值乘以一个权重值求和,效果会使得图像效果变得朦胧),这个过程也符合卷积的物理意义(一组值乘以他们相应的“权重”系数的和),所以这个处理也被称为卷积。


/*2017-2-19*/
/*
1、关于h文件的引用,没主函数的cpp文件也需要引入相关的系统库,才能通过编译
or*///将所有需要的引入库都写在这里h文件中是可以的,,但,,  
//不将所有的库都写在这里的原因是,
//并不知道那个函数所需要引入那个库,
//倒不如,每个函数的库,他自己负责引入  
//这里这样写只是证明这样写是可以的,并不建议这样写!

/**.h文件*/
#include <iostream>  
#include <string>  
#include <list>  
#include <vector>  
#include <map>  
#include <stack>
#include <opencv2/opencv.hpp>
#include <iostream>

using namespace std;
using namespace cv;

Scalar icvprGetRandomColor();
void icvprCcaByTwoPass(const Mat& _binImg, Mat& _lableImg);
void icvprCcaBySeedFill(const Mat& _binImg, Mat& _lableImg);
void icvprLabelColor(const Mat& _labelImg, Mat& _colorLabelImg);

/*
2、防止h文件引用自己
*/

/*2017-2-20*/
//goodFeatureToTrack()函数

/*
1、//eig是最小特征值矩阵,并不是二值化矩阵,对其膨胀效果不同
//默认用3*3的核膨胀,膨胀之后,除了局部最大值点和原来相同,其它非局部最大值点被 
//3*3邻域内的最大值点取代,如不理解,可看一下灰度图像的膨胀原理
dilate( eig, tmp, Mat() );

2、Size imgsize = image.size(); //?还有这个类型?!

3、vector<const float*> tmpCorners;  //这里使用指针,是要访问他在内存中的真正地址,?指向浮点数的地址?

4、//size_t类型  
//而数组下标的正确类型则是size_t,是标准C库中定义的一种类型,应为unsigned int
size_t i, j

5、eig.data
返回eig内存块的首地址?还有eig.data这样的使用法? 
角点在原图像中的行?eig.step也许是一行的大小吧? 
*/
oid cv::goodFeaturesToTrack(InputArray _image, 
							OutputArray _corners,  
                            int maxCorners, 
							double qualityLevel, 
							double minDistance,  
                            InputArray _mask, 
							int blockSize,  
                            bool useHarrisDetector, 
							double harrisK 
							)  
{
    //如果需要对_image全图操作,则给_mask传入cv::Mat(),否则传入感兴趣区域  
    Mat image = _image.getMat(), mask = _mask.getMat();    
  
    CV_Assert( qualityLevel > 0 && minDistance >= 0 && maxCorners >= 0 );  //对参数有一些基本要求  
    CV_Assert( mask.empty() || (mask.type() == CV_8UC1 && mask.size() == image.size()) );  
  
    Mat eig, tmp;   //eig存储每个像素协方差矩阵的最小特征值,tmp用来保存经膨胀后的eig
					//?协方差矩阵 大概就是可以表征角的特点的一个矩阵吧?
					//?注意计算完之后,eig就变成float类型的了?					
    if( useHarrisDetector )  
        cornerHarris( image, eig, blockSize, 3, harrisK ); //blockSize是计算2*2协方差矩阵的窗口大小,sobel算子窗口为3,harrisK是计算Harris角点时需要的值  
    else
        cornerMinEigenVal( image, eig, blockSize, 3 );  //计算每个像素对应的协方差矩阵的最小特征值,保存在eig中  
  
    double maxVal = 0;  
    minMaxLoc( eig, 0, &maxVal, 0, 0, mask );   //只有一个最大值(最小值)没保存,maxVal保存了eig的最大值  
    threshold( eig, eig, maxVal*qualityLevel, 0, THRESH_TOZERO );  
	//阈值设置为  maxVal乘以qualityLevel(图像质量水平),
	//大于此阈值的保持不变,小于此阈值的都设为0   

	//eig是最小特征值矩阵,并不是二值化矩阵,对其膨胀效果不同
	//默认用3*3的核膨胀,膨胀之后,除了局部最大值点和原来相同,其它非局部最大值点被 
	//3*3邻域内的最大值点取代,如不理解,可看一下灰度图像的膨胀原理
    dilate( eig, tmp, Mat() );  //tmp中保存了膨胀之后的eig,?保存膨胀之后的干什么?
  
    Size imgsize = image.size(); //?还有这个类型?!

    vector<const float*> tmpCorners;  //存放粗选出的角点地址,?指向浮点数的地址?
	//这里使用指针,是要访问他在内存中的真正地址
   
    for( int y = 1; y < imgsize.height - 1; y++ )//从第二行开始,到倒数第二行  
    {  
        const float* eig_data = (const float*)eig.ptr(y);  //获得eig第y行的首地址 
        const float* tmp_data = (const float*)tmp.ptr(y);  //获得tmp第y行的首地址  
        const uchar* mask_data = mask.data ? mask.ptr(y) : 0;  

        for( int x = 1; x < imgsize.width - 1; x++ ){  
            
			float val = eig_data[x];  
            
			if( val != 0 && val == tmp_data[x] && (!mask_data || mask_data[x]) )  
				//val == tmp_data[x]说明这是局部极大值
                tmpCorners.push_back(eig_data + x);  
				//保存其位置 		?eig_data已经是y行首地址了? 
        } 
    }  
  
    //-----------此分割线以上是根据特征值粗选出的角点,我们称之为弱角点----------//  
  //----------此分割线以下还要根据minDistance进一步筛选角点,仍然能存活下来的我们称之为强角点----------//  
	//tmpCorners,数组  保存弱角点的 内存像素地址
    sort( tmpCorners, greaterThanPtr<float>() );  //按特征值降序排列,注意这一步很重要,后面的很多编程思路都是建立在这个降序排列的基础上 
  
	vector<Point2f> corners;
	
	//size_t类型  
	//而数组下标的正确类型则是size_t,是标准C库中定义的一种类型,应为unsigned int
    size_t i, j, total = tmpCorners.size(), ncorners = 0;

    //下面的程序有点稍微难理解,需要自己仔细想想
	//minDistance是传入参数	
    if(minDistance >= 1){  
        int w = image.cols;  
        int h = image.rows;  
  
        const int cell_size = cvRound(minDistance);   //向最近的整数取整  

    /*	这里根据cell_size构建了一个矩形窗口grid(虽然下面的grid定义的是vector<vector>,而并不是我们这里说的矩形窗口,但为了便于理解,还是将grid想象成一个   grid_width*grid_height 的矩形窗口比较好),
	
	除以cell_size说明grid窗口里相差一个像素相当于_image里相差minDistance个像素,至于为什么加上cell_size - 1后面会讲
	*/
        //w,h是整个图像的,所以grid_width的大小也是对于整个图像的
		const int grid_width = (w + cell_size - 1) / cell_size;   
        const int grid_height = (h + cell_size - 1) / cell_size;  
		
		//vector里面是vector,grid用来保存获得的强角点坐标,?注意grid中保存的是坐标,但为什么是Point2f?
        std::vector<std::vector<Point2f> > grid(grid_width*grid_height);
		
        minDistance *= minDistance;//平方,方面后面计算,省的开根号  
  
        for( i = 0; i < total; i++ ) // 刚刚粗选的弱角点,都要到这里来接收新一轮的考验  
        {  
            int ofs = (int)( (const uchar*)tmpCorners[i] - eig.data );  //tmpCorners中保存了角点的地址,eig.data返回eig内存块的首地址?还有eig.data这样的使用法? 
			
            int y = (int)(ofs / eig.step);   //角点在原图像中的行?eig.step也许是一行的大小吧?  
            int x = (int)((ofs - y*eig.step)/sizeof(float));  //在原图像中的列  
  
            bool good = true;//先认为当前角点就是强角点  
  
            int x_cell = x / cell_size;//x_cell,y_cell是角点(y,x)在grid中的对应坐标  
            int y_cell = y / cell_size;//全部图像分成若干个 grid,,这个x_cell,y_cell处于的grid的坐标  
			
			//现在知道为什么前面grid_width定义时要加上cell_size - 1了吧,这是为了使得(y,x)在grid中的4邻域像素都存在,也就是说(y_cell,x_cell)不会成为边界像素 // (y_cell,x_cell)的4邻域像素  
            int x1 = x_cell - 1;  
            int y1 = y_cell - 1;  
            int x2 = x_cell + 1;    
            int y2 = y_cell + 1;  
  
            // boundary check,再次确认x1,y1,x2或y2不会超出grid边界  
            x1 = std::max(0, x1);  //比较0和x1的大小  
            y1 = std::max(0, y1);  
            x2 = std::min(grid_width-1, x2);  
            y2 = std::min(grid_height-1, y2);  
  
            //记住grid中相差一个像素,相当于_image中相差了minDistance个像素  
            for( int yy = y1; yy <= y2; yy++ ){ // 行  
                for( int xx = x1; xx <= x2; xx++ ){  //列  
                  
                    vector <Point2f> &m = grid[yy*grid_width + xx];  //grid中元素的是Point2f引用  
					
					//如果(y_cell,x_cell)的4邻域像素,
					//也就是(y,x)的minDistance邻域像素中已有被保留的强角点
					
                    if( m.size() ){//m指向一个坐标点                
                        for(j = 0; j < m.size(); j++){   //当前角点周围的强角点都拉出来跟当前角点比一比  
                         
                            float dx = x - m[j].x;  
                            float dy = y - m[j].y;  
               //注意如果(y,x)的minDistance邻域像素中已有被保留的强角点,则说明该强角点是在(y,x)之前就被测试过的,又因为tmpCorners中已按照特征值降序排列(特征值越大说明角点越好),这说明先测试的一定是更好的角点,也就是已保存的强角点一定好于当前角点,所以这里只要比较距离,如果距离满足条件,可以立马扔掉当前测试的角点
			   
			   //也就是在一定范围内,只保留一个角点,就是强角点,只不过这里用的转变思想很好啊
                            if( dx*dx + dy*dy < minDistance ){ 
								good = false;  
                                goto break_out;  
                            }  
                        }  
                    }  
                }   // 列  
            }    //行  
  
            break_out:  
  
            if(good)  
            {  
                // printf("%d: %d %d -> %d %d, %d, %d -- %d %d %d %d, %d %d, c=%d
",  
                //    i,x, y, x_cell, y_cell, (int)minDistance, cell_size,x1,y1,x2,y2, grid_width,grid_height,c); 
				
                grid[y_cell*grid_width + x_cell].push_back(Point2f((float)x, (float)y));  
				//再从grid中转变会原来图像中的坐标点
				
                corners.push_back(Point2f((float)x, (float)y));  
                ++ncorners;  
  
                if( maxCorners > 0 && (int)ncorners == maxCorners )  //由于前面已按降序排列,当ncorners超过maxCorners的时候跳出循环直接忽略tmpCorners中剩下的角点,反正剩下的角点越来越弱  
                
				break;  
            }  
        }  
    }  
    else    //除了像素本身,没有哪个邻域像素能与当前像素满足minDistance < 1,因此直接保存粗选的角点  
    {  
        for( i = 0; i < total; i++ )  
        {  
            int ofs = (int)((const uchar*)tmpCorners[i] - eig.data);  
            int y = (int)(ofs / eig.step);   //粗选的角点在原图像中的行  
            int x = (int)((ofs - y*eig.step)/sizeof(float));  //在图像中的列  
  
            corners.push_back(Point2f((float)x, (float)y));  
            ++ncorners;  
            if( maxCorners > 0 && (int)ncorners == maxCorners )    
                break;  
        }  
    }  
  
    Mat(corners).convertTo(_corners, _corners.fixedType() ? _corners.type() : CV_32F);  

}  



/*
使用Harris()函数找角点

1、还是使用轮库图查找效果明显一点,只是为什么平滑区域,检测出来的值这么大
2、首先使用normlize()函数,将float的矩阵归一化到0-255 float(),
	convertScaleAbs在转化到CV8U,减少了之后的计算量
3、根据赋值 = -数 的原理想  +=才是另一种 
*/


#include "harris2.h"

/*
对输入的图像使用Harris检测,src
之后对于设置的局部框进行抑制,thresh
减少了连续角点的出现
*/ 
void cornerHarris_demo( Mat& src,int size, int thresh)  
{  
  Mat dst, dst_norm;  
  dst = Mat::zeros( src.size(), CV_32FC1 );  
  
  //harris函数的参数设置 
  int blockSize = 3;  
  int apertureSize = 3;  
  double k = 0.04;  
  
  /// Detecting corners  
  cornerHarris( src, dst, blockSize, apertureSize, k, BORDER_DEFAULT );  
  
  ///这一步仅仅是为了好让其能够转换成到CV8U  
  normalize( dst, dst_norm, 0, 255, NORM_MINMAX, CV_32FC1, Mat() );
	//归一化函数,结果仍是float型    
	convertScaleAbs(dst_norm,dst_norm,1,0); 
	
	imshow("dst_norm",dst_norm);
	
	
	Mat show=Mat::zeros(src.size(),CV_8UC3);
	vector<vector<Point> > contours;
	vector<Vec4i> hierarchy;
	findContours(src, contours, hierarchy, 0, CV_CHAIN_APPROX_NONE);	
	drawContours(show, contours, -1, Scalar(255,255,255), 1, 8, hierarchy);
  
 
//根据Harris函数计算得到的矩阵,进行阈值判断 
//	for( int j = 0; j < dst_norm.rows ; j++ ){ 
//		for( int i = 0; i < dst_norm.cols; i++ ){
//            if( (int) dst_norm.at<float>(j,i) > thresh ){  
//               circle( show, Point( i, j ), 1,  Scalar(0,0,255));  
//            }  
//        }  
//	}


	//另一个版本的阈值抑制 
	//(20*20)的窗口 
	//设定局部抑制时的窗口,也就是21的窗口有一个极大值点并且设定,变相的减少连续点 
	//同时进行阈值抑制 
	for( int i = size ; i < dst_norm.rows-size ; i+=size ){ 
		for( int j = size ; j < dst_norm.cols-size ; j+=size ){
            int max=0;
            Point point;
            
			for(int u = -size;u<size;u++){//根据赋值 = -数 的原理想  +=才是另一种 
            	for(int v =-size;v<size;v++){
            		
					if(max < dst_norm.at<uchar>(i+u,j+v)){
            			max = dst_norm.at<uchar>(i+u,j+v);
            			point.y = i+u;
            			point.x = j+v;
            			
					}	
				}
			}
			if(max > thresh) circle( show, point, 1,  Scalar(0,0,255) );  
        }
	}
	
  //画出角点  
	imshow( "result", show );  
}  

/*2017-3-17*/

//加一个括号 初始化为零
bufferGray2= new uchar[m_width*m_height]();

/*2017-3-28*/
/*CvTermCriteria  迭代算法的终止准则  */
#define CV_TERMCRIT_ITER    1  
#define CV_TERMCRIT_NUMBER  CV_TERMCRIT_ITER  
#define CV_TERMCRIT_EPS     2  
  
typedef struct CvTermCriteria  
 {  
  int    type;  /* CV_TERMCRIT_ITER 和CV_TERMCRIT_EPS二值之一,或者二者的组合 */  
  int    max_iter; /* 最大迭代次数 */  
  double epsilon; /* 结果的精确性 */  
 }
 
 //得尽快将opencv 的矩阵的使用方法熟悉
 	//1、指定随机数种子
	RNG rng(100);
	rng.fill
	//2、从整个数据集中取出前[0,89]行
	//注:*Range的范围是[a,b)
	Mat trainClass = trainData.rowRange(0,nLinearSamples);
	//取出第一列
	Mat c = trainClass.colRange(0,1);
	
	
	
	
//2017-4-6
//使用canny算子,在查找轮廓,会造成轮廓数据混乱,每个轮廓会走两遍,并且有差别 
Canny(srcImage,srcImage,100,250);
	
    
    
//2017-12-12
积分直方图:http://blog.csdn.net/linear_luo/article/details/52725358
梯度直方图:https://www.leiphone.com/news/201708/ZKsGd2JRKr766wEd.html

  

原文地址:https://www.cnblogs.com/kanuore/p/8059054.html