遥感影像显示相关的技术总结

遥感影像显示相关的技术总结

前言

    从事遥感影像和图像处理有一段时间了,今天就把遥感影像显示相关的技术和大家分享一下。

    寻常我们用的GIS软件或者说遥感软件都能讲遥感影像的数据显示在屏幕上。而且有些显示效果还不错,当中ENVI的显示效果是业界做得比較好的,尤其是ENVI5.0之后的大视图。能够依据真彩色的波段自己主动选择波段进行显示。遥感影像显示事实上就是图像显示,和我们生活中常见的图像显示没有太大差别。基本上原理是一样的。但也有自己独特的地方,之后会讲到。首先,我们来看看图像显示的基本过程,即图像是怎么显示在计算机屏幕上的。

1、影像显示基本过程

    首先,CPU从存储介质中读取数据。存储介质能够是本地磁盘、移动存储设备以及远程server。然后将数据存储在内存缓冲区里面,然后读数器将这里面的数据依据彩色查找表转换为RGB的形式。

然后模数转换器将RGB形式的数据值转换为适当的电信号,这样就得到模拟信号。该模拟信号调整RGB电子枪的强度,控制着每一个像素在视频CRT屏幕上显示的亮度。

1.1全色显示(灰度显示)

    比方我们的遥感影像数据源,有非常多数据时全色波段,比如高分一号的全色波段就是2米分辨率的,那么这个数据时怎样显示在屏幕上?假设数据时8位的,即byte型,那么能够做拉伸也能够不用拉伸直接显示在屏幕上。

这里就须要用到8位的图像处理器,它是一个8位连续的256个元素的查找表,而且RGB每一个分量都是同一个值。比方黑色就是RGB(0,0,0)白色就是RGB(255,255,255)。最后通过数模转换显示在屏幕上。

1、2彩色显示

    说到彩色显示,可能更复合我们人眼的观察。分辨的能力更强。

彩色显示主要用两种方案,一种是电子显示法。在数字图像显示中主要用这样的方法。它是用彩色监视器显示,有时候将这样的显示叫做软拷贝。第二种是用彩色硬拷贝设备进行显示。这样的显示方法主要用再印刷中,通常须要将RGB颜色空间转换到CYMK颜色空间。这样的显示不在我们的讨论范围之内。

    对于遥感影像。假设选择的波段与RGB是一一相应的,那么显示出来的效果即为真彩色效果。接近于人类肉眼观察到的效果。假设输入波段与RGB不相相应,那么僵产生假彩色效果,就和我们人眼观察的效果有较大差别。

2、图像的拉伸

    图像拉伸主要是增强图像的显示效果,假设图像的对照度比較低。那么就无法看清楚地物,这时须要拉伸。

另外一个方面。对于非8位的数据,我们一般也做拉伸处理后再显示。

一般的拉伸有线性拉伸和非线性拉伸两种方法。

    线性拉伸主要有全域线性拉伸,分段线性拉伸等。详细有最大-最小值拉伸、标准差拉伸。非线性拉伸主要有指数拉伸。对数拉伸等。

对于多波段的遥感影像。通常是将各个波段分别拉伸后,然后进行波段组合后显示。

3、编程方面的一些细节

3.1影像IO   

    对于遥感影像的读取,绝对推荐GDAL来做,你自己来解析的话非常累。在某些须要提高IO速度的地方能够先将数据转储为一个裸数据,然后通过内存映射文件的方式来做,这样的效率非常高。须要注意的一个地方是每次映射的时候要分块映射。在windows系统中,系统分配的粒度是64k,能够每次映射这么大的数据。分多次映射,每次映射的起始偏移量必须是64k的整数倍。偏移量是以字节为单位。

3、2关于拉伸的实现

首先是最大最小值拉伸,先在原始影像中统计最大最小值。最大和最小值拉伸的代码例如以下:

void MinMaxStreh(unsigned char* poData,int nLen,double dbMin,double dbMax)
{
	#pragma omp parallel for
	for (int i = 0;i < nLen; i ++)
	{
		poData[i] = double(poData[i]-dbMin)/(double)(dbMax-dbMin) * 255;

	}
}


第二种比較经常使用的拉伸方法是标准差拉伸,这样的拉伸方法实际上也是最大最小值拉伸,仅仅只是在拉伸强须要先将最大最小值计算出来。

代码例如以下:

//图像的标准差拉伸
template <typename T>
void StandDevStreh(const T* poData,unsigned char* puBytes,int nLen,double dbDev,int nDevCount,double dbMean)
{
	#pragma omp parallel for
	for (int i = 0;i < nLen; i ++)
	{
		double ucMax  = dbMean + nDevCount * dbDev;
		double ucMin  = dbMean - nDevCount * dbDev;

		if (poData[i] < ucMin)
		{
			puBytes[i] = 0;
		}

		else if (poData[i] > ucMax)
		{
			puBytes[i] = 255;
		}

		else if (poData[i] >= ucMin && poData[i] <= ucMax)
		{
			puBytes[i] = double(poData[i]-ucMin)/(double)(ucMax-ucMin) * 255;
		}

	}
}

    这里的拉伸都须要对原始影像做统计,假设是对整个波段的原始数据逐个统计,假设图像非常大的话。速度绝对的慢,那么能够将原始影像的数据读到一个256*256的缓冲区里面或者512*512的缓冲区,也能够依照比例缩放。比方X方向上定死512个像素。那么Y方向的像素的个数就能够依据原始影像波段的高度和宽度之比来计算得到。通过一个小的缓冲区统计出来的值和原始数据统计出来的值差别非常小,由于是对原始影像的抽样,概率密度分布基本上是一样的。

3.3、关于影像黑边的显示处理

影像黑边的话。能够默认显示。也能够将它过滤掉,比方将黑边显示为白色。其效果例如以下:


有黑边的显示



无黑边的显示

3.4、关于和矢量数据的叠加

    这个须要注意的是要依据地理坐标进行计算显示的像素范围。

首先将屏幕当前显示的地理范围和影像的地理范围求交集,然后将这个交集映射到影像的行列号。即能够取到数据进行显示了。

待显示的数据缓冲区大小是地理范围求交集所占的屏幕像素的大小。

详细能够參考我的另外一篇博客:http://blog.csdn.net/zhouxuguang236/article/details/21882801

3.5、关于优化显示效果

    这里讲一讲怎样处理影像黑边对波段统计结果的影像。假设将黑边统计进去。然后进行拉伸的话,势必会对影像的显示效果产生影像,一般影像的黑边是原始数据经过正射校正或者匹配校正后产生的,总之,对图像进行纠正后都会产生黑边。事实上。校正后的黑边面积比較大,能够依照3.2中提到的方法,进行统计时过滤掉黑边,详细操作能够在进行直方图统计时将比例最大的那一部分看成黑边,然后找到这个值,最后计算均值标准差的时候过滤掉就能够了。这仅仅是我想到的一种方法。有没有更好的方法。敬请期待!

以下两幅图是没有过滤黑边和过滤掉黑边显示效果的对照,明显过滤掉黑边后进行标准差拉伸更接近真彩色效果。


没有对黑边处理的效果



对黑边处理的效果


对照这两幅图。效果明显的是统计时过滤掉黑边的效果较好。


对于过滤掉黑边的统计函数例如以下:

#define TILE_SIZE 256

bool GeoGdalImageLayer::GetBandStatisInfoEx(
	int nChannelIndex, 
	float* pfHist, 
	float& fMax, 
	float& fMin, 
	float& fMean, 
	float& fVar, 
	float fExclude) const
{
	GDALDataset *poDataset = (GDALDataset*)m_poDataset;
	if (NULL == poDataset)
	{
		return false;
	}

	assert(NULL != poDataset);
	int nXsize = poDataset->GetRasterXSize();
	int nYsize = poDataset->GetRasterYSize();
	int pBandList[1] = {nChannelIndex+1};

	int nTileHeight = ( nYsize/float(nXsize) ) * TILE_SIZE;

	float *pBytes = new float[TILE_SIZE*nTileHeight];

	poDataset->RasterIO(GF_Read,0,0,nXsize,nYsize,pBytes,TILE_SIZE,nTileHeight,GDT_Float32,1,pBandList,0,0,0);

	std::vector<float> vecPixels;
	vecPixels.resize(TILE_SIZE*nTileHeight);

	int nCount = 0;
	double dbSum = 0;

	//開始统计
	fMax = DBL_MIN;
	fMin = DBL_MAX;
	for (int i = 0; i < TILE_SIZE*nTileHeight; i ++)
	{
		if (fabs( pBytes[i] - fExclude) <= 0.000001)
		{
			continue;
		}

		else
		{
			if (pBytes[i] <= fMin)
			{
				fMin = pBytes[i];
			}

			if (pBytes[i] >= fMax)
			{
				fMax = pBytes[i];
			}

			dbSum += pBytes[i];
			vecPixels[nCount] = pBytes[i];
			nCount ++;
		}
	}

	//计算均值
	fMean = dbSum/nCount;

	//计算标准差
	dbSum = 0;
	for (int i = 0; i < nCount; i ++)
	{
		dbSum += (vecPixels[i]-fMean)*(vecPixels[i]-fMean);
	}
	dbSum /= nCount;
	fVar = sqrt(dbSum);

	if (pBytes != NULL)
	{
		delete []pBytes;
		pBytes = NULL;
	}
	return 1;
}


3.6、关于影像的自己主动校正显示

    这个曾经有碰到过这个需求,可是眼下还没有实现。比如高分一号数据的自己主动校正显示,SPOT原始数据的自己主动校正显示等。

这个能够再显示前做重採样实现。

4、总结

    以上都是个人总结。如有不妥之处,也请指出来共同探讨。

影像显示的界面框架是QT界面库实现。详细的绘制通过OpenGL来绘制。

事实上说实在的,这个显示效果和ENVI的显示效果差太多了。还得研究ENVI的显示机制。

原文地址:https://www.cnblogs.com/lcchuguo/p/5392168.html