【RS】多光谱波段和全色波段的区别 您所在的位置:网站首页 滤光镜头透视原理 【RS】多光谱波段和全色波段的区别

【RS】多光谱波段和全色波段的区别

2023-06-05 00:43| 来源: 网络整理| 查看: 265

1.全色波段(Panchromatic Band)

        全色图像是单通道的(即单波段灰色影像),其中全色是指可见光波段0.38~0.76um(即人们熟知的红橙黄绿蓝靛紫),全色图像是这个波段范围的混合图像。因为是单波段,所以在ENVI中显示为灰度图片,无法进行彩色合成。全色遥感图像由于是采集整个可见光范围内的所有波段,所以一般空间分辨率很高,但无法显示地物色彩,也就是所谓的地物的光谱信息少。如下图所示,得益于其高空间分辨率,地物的纹理特征十分清晰,但由于是单波段成像,没有RGB色彩空间,地物的光谱信息很少。

2.多光谱波段(Multispectral Band)

        多光谱影像是多通道影像。多光谱是指对地物的电磁辐射中多个波段的摄取,得到的影像数据中包含多个波段的光谱信息。对不同的波段分别赋予RGB显示通道,即可得到彩色影象。例如,将红、绿、蓝三个波段的光谱信息分别赋予到R,G,B三个通道,就可以的到真彩色影像。但由于传感器接收电磁辐射时对各个波段进行分光,所以接受到的电磁辐射就会有所损失,导致其空间分辨率降低。如下图所示,对多光谱影像进行真彩色合成后,其地物色彩跟我们人眼观察到的一样,但空间分辨率降低了,影像就看起来很模糊。

3.造成这种区别的原因

        全色图像的采集不需要进行分光处理,它是对整个可见光波段范围进行采集。地物反射的电磁辐射在通过镜头后,被传感器直接接受,从光信号转变成电信号,再被数字量化成灰度,就成为我们在电脑上看到的灰度影像,所以在一定程度上可以说整个过程没有什么损失,故其空间分辨率很高。

        而多光谱波段在被传感器采集之前还需要进行一个分光过程,将混合的白光分解成需要被记录的宽谱段R、G、B和近红外光束,再被传感器接收。在这个过程中,电磁辐射会有一定的损失,呈现到传感器上的总辐射能量就会减少,导致其空间分辨率降低。

参考某些知乎大佬的回答:吴吾务、坐后排的斜杠同志

        1)不同的传感器可能采用不同的分光方式,比如我们日常使用的数码单反,使用了拜尔滤光片,在ccd上加了一层分布着以rgb为组单元的滤光片阵列,最后采集到的数据经过采样就获得最终rgb影像,相应的,他相比不使用滤光片,直接用ccd感应光线的图像,分辨率是下降到1/3左右的。还有是使用分色棱镜,将入射的一束光线分成RGB+ndir四束光线,分别用四个探测器接收,这样的直接结果是能量降低,分辨率也相应下降。

        2)光进入相机镜头,光电感应装置将光信号转换为电信号,量化电脉冲信号,记录为一个像素值。传感器响应函数设计为,要使光电感应装置产生这个电脉冲信号,光子强度必须达到一个阈值。进入镜头的光子数量取决于:相机的感受野大小,镜头能通过的光子。多光谱图像要分出多个波段,镜头会分光,红滤镜只过红光,蓝滤镜只通过蓝光,假设相同的光打到全色与多光谱镜头上,显然因为滤光的缘故,多光谱感光器接收到的光子要少于全色感光器。而这些光子已经足够全色产生电脉冲,却不够多光谱产生电脉冲,这时,为了接收到更多的光子,多光谱相机需要更大的感受野。也就是说,全色看了一眼北京市,就吃够了光子,多光谱需要看一遍河北省,才能吃的和全色一样饱。后面接收光子的底片一样大,也就是说将北京市和河北省画到同样大小的一张纸上且占满整张纸,显然北京市的一张纸细节要多的多,而河北省的红绿蓝三张纸却一片模糊(不黑大河北雾霾了)。

        在实际处理遥感影像时,我们肯定即想要全色波段的高空间分辨率,又想要保留多光谱波段的光谱信息,这就需要我们对影像进行融合操作,图像融合可以使我们同时获得高空间、高光谱分辨率的遥感影像,这个我会在后续分享图像融合的相关原理以及ENVI进行图像融合的方法。

        如果大家在学习RS或者Python时有什么问题,可以随时留言交流!



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有