基于Matlab的图像融合算法及研究

 2022-01-17 11:01

论文总字数:15704字

目 录

1绪论 1

1.1课题研究背景及意义 1

1.2常用的图像传感器及特点 1

1.3图像融合的应用 2

2图像融合理论 2

2.1图像融合的分类 2

2.1.1按信息表征层次分类 3

2.1.2按图像源分类 3

2.1.3按融合方法分类 3

2.2图像融合的目的 4

3常用的图像融合方法 4

3.1加权平均图像融合方法 4

3.2IHS空间图像融合方法 5

3.3主成分分析法 6

3.4基于小波变换的图像融合方法 8

3.4.1小波变换基本理论 8

3.4.2小波变换在图像融合的应用 9

3.4.3融合规则 11

3.4.4融合规则改进 11

4图像融合效果评价 12

4.1主观评价 12

4.2客观评价 12

5实验结果及分析 14

6结论 20

参考文献: 20

致谢 22

基于Matlab的图像融合算法及研究

石秋香

,China

Abstract: We fuse two or more image sources into a single image through a series of processes. We call these processes as image fusion. The original image sources describe the same scene. We can get these image sources from a single or a plurality of sensors. We can also get them when the sensors operating under different modes, or at different working time. In this paper, we mainly use MATLAB simulation to compare four image fusion methods, including the weighted average, HIS, PCA, wavelet transform. In this way

, we can analyze advantages and disadvantages of various methods, and analyze the limitations of each method. Then we will know the fields of application of each method, so w-e can get better fusion results in different situations.

Keywords: image fusion, IHS, PCA, Wavelet transform, Matlab

1绪论

1.1课题研究背景及意义

随着现代科技的发展,越来越多领域涉及到计算机、微电子、电子信息等科学技术,传感器技术也因此得到了飞速发展。医学、军事、遥感等常见的重要领域都离不开传感器的应用。由于传感器种类增多、数量增多,系统能获得的关于目标对象的信息量也急剧增多,且这些信息各不相同,十分复杂。多数的应用系统需要实时处理信息,而这些信息的处理量及其运算复杂程度远远超出人脑能力范围,因此只有利用计算机快速准确的数据处理能力才能完成这种大规模运算。不同传感器的主要区别在于其成像原理,针对不同的机理可将它们用于不同的领域和不同的目标对象。另外,处于不同的工作环境下、在不同的时间段,采集到的图像数据也是形式多样的。单一的传感器在一定的工作环境及特定的条件下只能提供有限的、不完整的数据信息量,因此传统单一的传感器模式逐渐被多传感器模式代替了。随着系统的复杂化,信息的处理也变得复杂,出现了很多新问题,因此必须开辟新的方法,研究新技术,来处理多传感器图像以便获得更多有用的信息。在这样的背景下信息融合产生了。信息融合是指从多个级别、多个层次、多个方面来处理信息,从而获得更准确、更全面、更可靠的有用信息。例如:我们可以通过视觉感受来判断某种食品的质量好坏,但是如果能同时结合味觉、嗅觉、触觉以及视觉的综合感受,就能更全方位地感受到食物的质量。

图像融合作为信息融合的一种,是以图像为研究目标。图像融合是指将多个不同传感器或是同种成像传感器在不同工作模式下在同一时间或不同时间获得的某一场景的两幅或多幅图像通过某种特定的算法合成一幅新的图像[1]。单一的传感器在几何、光谱、空间分辨率等方面都存在一定的缺陷,多传感器系统则能通过互相弥补,从而克服这些不足之处[2]。它能将获得的图像的互补信息结合到一起,从而得到单一传感器所不能获得的特征信息,可以扩大传感器系统的工作范围,降低对单个传感器工作的要求,可以获得对目标场景或对象更精确的描述,提高图像空间感知力,增强图像检测和识别的精度,有利于进一步处理分析图像,使图像更适合人类视觉,也使计算机后期检测、识别及理解更容易。

1.2常用的图像传感器及特点

不同的传感器在很多方面存在差异性和局限性,它们有不同的光谱特性、几何特性、空间分辨率特性等。因此能够获得目标对象背景、几何形状、对比度、内部结构、所处地理位置等不同的信息。只有将这些信息全面整合到一起,才能得到全面、准确的信息。下面介绍几类常用的图像传感器,列举各自的特点。

  • 可见光电视机、摄像机:获得的影像对比度信息、颜色信息、几何形状信息丰富。
  • 毫米波雷达:穿透能力强,能够获得目标对象的内部透视结构信息。
  • 合成孔径雷达(SAR):能探测到浅层地下、水下目标。
  • 红外热像仪:能清晰定位热辐射目标的位置。
  • 多光谱、超光谱成像仪:可遥感、遥测环境、气候、地形、海洋、矿产等资源,探测精度可小于1米。
  • 多模态医学成像仪:可获得人体骨组织、软组织、脉管等信息。

1.3图像融合的应用

图像融合技术在许多重要领域都有广泛的应用,主要包括军事、医学、遥感等热门领域,成为不可或缺的一项重要技术,也成为各个行业研究的热点。

  在军事领域,美国是该技术上发展最早的国家。美国对于信息融合、图像融合一直给予高度的重视,自从国防部在海湾战争中体会到巨大潜力后,便在该领域不断增加投入,并在军用领域建立了关于数据融合的系统[3]。作战军队为了获取敌方军队的作战基地、军队动向等各种军事情报,利用多种传感器来获取信息。由于成像原理不同,能过得到敌人背景信息、位置信息等多种情报,从而分析敌人动向。通过图像融合技术快速、实时、准确的综合大量图像情报信息,获得对战场态势有利的有用信息,形成有价值的情报,指挥作战。例如:在夜间指挥作战,或在烟雾中指挥作战等等。在现代战争中,军事方面通常采用战场态势感知技术,而该技术核心正是多传感器图像融合。

在医学领域,现代医学拥有各种不同成像设备,人体不同部位的组织结构可通过这些设备获得,从而快速准确诊断病情。例如:计算机断层成像(CT),能清晰观察骨质等硬组织结构;核磁共振成像(MRI)通常由于人体软组织部分,能显示血管等的软组织结构信息。这是由于不同成像仪对人体不同类型组织结构分辨率不同。单一的医学成像仪器不能获得人体所有组织结构的信息,因此利用图像融合技术将多种来源不同的图像信息结合,有助于疾病的诊断与治疗。

在遥感领域,多传感器图像融合也已被被广泛使用,例如:大地测绘、天气预报、灾情监测、国土规划、植被分类等各个方面。

2图像融合理论

2.1图像融合的分类

一般来说,提取源图像中的有用信息,并将其相互结合,综合到融合图像中是融合的主要目的。但由于应用场合不同、图像来源不同,图像融合的具体要求和具体目的并不完全相同。因此下面从不同的分类角度来介绍图像融合的分类。

2.1.1按信息表征层次分类

  按照信息的表征层次,可将融合分为三个层次。最低层次像素级;中间层次特征级;最高层次决策级[4]

(1)像素级图像融合:在各源图像各像素点一一对应的情况下,对各幅图像的像素,依照某个融合规则,直接对像素点进行信息融合。像素级融合处理由于是基于像素点,因此属于最低的融合层次。其对象是未经预处理的原始数据,如可见光、红外线等原始影像上进行的融合处理。该层次处理能保证丢失最少的信息,准确性最高,因此大部分的关于图像融合的研究热点都集中在这个层次上[5]。本论文也是针对该层次图像融合方法做主要的研究。

(2)特征级图像融合:从源图像中提取边缘、形状、轮廓、纹理、角、相似亮度区域等特征信息,对其进行综合分析及处理。该融合层次中先对目标对象进行特征提取,再对特征域中的表述进行融合,合并这些特征[6]。可见该层次的融合将图像中的重点信息保留了下来,同时信息被压缩。该层次有利于实时处理,但是与像素级图像融合相比,丢失了更多的信息,属于中间层次的融合。

(3)决策级图像融合:该融合方法主要就是要形成一个全局最优决策[7]。该融合过程首先根据每幅源图像对同一目标做出初步判决及结论,再对来自每幅图像的决策进行相关处理,最后进行决策融合。该融合层次最高,但预处理较为复杂,信息丢失最多。

2.1.2按图像源分类

由于图像来源的不同,可将融合分为三类:同类型传感器间的融合得到的图像、异类型传感器获取的图像的融合、遥感图像间的融合[8]

  1. 同类传感器图像融合:对于同一传感器,当其采集信息时,处于不同模式,或处于不同时间点,对这种情况下获得的信息进行融合处理。
  2. 异类传感器图像融合:对有不同成像原理的传感器获得的图像进行融合,例如红外图像与可见光图像、CT图像与MRI图像等等。

(3)遥感图像融合:对遥感图像进行融合。主要包括将多光谱和全色图像间的融合、多光谱与SAR图像间的融合。

2.1.3按融合方法分类

对于像素及图像融合,我们可将之分为两大类:空间域上的图像融合方法、变换域上的图像融合方法。

  1. 基于空间域的图像融合方法:直接在像素的灰度空间融合。例如:加权平均融合法、主成分分析法(PCA)、IHS空间融合方法等等。
  2. 基于变换域的图像融合方法:该方法是转化为对变换系数的融合。源图像经过某种变换后会得到一系列系数,将相对应的系数进行融合,再逆变换即能得到融合图像。如金字塔融合法、小波变换融合法。

2.2图像融合的目的

  1. 降低图像的噪声

  获得的初始图像一般都夹杂噪声,通过图像融合处理,图像噪声能得到降低。

  1. 提高图像的信息量

  将不同图像中的有用信息融合到同一图像中,弥补单一传感器获得信息不全面、信息丢失的缺陷,从而获得更丰富的信息。

  1. 提高清晰度

  在保持图像信息不丢失的同时,使图像细节、纹理特征等信息增强,保持边缘细节,增强原单一传感器图像数据源中不明显的某些特征,提高图像的质量。

  1. 提高分辨率

某些传感器的图像,如红外图像,其分辨率较低,可将之与分辨率高的图像融合,如光学图像,达到提高分辨率的目的。

3常用的图像融合方法

3.1加权平均图像融合方法

加权平均是最简单的图形融合方法。我们选取源图像数为两个,假设图像A和图像B分别为待融合的两幅源图像,融合图像为图像F,则有

           

(3-1)

其中,(m,n)表示图像中某一像素的位置,α、β为权重系数,并且满足

剩余内容已隐藏,请支付后下载全文,论文总字数:15704字

相关图片展示:

您需要先支付 80元 才能查看全部内容!立即支付

该课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找;