基于深度学习的超分辨率成像研究

 2022-07-15 02:07

论文总字数:33714字

摘 要

针对单幅图像的超分辨率成像,为了更好地将低分辨率图像转换成高分辨率图像,本文提出了一种基于深度卷积神经网络的超分辨率成像算法。这种深度卷积神经网络通过增加卷积层深度提高了超分辨率成像的效果。本模型采用国际模式识别协会的IAPR TC-12数据集进行训练,采用增加批量归一化层和使用大学习率的方式加快训练速度。本模型使用带有动量的最小批量随机梯度下降法进行训练,防止了损失函数在最小值附近振荡。这种方法通过学习残差的方式克服了可能出现的梯度消失、爆炸的问题。本模型直接学习低分辨率图像和高分辨率图像之间的映射关系。这种映射关系由以低分辨率图像为输入,高分辨率图像为输出的深度卷积神经网络表示。这种网络模型的结构直观,并且可以简单地改变卷积层深度。本文使用MATLAB神经网络工具箱实现了这种超分辨率算法,可以清晰地观察训练过程和利用GPU加快训练速度。MATLAB图像处理工具包测试图像的测试结果表明,这种基于深度卷积神经网络的方法有良好的图像成像质量,并且成像速度快。

关键词:超分辨率,深度卷积神经网络

Abstract

In order to convert low-resolution images into high-resolution ones, an algorithm based on deep convolutional neural network is proposed in this work. This deep convolutional neural network improves the effect of super-resolution by increasing the depth of convolutional layers. The International Association of Pattern Recognition (IAPR) TC – 12 data set is used for training. Batch normalization layers and large learning rate are used to speed up the training. The mini-batch stochastic gradient descent method with momentum is used to training, in order to prevent the loss function from oscillating around the minima. This deep learning model directly learns the mapping relationship between low-resolution images and high-resolution images. This mapping relationship is represented by a deep convolutional neural network with low-resolution images as input and high-resolution images as output. The structure of this network model is intuitive and can simply change the depth of convolutional layer. MATLAB neural network toolbox is used to implement this super-resolution algorithm, which can clearly show the training process and use the GPU to speed up the training. Test results using test images in the MATLAB image processing toolbox show that this method has a good reconstruction quality with a high processing speed.

KEY WORDS: Super-resolution, Deep convolutional neural network

目录

摘要 I

Abstract II

第一章 绪论 3

1.1 超分辨率 3

1.2 研究动机和贡献 4

第二章 背景知识 5

2.1 卷积层简介 5

2.2 卷积层参数与特征图尺寸计算 5

2.2.1 卷积核尺寸选择 5

2.2.2 特征图尺寸计算 5

2.3 批量归一化层 6

2.4 线性整流函数 7

2.5 损失函数 7

2.6 残差学习 7

第三章 训练方法 11

3.1 随机梯度下降法 11

3.2 学习率 11

3.3 最小批量 11

3.4 规则化L2范数 12

3.5 网络深度 12

3.6 训练迭代次数 12

3.7 图像输入层尺寸 13

3.8 放大系数 13

3.9 数据集选用 13

3.10 数据集处理 13

3.11 训练环境 13

3.12 训练模型 14

3.13 训练结果 14

3.13.1 训练过程图像 14

3.13.2 训练结果 15

第四章 测试方法 16

4.1 测试环境 16

4.2 测试数据集 16

4.3 测试指标 16

4.3.1 峰值信噪比 16

4.3.2 结构相似性 17

4.4 测试过程 17

4.5 测试结果 17

4.5.1 结果对比表格 17

4.5.2 结果对比图例 17

4.5.3 测试时间 19

第五章 对比测试 20

5.1 对比测试方法 20

5.2 对比测试数据集 20

5.3 对比测试结果 20

第六章 软件流程 22

6.1 训练主函数 22

6.1.1 获取训练数据集 22

6.1.2 确定最小批量 22

6.1.3 设置网络结构 22

6.1.4 确定训练方法 22

6.1.5 训练神经网络 22

6.2 数据集预处理函数 22

6.2.1 灰度化 22

6.2.2 上采样 22

6.2.3 随机截取 23

6.2.4 扩大数据集 23

6.3 神经网路结构函数 23

6.3.1 设置网络深度 23

6.3.2 网络主体结构 23

6.4 测试函数 23

6.4.1 加载模型 23

6.4.2 加载测试集 23

6.4.3 计算测试指标 23

6.5 指标计算函数 23

6.5.1 灰度化 23

6.5.2 上采样 24

6.5.3 超分辨率 24

6.5.4 指标计算 24

6.6 应用主函数 24

第七章 总结 25

7.1 总结 25

7.2 展望 25

致谢 26

参考文献 27

附录A 28

附录B 30

剩余内容已隐藏,请支付后下载全文,论文总字数:33714字

您需要先支付 80元 才能查看全部内容!立即支付

该课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找;