学位论文 > 优秀研究生学位论文题录展示

自然场景分类与目标识别关键技术研究

作 者: 周莉
导 师: 胡文
学 校: 国防科学技术大学
专 业: 控制科学与工程
关键词: 图像分类识别 场景分类 目标识别 纹理识别 图像局部特征描述 图像表示 特征袋 采样策略 低层特征 图像划分 多分辨率 显著性目标 显著性图
分类号: TP391.41
类 型: 博士论文
年 份: 2012年
下 载: 341次
引 用: 0次
阅 读: 论文下载
 

内容摘要


随着数字图像数据的快速增长,让计算机自动理解图像成为越来越迫切的需求,作为图像理解的重要研究内容,图像分类识别(主要包括场景分类目标识别)得到了广泛关注,是当前计算机视觉领域的研究热点。图像分类识别在计算机视觉的许多领域有着广泛应用,如基于内容的图像检索、遥感图像分析、智能视频监控和机器人定位导航等。经过几十年的发展,尽管图像分类识别研究已取得许多令人鼓舞的成果,但由于问题本身的复杂性,其仍然是一个极具挑战性的问题。本文针对图像分类识别,重点研究了局部特征描述及其在图像分类识别中的应用、基于低层特征建模的场景分类方法、基于局部特征建模的图像分类识别方法(包括场景分类、目标识别、纹理识别和行为识别等)、显著性目标检测等。本文开展的工作和取得的成果主要有以下几方面:(1) GBPWHGO与GLID两种图像局部特征描述方法。本文针对场景分类和目标识别的特点,分别提出GBPWHGO和GLID两种图像局部特征描述子。GBPWHGO描述子主要针对场景分类,根据场景分类的特点,其主要强调在场景分类过程中特征描述向量的判别性,以及对场景的全局表示。实验结果表明,GBPWHGO描述子在场景分类中的性能优于SIFT、LBP和Gist等描述子。GLID描述子主要针对目标识别过程中的尺度变化、视角变化、旋转变化等影响,在一定程度上弥补这些变化对于目标识别的影响。因此,GLID描述子强调对图像局部特征的不变描述,其对尺度、旋转变化具有较强的不变性,并对仿射变化具有一定的鲁棒性。实验结果表明,GLID描述子在场景分类和目标识别中的性能优于SIFT和LBP等描述子。(2)基于低层特征建模的自然场景分类方法。当前,针对场景分类问题,主要有基于低层特征建模和基于语义特征建模两类方法。前一类方法算法简单、计算量小,但一般适应于较少类别场景的分类,且分类性能较差。后一类方法适用于大量场景类别间的分类,且分类性能较好,但计算量大、所需的存储空间和内存消耗大。针对上述情况,本文提出一种新的场景分类方法,该方法属于基于低层特征建模方法的范畴,有着基于低层特征建模方法的优点,然而解决了基于低层特征建模方法的缺点、同时具备基于低层特征建模和基于语义特征建模两类方法的优点:算法简单、计算量小、所需的存储空间和内存消耗小、适应于大量场景类别之间的分类且分类性能好。通过结合GBPWHGO描述子,本文提出的基于低层特征建模的自然场景分类方法,在多个场景分类数据库上获得当前最好的分类结果。(3)基于局部特征建模的图像分类识别方法。当前,基于局部特征建模的图像分类识别,最常用的方法是“特征袋”方法和“空间金字塔匹配”方法。“特征袋”方法将图像表示成局部特征的无序集合,忽略了图像各部分间的空间位置关系。“空间金字塔匹配”方法通过将图像由粗到细划分为多个子区域,求取各子区域的特征直方图,在一定程度上利用了图像的空间信息。本文针对“空间金字塔匹配”方法,在图像局部特征提取及空间信息表达方面作了一些有效改进:本文采用多分辨率多尺度的局部特征提取方式,提取的局部特征具有更强的判别性,且对尺度变化具有更强的鲁棒性;在空间信息表达方面,不同于以往常用的均匀网格图像划分方式,本文采用水平、垂直的图像划分方式。实验结果表明,改进后的方法图像分类识别性能有了较大提升。(4)显著性目标检测。本文采用图像的颜色信息,提出一种基于全局颜色对比度的显著性目标检测方法。该方法能够计算输入图像的显著性图(Saliency map),并自动检测图像中的显著性目标,其对图像分类识别、目标检测、对感兴趣目标的分割等计算机视觉方面的应用具有重要意义。

全文目录


摘要  15-17
Abstract  17-19
第一章 绪论  19-31
  1.1 课题背景及研究意义  19-21
  1.2 图像分类识别的研究内容  21-24
  1.3 图像分类识别面临的主要挑战  24-28
  1.4 论文主要工作及组织结构  28-31
第二章 相关技术研究现状  31-57
  2.1 局部特征检测方法  31-41
    2.1.1 角点检测  32-35
    2.1.2 斑点检测  35-38
    2.1.3 区域检测  38-41
    2.1.4 稠密采样  41
  2.2 局部特征描述方法  41-47
    2.2.1 基于分布的描述子  42-46
    2.2.2 基于空间-频率的描述子  46
    2.2.3 基于微分的描述子  46-47
  2.3 场景识别方法  47-51
    2.3.1 低层建模方法  47-48
    2.3.2 语义建模方法  48-51
  2.4 目标识别方法  51-53
  2.5 显著性目标检测方法  53-56
    2.5.1 自底向上的计算模型  54-55
    2.5.2 自顶向下的计算模型  55-56
  2.6 本章小结  56-57
第三章 图像局部特征描述方法  57-91
  3.1 引言  57-59
  3.2 GBPWHGO 描述子  59-66
    3.2.1 GBP 描述子  60-62
    3.2.2 WHGO 描述子  62-65
    3.2.3 GBPWHGO 描述子及彩色图像的 GBPWHGO 描述子  65-66
  3.3 GLID 描述子  66-78
    3.3.1 局部不变特征选择  66-73
    3.3.2 主方向计算  73-75
    3.3.3 局部不变特征描述向量计算  75-78
  3.4 GLID 描述子的图像匹配实验  78-90
    3.4.1 实验设置  79-82
    3.4.2 牛津建筑数据库的实验结果  82-89
    3.4.3 切片数据库的实验结果  89-90
    3.4.4 实验小结  90
  3.5 本章小结  90-91
第四章 基于低层特征建模的自然场景识别  91-121
  4.1 引言  91-94
  4.2 人类认知自然场景的相关机制  94-100
    4.2.1 自然场景的快速识别  94-97
    4.2.2 快速自然场景识别几乎不需注意机制的参与  97-100
  4.3 基于多分辨率低层特征融合的自然场景识别方法  100-104
    4.3.1 概述  100-101
    4.3.2 特征提取  101-102
    4.3.3 特征融合及 SVM 分类  102-104
  4.4 自然场景识别实验  104-116
    4.4.1 实验设置  105-106
    4.4.2 OT、FP 和 LS 数据库上的实验结果  106-113
    4.4.3 IS 数据库上的实验结果  113-115
    4.4.4 SE 数据库上的实验结果  115-116
    4.4.5 颜色信息对识别性能的影响  116
  4.5 与此前自然场景识别方法的比较  116-120
    4.5.1 与“特征袋”方法的比较  116-119
    4.5.2 与此前方法的场景分类性能比较  119-120
  4.6 本章小结  120-121
第五章 基于局部特征的图像分类识别  121-165
  5.1 引言  121-122
  5.2 “特征袋”及“空间金字塔匹配”方法简介  122-126
    5.2.1 “特征袋”方法  122-125
    5.2.2 “空间金字塔匹配”方法  125-126
  5.3 多分辨率多尺度“特征袋‖方法  126-130
    5.3.1 概述  127
    5.3.2 局部特征提取及码本构造  127-128
    5.3.3 多尺度图像划分图像表示  128-129
    5.3.4 SVM 分类器及特征综合  129-130
  5.4 自然场景识别实验  130-142
    5.4.1 实验设置  130-131
    5.4.2 OT、FP 和 LS 数据库上的实验结果  131-137
    5.4.3 IS 数据库上的实验结果  137-138
    5.4.4 SE 数据库上的实验结果  138
    5.4.5 CLEF 数据库结果  138-141
    5.4.6 与此前自然场景识别方法的比较  141-142
  5.5 目标识别实验  142-154
    5.5.1 实验设置  143-145
    5.5.2 Oxford Flowers 数据库的实验结果  145-149
    5.5.3 CalTech6 数据库的实验结果  149-151
    5.5.4 VOC2010 数据库结果  151-154
  5.6 纹理识别实验  154-159
    5.6.1 实验设置  154-155
    5.6.2 UIUCTex 数据库的实验结果  155-158
    5.6.3 CUReT 数据库的实验结果  158-159
  5.7 行为识别实验  159-163
    5.7.1 VOC2010、VOC2011 行为识别数据库  160-162
    5.7.2 VOC2010 行为识别竞赛结果  162
    5.7.3 VOC2011 行为识别竞赛结果  162-163
  5.8 本章小结  163-165
第六章 显著性目标检测  165-179
  6.1 引言  165-166
  6.2 基于全局颜色对比度的显著性目标检测  166-170
    6.2.1 概述  167-168
    6.2.2 全局颜色对比度计算  168-169
    6.2.3 显著性图计算  169-170
  6.3 显著性目标检测实验  170-178
    6.3.1 实验数据  172-173
    6.3.2 Achanta 数据库实验结果  173-175
    6.3.3 MSRA SOD 数据库实验结果  175
    6.3.4 SIVAL 数据库实验结果  175-178
    6.3.5 PASCAL VOC2011 数据库实验结果  178
    6.3.6 参数设置的影响  178
  6.4 本章小结  178-179
第七章 结论与展望  179-183
  7.1 论文主要工作总结  179-180
  7.2 后续研究展望  180-183
附录 A ImageCLEF-Robot Vision Task 国际竞赛简介  183-187
  A.1 概述  183-184
  A.2 竞赛的举办方  184-185
  A.3 本组参加 ImageCLEF-Robot Vision Task 竞赛结果  185-187
附录 B PASCAL VOC 国际竞赛简介  187-193
  B.1 概述  187-188
  B.2 PASCAL VOC2010、2011 年度竞赛  188-190
    B.2.1 竞赛项目介绍  188-190
    B.2.2 竞赛组织者  190
  B.3 本组参加 PASCAL VOC 2010、2011 年度竞赛结果  190-193
    B.3.1 2010 年竞赛结果  190-191
    B.3.2 2011 年竞赛结果  191-193
致谢  193-195
参考文献  195-217
作者在学期间取得的学术成果  217
作者在学期间取得的竞赛成绩  217-218
作者在学期间参与的主要科研项目  218

相似论文

  1. 空间目标ISAR成像仿真及基于ISAR像的目标识别,TN957.52
  2. 基于智能学习的多传感器目标识别与跟踪系统研究,TP391.41
  3. 红外超光谱图像的虚拟探测器研究,TP391.41
  4. 图像实时采集、存储与处理方法研究,TP391.41
  5. 空中目标抗干扰识别跟踪系统,TN215
  6. 红外图像目标识别及跟踪技术研究,TP391.41
  7. 水下目标特征的压缩与融合技术研究,TN911.7
  8. 粒计算理论及其在图像检索中的应用研究,TP18
  9. 小型智能足球机器人系统全局视觉的研究与设计,TP242.6
  10. 基于UKF的车载GPS/DR组合导航系统滤波算法研究,TN967.2
  11. 基于加速鲁棒特征的全景图拼接技术研究,TP391.41
  12. 基于低层综合特征的图像反馈检索,TP391.41
  13. SAR成像目标识别子区选取与匹配方法研究,TN957.52
  14. 基于3G网络的智能交通视频监控系统的设计与实现,TP391.41
  15. 基于视频监控的特定目标识别研究,TP391.41
  16. 基于视频的动物运动跟踪分析系统及应用研究,TP391.41
  17. 复杂目标视觉注意模型研究,TP391.41
  18. 基于空间邻域词袋模型的图像标注技术,TP391.41
  19. 高分辨率遥感图像目标识别方法研究,TP751
  20. 视频目标检测与跟踪方法研究,TP391.41
  21. 面向空间目标识别的红外与可见光图像融合算法及仿真研究,TP391.41

中图分类: > 工业技术 > 自动化技术、计算机技术 > 计算技术、计算机技术 > 计算机的应用 > 信息处理(信息加工) > 模式识别与装置 > 图像识别及其装置
© 2012 www.xueweilunwen.com