学位论文 > 优秀研究生学位论文题录展示

基于Kinect体感设备的虚拟试衣系统研究

作 者: 袁方剑
导 师: 王毅刚
学 校: 杭州电子科技大学
专 业: 计算机应用技术
关键词: 虚拟试衣 Kinect 指尖识别 手势识别 图像转移算法
分类号: TP391.9
类 型: 硕士论文
年 份: 2014年
下 载: 12次
引 用: 0次
阅 读: 论文下载
 

内容摘要


虚拟试衣是一个新兴的研究领域,它能为人们带来快捷、方便的试衣体验,具有很大的研究意义。虚拟试衣系统最核心的两个问题是人机交互和服装模拟。交互方式是决定试衣体验的重要因素。以往的很多虚拟试衣产品采用传统的鼠标、键盘交互方式,通过创建输入参数创建用户Avatar,从而实现虚拟试衣,这样做很难给用户良好的代入感和交互感。而采用多个相机从不同角度拍摄用户图像进而进行姿势识别的交互方式则存在硬件环境复杂、识别精确度不高等缺陷。另一方面,服装模拟更可谓是虚拟试衣系统的灵魂,针对这个问题,前人提出过很多种方法,如使用简单的平面纹理贴图或3D模型模拟等,但这些方法多带有模拟效果不佳以及建模复杂难等问题。本文基于微软的Kinect体感设备实现了一个实时的虚拟试衣系统,针对上述问题,本文给出了一些解决方案。主要工作如下:1、本文提出了一种基于指尖识别的手势判定算法,并在由此封装了基于手势的人机交互模块。算法采用重心法优化了传统的凸包计算方法Graham扫描法,提高了凸包的计算效率,并在此基础上实现了对“抓取”手势的判定。基于该算法实现的人机交互界面使得用户可以使用简单、方便的手势来操作系统GUI,且手势识别准确率很高,具有良好的交互效果。2、本文改进了基于轮廓信息匹配的图像转移算法,并提出基于骨架信息匹配的图像转移算法。该算法对匹配关键字进行了修改,采用骨架信息作为匹配关键字。同轮廓信息相比,采用骨架信息作为关键字具有更高的准确性和更快的计算效率,且对于硬件设备的要求也更低,具有更强的可用性。此外,本文对匹配算法进行了改进,在原始的能量计算公式上添加了连续性判断单元,使匹配结果具有更强的连续性。3、基于OpenNI开发库和多线程技术实现了体感捕获模块,准确的获取人体骨骼及手心位置等信息,保障了在此基础上的手势判定和姿势匹配等功能的可靠性。4、基于上述模块实现了一个完整的实时虚拟试衣系统,具有良好的用户体验。

全文目录


摘要  5-6
ABSTRACT  6-11
第一章 绪论  11-22
  1.1 概论  11-12
  1.2 国内外研究现状  12-20
    1.2.1 虚拟试衣研究现状  12-14
    1.2.2 三维引擎  14-16
    1.2.3 人机交互技术  16-17
    1.2.4 手势识别  17-18
    1.2.5 服饰仿真技术  18-20
  1.3 论文研究的主要内容  20
  1.4 论文结构  20-22
第二章 相关技术研究  22-29
  2.1 基于 OSG 引擎的三维可视化技术  22-24
    2.1.1 OpenSceneGraph 引擎简介  22
    2.1.2 OSG 的层次结构  22-23
    2.1.3 OSG 模块组成  23
    2.1.4 OSG 场景图  23-24
  2.2 Kinect 体感设备  24-26
    2.2.1 Kinect 体感技术简介  24-25
    2.2.2 Kinect 的结构及原理  25-26
  2.3 OpenNI 技术  26-28
    2.3.1 简介  26
    2.3.2 OpenNI 框架结构  26-27
    2.3.3 OpenNI 生成器机制  27-28
    2.3.4 人体骨架生成  28
  2.4 本章小结  28-29
第三章 手势识别及服装转移算法  29-45
  3.1 基于指尖识别的手势判定算法  29-38
    3.1.1 引言  29
    3.1.2 Kinect 坐标系  29-30
    3.1.3 最近邻域法分割手部深度图  30-31
    3.1.4 手形轮廓提取  31-32
    3.1.5 传统的 Graham 扫描法计算凸包  32-34
    3.1.6 改进的凸包计算方法  34-35
    3.1.7 基于曲率特征的轮廓分析法识别指尖  35-36
    3.1.8 手势判定算法  36-37
    3.1.9 实验结果与分析  37-38
  3.2 服装图像匹配及转移算法  38-44
    3.2.1 引言  38-39
    3.2.2 离线数据库的创建  39-41
    3.2.3 基于轮廓特征匹配的服装图像转移  41-42
    3.2.4 基于骨架信息匹配的服装图像转移  42-44
    3.2.5 服装图像的转移和校准  44
  3.3 本章小结  44-45
第四章 虚拟试衣系统的搭建及实现  45-56
  4.1 引言  45
  4.2 环境介绍  45-46
  4.3 系统结构  46-49
    4.3.1 系统模块组成  46-47
    4.3.2 总体数据流程  47
    4.3.3 场景树结构  47-48
    4.3.4 主函数循环流程  48-49
  4.4 GUI 模块设计  49-52
    4.4.1 界面设计  49-50
    4.4.2 模块类图  50-51
    4.4.3 菜单交互响应及更新  51-52
  4.5 体感模块设计  52-53
    4.5.1 模块类图  52
    4.5.2 体感数据同步获取  52-53
  4.6 试衣模块设计  53-55
    4.6.1 模块简介  53
    4.6.2 3D 物品模块设计  53-54
    4.6.3 2D 试衣模块设计  54-55
  4.7 本章小结  55-56
第五章 系统效果与测试  56-63
  5.1 引言  56
  5.2 基本操作  56-59
    5.2.1 系统初始化  56-57
    5.2.2 菜单操作  57-59
  5.3 试衣实验与结果分析  59-62
    5.3.1 3D 物品展示  59-60
    5.3.2 2D 试衣及分析  60-62
    5.3.3 混合展示  62
  5.4 本章小节  62-63
第六章 总结与展望  63-65
  6.1 本文工作总结  63-64
  6.2 未来工作展望  64-65
致谢  65-66
参考文献  66-70
附录  70-71
详细摘要  71-73

相似论文

  1. 手势追踪研究与手势识别应用平台实现,TP391.4
  2. 基于半圆裙虚拟试衣造型的支持向量机面料分类研究,TS941.4
  3. 基于视觉的手势识别技术研究,TP391.41
  4. 利用Kinect估计人体头部姿态,TP391.41
  5. 应用Kinect与手势识别的增强现实教育辅助系统,TP391.41
  6. 基于视觉的手势识别技术的研究,TP391.41
  7. 基于计算机视觉的多点触摸技术研究与实现,TP391.41
  8. 基于表观的二维手势识别方法研究,TP391.41
  9. 基于肤色分割和Camshift的手势识别研究,TP391.4
  10. 基于ART2神经网络的手势动作SEMG信号模式识别研究,TP391.4
  11. 网络环境下试衣人体模型的研究,TP391.9
  12. 基于傅立叶描绘子的手势识别算法,TP391.41
  13. 实时手势识别在人机交互中的应用,TP391.4
  14. 基于Web的虚拟装配系统的设计及实现,TG95
  15. 基于CAS-GLOVE数据手套的手势识别技术研究,TP391.41
  16. 复杂背景下基于视觉的动态手势识别研究,TP391.41
  17. 序列图像中手势跟踪与识别技术的研究,TP391.41
  18. 基于表面肌电信号的人体动作识别与交互,R318.0
  19. 基于计算机视觉的手势识别系统研究,TP391.41
  20. 基于表观的手势识别及人机交互研究,TP391.4
  21. 服装面料风格物理评价模型的研究,TS941.2

中图分类: > 工业技术 > 自动化技术、计算机技术 > 计算技术、计算机技术 > 计算机的应用 > 信息处理(信息加工) > 计算机仿真
© 2012 www.xueweilunwen.com