题名 | 弱监督条件下的视觉场景解析方法研究 |
作者 | 樊峻菘 |
答辩日期 | 2022-05 |
文献子类 | 博士 |
授予单位 | 中国科学院大学 |
授予地点 | 中国科学院自动化研究所 |
导师 | 谭铁牛 ; 张兆翔 |
关键词 | 弱监督学习 视觉场景解析 语义分割 全景分割 |
学位专业 | 模式识别与智能系统 |
英文摘要 | 视觉场景解析任务在计算机视觉研究领域中具有重要的意义。它致力于对视觉图像做出像素级的精确判别,从而赋予计算机对现实世界基于视觉图像的精细化感知与理解能力,在自动驾驶系统、机器人视觉导航、遥感图像分析等领域都具有重要的应用价值。近年来,深度学习技术的快速发展带来了一大批处理视觉场景解析任务的算法模型。然而,为了在实际应用场景中取得可靠的性能表现,这些模型通常需要针对不同的应用场景,设计取得大量的、像素级的人工精细标注进行训练。这种对大量精细标注的需求造成了对专业人工劳动的高度依赖,带来了数据获取时间和经济上的高昂成本,阻碍了基于深度学习的视觉场景解析模型在新场景任务下的快速部署应用。为了缓解样本标注代价过大的问题,研究者们提出了利用弱监督标注进行视觉场景解析模型训练的学习范式。典型的弱监督标注包括图像类别标注、目标框标注、稀疏的点线标注等。相比于像素级的精细标注,这些粗略的弱监督标注更易获取,可以有效减少取得训练样本所需的人工标注代价。但同时,由于缺少精确的监督信息,在处理像素级的视觉场景解析问题时,弱监督方法也面临着目标部分缺失、类别混淆等诸多挑战。为此,本文的研究工作从以下四个方面递进展开,探讨如何在弱监督条件下更好地有效挖掘利用数据信息,提升弱监督模型处理视觉场景解析任务的能力,其主要创新点包括:
总的来说,针对弱监督的视觉场景解析问题,本文工作首先展开对单图像条件下弱监督信息利用机制的研究。之后,依次从数据和模型的角度,展开对潜在监督信息挖掘的方法研究,分别提出基于多图信息传递、多元目标集成的弱监督视觉场景解析方法。最后,本文研讨如何利用类别、空间位置的多种弱监督信息完成复杂的视觉场景解析任务,实现弱监督下的全景分割。本文所提出的方法对比同期工作,均具有显著的性能提升,在领域内通用的评测数据集上达到领先的性能指标,能够有效地缓解弱监督视觉场景解析中面临的分割目标缺失、类别混淆等问题,具有很好的学术创新意义和实际应用价值。 |
语种 | 中文 |
页码 | 136 |
内容类型 | 学位论文 |
源URL | [http://ir.ia.ac.cn/handle/173211/48926] |
专题 | 毕业生_博士学位论文 |
推荐引用方式 GB/T 7714 | 樊峻菘. 弱监督条件下的视觉场景解析方法研究[D]. 中国科学院自动化研究所. 中国科学院大学. 2022. |
个性服务 |
查看访问统计 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论