中国学术期刊网络出版总库
  关闭
基于前向搜索的快速视差范围估计方法  
   推荐 CAJ下载 PDF下载
【英文篇名】 Method of fast disparity range estimation based on forward search
【下载频次】 ★★☆
【作者】 董本志; 张丽君; 景维鹏;
【英文作者】 DONG Benzhi; ZHANG Lijun; JING Weipeng; College of Information and Computer Engineering; Northeast Forestry University;
【作者单位】 东北林业大学信息与计算机工程学院;
【文献出处】 计算机工程与应用 , Computer Engineering and Applications, 编辑部邮箱 2017年 24期  
期刊荣誉:中文核心期刊要目总览  ASPT来源刊  中国期刊方阵  CJFD收录刊
【中文关键词】 立体匹配; 视差范围; 前向搜索; 迭代细分;
【英文关键词】 stereo matching; disparity range; forward searching; recursive subdivision;
【摘要】 在立体匹配中,设置合理的视差搜索范围能够提高匹配的速度和精度。为此,提出了一种基于前向搜索的图像迭代细分方法用以估算视差范围的上下限。将参考图像均分为若干个图像块,在对每一块的匹配过程中,采用前向搜索策略,对当前匹配块继续均分成若干子块,并对其子块进行相似度匹配。在计算视差范围上限时,用当前块的子块视差中的最大值来表示其视差值,找到视差最大的图像块后继续迭代细分,直到得到稳定的视差范围上限。在计算视差范围下限时,用当前块的子块视差中的最小值来表示其视差值,找到视差最小的图像块后继续迭代细分,直到得到稳定的视差范围下限。实验结果表明,采用前向搜索策略计算视差范围的方法,在搜索空间降低比率达到28.8%的同时能够达到98%的命中率,相较直接进行匹配误匹配率降低了47.4%,能够得到更精确的视差范围。
【英文摘要】 Setting up reasonable range of disparity search can improve the speed and precision in stereo matching. Therefore, this paper proposes an image recursively divided method based on the forward search that estimates the upper and lower limits of the disparity range. Firstly, the reference image is evently divided into a plurality of image blocks, then the current matching block is evently divided with the forward search strategy in the each process of block matching and its sub-blocks are matched with similar...
【基金】 国家自然科学基金(No.31370565,No.61300098)
【更新日期】 2017-12-28
【分类号】 TP391.41
【正文快照】 1引言立体匹配是计算机视觉的一个基础问题和研究热点[1]。而在进行立体匹配的过程中,要预先设定一个视差搜索范围,然后在该视差范围内对立体图像对进行匹配[2]。视差搜索范围设定过大,会导致在无用的匹配点上匹配消耗过多的时间,同时也容易出现错误的匹配;视差搜索范围过小,则

xxx
【读者推荐文章】中国期刊全文数据库
【相似文献】
中国期刊全文数据库
中国优秀硕士学位论文全文数据库
中国博士学位论文全文数据库
中国重要会议论文全文数据库
中国重要报纸全文数据库
中国学术期刊网络出版总库
点击下列相关研究机构和相关文献作者,可以直接查到这些机构和作者被《中国知识资源总库》收录的其它文献,使您全面了解该机构和该作者的研究动态和历史。
【文献分类导航】从导航的最底层可以看到与本文研究领域相同的文献,从上层导航可以浏览更多相关领域的文献。

工业技术
  自动化技术、计算机技术
   计算技术、计算机技术
    计算机的应用
     信息处理(信息加工)
      模式识别与装置
       图像识别及其装置
  
 
  CNKI系列数据库编辑出版及版权所有:中国学术期刊(光盘版)电子杂志社
中国知网技术服务及网站系统软件版权所有:清华同方知网(北京)技术有限公司
其它数据库版权所有:各数据库编辑出版单位(见各库版权信息)
京ICP证040431号    互联网出版许可证 新出网证(京)字008号