节点文献

深度互补分类器与中心约束三元组损失函数的行人搜索

  • 推荐 CAJ下载
  • PDF下载
  • 不支持迅雷等下载工具,请取消加速工具后下载。

【作者】 姚睿高存远夏士雄周勇

【机构】 中国矿业大学计算机科学与技术学院

【摘要】 随着自动驾驶和智慧城市应用的发展,通过多种计算机视觉任务(例如检测、分类和姿态估计以及重识别)来准确分析城市街道上的行人的需求日益增长。其中,行人搜索是计算机视觉领域近两年来逐渐兴起的研究技术,因为它可以在智能城市系统和公共安全中发挥重要作用。行人搜索的主要任务是在一个或者多个具有摄像能力的终端下,去搜索指定身份的行人并框选出其具体位置,这项任务比传统的人员重新识别或行人检测设置更具挑战性,因为搜索容易受到不同分辨率、相似行人、照明、视角和遮挡等因素的影响。此外,人物搜索任务是一个典型的大数据-小样本问题,因为每个行人只有几张图像。模型很难用少量的行人数据来学习行人的判别特征。本文提出了一种行人搜索框架,该框架通过实现生成对抗网络(Generative Adversarial Network,GAN)来生成未标记的样本,从而使用原始训练集而不收集额外数据。本文提出了一种用于行人检测的深度互补分类器,以利用互补对象区域进行行人/非行人分类。在重新识别部分,本文提出了一种中心约束的三元组损失,它避免了三元组损失的复杂三元组选择,同时推开相当相似的负中心和正中心的所有距离。实验表明,GAN生成的数据可以有效地帮助提高CNN模型的判别能力。在两个大型数据集CUHK-SYSU[1]和PRW[2]上,本文实现了对基线CNN的性能提升。本文还在训练模型中应用了提出的中心约束三元组损失和互补分类器,并且实现了比原始方法在CUHK-SYSU上提升1.9%和在PRW上提升2.5%的mAP性能。

【基金】 国家自然科学基金项目(62172417,61772530)
  • 【会议录名称】 第十七届中国体视学与图像分析学术会议论文集
  • 【会议名称】第十七届中国体视学与图像分析学术会议
  • 【会议时间】2022-11-11
  • 【会议地点】线上会议
  • 【分类号】TP391.41;TP181
  • 【主办单位】中国体视学学会
节点文献中: 

本文链接的文献网络图示:

本文的引文网络