当前位置: 网站首页 >> 学院动态 >> 正文

【喜报】北邮人工智能学院五篇论文被计算机视觉顶会ECCV国际会议录用

发布者: [发表时间]:2020-07-14 [来源]: [浏览次数]:


近日,计算机视觉领域顶级会议之一,ECCVEuropean Conference on Computer Vision)国际会议陆续发出了2020年会议的录用通知,北京邮电大学人工智能学院五篇论文被ECCV 2020录用,再次展现了在计算机视觉领域的雄厚实力。这里小编为大家简要介绍下这五篇论文,让我们先睹为快。

 

[1] Fine-Grained Visual Classication via Progressive Multi-Granularity Training of Jigsaw Patches

作者:Ruoyi Du, Dongliang Chang, Ayan Kumar Bhunia, Jiyang Xie, Zhanyu Ma*, Yi-Zhe Song, Jun Guo



这篇论文是北京邮电大学与英国萨里大学的联合研究成果,第一作者是刚刚大四毕业的本科生,通讯作者及指导老师是来自郭军教授团队的马占宇老师。论文提出了一个新的细粒度视觉分类框架,这个框架的创新之处是采用了一种新的渐进式训练策略,将每一次迭代分为多步骤进行,在每一步训练中添加新的层,使网络能够在之前层提取的更细粒度信息的基础上挖掘新的信息。并提出了一个简单的拼图生成器,可以生成包含不同粒度信息的图片,用于不同步骤的粒度划分。论文通过在多个细粒度视觉分类的标准数据集上证明了所提方法的优越性。

[2] GINet: Graph Interaction Network for Scene Parsing

作者:伍天意,路雨,朱欤,张闯*,吴铭,马占宇,郭国栋



这篇论文是北京邮电大学与百度研究院的联合研究成果,指导教师及通讯作者是来自郭军教授团队的张闯老师。论文探索了如何通过建议图交互单元(GI单元)和语义上下文损失(SC-loss)来整合语言知识以促进图像区域上的上下文推理。GI单元能够通过高级语义增强卷积网络的特征表示,并自适应地学习每个样本的语义一致性。论文通过全面的消融研究,证明方法中每种成分的有效性。并通过实验验证了提出的GINet在包括Pascal-ContextCOCO Stuff在内的流行分割数据集上都优于最新方法。



[3] Progressive Refinement Network for Occluded Pedestrian Detection

作者:宋晓琳,赵凯莉,Wen-Sheng Chu,张洪刚*,郭军

 

论文指导教师及通讯作者是来自郭军教授团队的张洪刚及赵凯莉老师。论文针对遮挡问题提出了一种新颖的单阶段行人检测网络,称为渐进式优化网络PRNet,以及使网络更加关注遮挡严重的困难样本的Occlusion Loss以及感受野回传模块RFB。从人在标注遮挡行人时由易到难逐步求精的过程受到启发,PRNet从遮挡像素干扰最少从而相对容易的行人可见部分检测任务开始,逐步过渡到相对较难的全身框检测任务。论文在在CityPersonsCaltechETH数据集上进行了充分的实验,实验证明所提出的方法有效提升了遮挡情况下的检测精度,与此同时检测速度也达到了最优。

 

[4] Universal Self-Training for Unsupervised Domain Adaptation

作者:Ke Mei, Chuang Zhu*, Jiaqi Zou, Shanghang Zhang

 

论文指导教师及通讯作者是来自于杨洁教授团队的祝闯老师。论文针对语义分割的任务提出了一种通用的UDA自训练框架。为了有效地提高伪标签的质量,论文提出了一种带有实例自适应选择器的新型伪标签生成策略,以及创新的区域引导正则化方法,以平滑伪标签区域并锐化非伪标签区域。论文提出的方法具有简洁高效的特点,并且可以很容易地推广到其他无监督域自适应方法。论文在GTA5Cityscapes等数据集上的实验证明了提出的方法比现有方法具有更加优异的性能。

 

[5] Guessing State Tracking for Visual Dialogue

作者:庞伟,王小捷

 

论文指导教师及通讯作者是王小捷教授。论文研究了视觉对话GuessWhat?!中的猜测模型。首先将图像中对象上的分布定义为猜测状态,将猜测看成是一个猜测状态变化过程,在此基础上提出了一种基于猜测状态追踪的猜测模型。在模型训练时定义了两种新的监督信息,其一是早监督信息,在对话的早期轮次就采用目标监督信息,其二是递增监督信息,约束猜测状态呈单调变化。在GuessWhat?!数据上的实验结果表明论文提出的模型显著优于已有模型,猜测成功率83.3%已接近84.4%的人类水平。