这是今年CVPR 2018中接受为数不多的动作时间轴定位论文中的另一篇,基于学习的时间轴动作定位方法需要大量的训练数据。 然而,这样的大规模视频数据集不仅非常难以获得而且可能因为存在无数的动作类别而不实用。 当训练样本少且罕见时,当前方法的弊端就暴露出来了。为了解决这个挑战,本文的解决方案是采用匹配网络的One-shot学习技术,并利用相关性来挖掘和定位以前没有看过类别的行为。 本文在THUMOS14和ActivityNet数据集上评估了本文的one-shot动作定位方法。
Tag: 行为检测
行为检测论文笔记:Rethinking the Faster R-CNN Architecture for Temporal Action Localization
这是今年CVPR 2018中接受为数不多的动作时间轴定位论文中的一篇,解决了目前现存方法中的3个问题:(1)Multi-scale的动作片段;(2)Temproal context的利用;(3)Multi-stream 特征融合。方法在THUMOS’ 14数据集上的提议和检测任务上达到目前最好的效果(mAP@tIoU=0.5达到42.8%),在ActivityNet数据及上取得了具有挑战性的效果。