近年来,基于孪生网络的目标跟踪算法取得了极大的成功。然而,大多数基于孪生网络的方法不能充分利用不同上下文环境中的目标时空表观信息。事实上,时空信息可以提供丰富的特征来增强目标表示,上下文信息可以为目标的定位提供更好的在线自适应。为了全面地利用历史目标模板的时空结构信息和搜索区域提供的上下文信息,本文提出了一个新颖的图卷积跟踪方法(GCT)来实现高性能的视觉跟踪,如图1所示。具体的,GCT在一个孪生网络框架中联合地组织了两种类型的图神经网络进行目标表观建模。这里,提出方法使用了一个时空图神经网络(ST_GCN)来建模历史目标模板的时空结构信息。另外,设计了一个上下文自适应图神经网络(CT-GCN)来利用当前帧的上下文信息学习自适应特征从而进行目标定位。在4个流行的目标跟踪数据集上的实验结果表明提出方法具有很好的效果。并且,GCT方法具有50帧每秒的跟踪速度。相关研究成果目前已被计算机视觉顶级国际会议CVPR2019接收。
图1. 图卷积跟踪方法框架图