无监督域适应的对抗图卷积网络
发布时间:2021-02-09   浏览次数:47


深度学习由于可以学习强判别性的特征表示,故在众多计算机视觉任务取得显著效果。然而,保证模型优良性能的前提是具备大量的标注训练数据。现实中,获取大量标注数据是耗时费力的,故无监督域适应通过利用源域的标注数据和大量的目标域无标记数据训练模型,使其在目标任务获得良好的泛化性能。无监督的域适应的关键难点在于如何减小不同领域的数据分布的差异。我们总结了无监督域适应学习中减少域差异的三种信息:数据的空间结构,域标签和类别标签。而现有的无监督域适应方法大多只利用了其中一种或两种信息,并不能够使用不同的信息相互补充和增强从而减少域差异。以此为出发点,我们提出了一种端到端的对抗图卷积网络(GCAN)来对三种信息进行统一建模,从而减少领域差异。网络分别设计了结构感知对齐、域对齐和类中心对齐机制来有效学习域不变的特征表示,如图1所示。对于结构感知对齐,我们基于样本的特征结构相似性构建了稠密连接的样本实例图。利用图卷积网络进行不同域实例图的结构信息的传播。在域对齐中,利用对抗损失可以对源域和目标域的全局统计量进行匹配,从而指导特征提取器学习全局域不变的特征表示。在类别中心对齐中,随着迭代次数的增加,不同域的类别中心彼此靠近,使得不同类别中心编码了标签信息,从而有效减少负迁移。基于以上三种对齐机制,我们提出的网络可以产生具备域不变和判别力的语义特征表示。五个基准数据上的实验结果表明了该方法的有效性。研究成果发表在国际会议CVPR 2019上。


图1. 基于对抗图卷积网络的无监督域时应方法