Open Set Domain Adaptation

本篇是迁移学习专栏介绍的第十篇论文,也算是本专栏专门讲Domain Adaptation的第一篇论文。这篇文章是接受于ICCV 2017,文章的setting是特别新颖的,得到了ICCV Marr Prize 提名。因此很值得一看。算法


Abstract

当训练和测试数据属于不一样的领域时,对象分类器的精度会显著下降。所以,为了减小数据集之间的域转移,近年来提出了几种算法。然而,全部可用的域适应评估协议都描述了一个封闭的集合识别任务,其中两个域,即源和目标,都包含彻底相同的对象类。在这项工做中,咱们还探索了开放集中的域适应领域,这是一个更现实的场景,其中源数据和目标数据之间只共享几个感兴趣的类别。所以,咱们提出了一种同时适用于闭集和开集场景的方法。该方法经过联合解决一个赋值问题来学习从源到目标域的映射,该问题为那些可能属于源数据集中出现的感兴趣类别的目标实例贴上标签。全面的评估代表,咱们的方法优于最早进的。数据库


1. Introduction

对于许多应用程序来讲,因为获取带注释的训练数据的成本很高,所以缺少训练数据。尽管有大量带注释的图像数据集公开可用,但从网络收集的图像一般与与特定应用程序相关的图像类型不一样。根据应用程序、传感器的类型或传感器的角度,整个捕获的场景可能与网络上的图片有很大的不一样。所以,这两种类型的图像位于两个不一样的域中,即源域和目标域。为了使用源域中的带注释的图像对目标域中的图像进行分类,能够对源域和目标域进行对齐。在本例中,咱们将把源域的特征空间映射到目标域的特征空间。而后经过对源域的变换数据学习任意分类器,对目标域中的图像进行分类。这个过程被称为领域适应,而且更进一步在非监督和半监督方法中区分,取决于目标图像是未标记的仍是部分标记的。跨域

除了咱们在过去几年看到的领域适应方面的进展[3四、1九、1八、九、2一、1三、3一、15]以外,到目前为止,这些方法都是使用源和目标领域的图像来自同一组类别的设置来评估的。这种设置能够称为闭集域自适应,如图1(a)所示。这种封闭集协议的一个例子是流行的Office数据集[34]。然而,认为目标域只包含源域类别的图像的假设是不现实的。对于大多数应用程序,目标域中的数据集包含许多图像,而且只包含其中的一小部分属于兴趣类。所以,咱们将开放集的概念[28,37,36]引入到域自适应问题中,提出了开放集域自适应的概念,避免了封闭集域自适应的不现实假设。闭集域自适应与开集域自适应的区别如图1所示。网络

图1所示。
(a)标准域适应基准假定源域和目标域只包含同一组对象类的图像。这表示为闭集域自适应,由于它不包含未知类或其余域中不存在的类的图像。
(b)咱们建议开放集域自适应。在此设置中,源和目标域都包含不属于相关类的图像。此外,目标域包含与源域中任何图像都不相关的图像,反之亦然。

做为第二个贡献,咱们提出了一种适用于闭集和开集的域自适应方法。为此,咱们将源域的特征空间映射到目标域。经过将目标域中的图像分配给源域中的某些类别来估计映射。赋值问题由一个二元线性程序定义,该程序还包含一个隐式离群点处理,该处理丢弃与源域中任何图像无关的图像。图2给出了该方法的概述。该方法能够应用于无监督或半监督的场景,其中目标域中的一些图像由一个已知类别标注。app

咱们提供了一个全面的评估和比较,与最早进的方法对24个组合的源和目标领域,包括办公室数据集[34]和跨数据集分析[44]。咱们从新审视了这些评估数据集,并提出了一种新的开放集协议用于领域适应,包括无监督和半监督,咱们的方法能够在全部设置中得到最早进的结果dom


2. Related Work

随着Saenko等人发布了一个用于对象分类环境下的领域适应基准,研究计算机视觉问题领域适应技术的兴趣增长了。Golapan et al.[19]和Gong et al.[18]首次提出了用于对象分类的无监督域自适应的相关工做,他们利用格拉斯曼流形的性质,在源和目标样本的公共子空间中提出了对齐。联合将源域和目标域转换为一个公共的低维空间,同时使用正交约束[3]的变换矩阵的共轭梯度最小化和字典学习来查找子空间插值[32,38,47]。Sun等[40,39]提出了一种基于二阶统计量的很是有效的解决方案,用于将源域与目标域对齐。一样,Csurka等人利用[10]联合去噪源和目标样本,在不存在部分随机破坏的状况下重建数据。Gong等人与域之间的关联具备必定的类似性。[17]最小化了两个数据集的最大平均差别(MMD)[20]。他们将实例分配给潜在域,并经过轻松的二进制优化来解决这个问题。Hsu等人使用了相似的思想,容许实例连接到全部其余示例。函数

半监督域自适应方法利用了已知几个目标样本的类标签。Aytar等人[2]提出了一种转移学习公式来规范目标分类器的训练。利用跨域的成对约束,Saenko等人[34]和Kulis等人[27]在训练目标分类器的同时,学习一种转换,以最小化域转移的影响。Hoffman等人基于一样的想法,考虑了一个迭代过程,以交替地最小化分类权重和转换矩阵。在不一样的背景下,[7]提出了一种弱监督方法,经过合成图像对真实图像的粗视点注释进行细化。与半监督方法相比,视点细化的任务假设目标域中的全部图像都被标记,但没有达到所需的粒度。在天然语言处理[5]的背景下,早期的领域适应方法研究了选择各个领域中最相关的信息的思想。性能

在这两个领域中,选择具备相同区分学习行为的主特征来建模它们之间的关系。Gong等人提出了一种算法,该算法选择与目标域分布最类似的源样本子集。Sangineto等人提出了另外一种处理实例选择的技术。它们在目标域的随机分区上训练弱分类器,并在源域中对它们进行评估。而后选择性能最好的分类器。其余的研究也利用了贪婪算法,迭代地将目标样本添加到训练过程当中,同时删除最不相关的源样本[6,42]。学习

因为CNN特征对域变化[11]具备必定的鲁棒性,所以提出了几种基于CNNs的域适应方法[39,31,45,48]。Chopra等人[9]经过学习中间特征编码器,扩展了神经网络与源图像和目标图像的联合训练,并将它们结合起来训练一个深度回归器。MMD距离也被提议做为正则化器来共同窗习源和目标样本的特征[14,46,29,30]。Ganin等人[13]在CNN以后添加了一个域分类器网络,将域损失和分类损失降到最低。最近,Ghifary等人将两种CNN模型结合起来用于标记源数据分类和无监督目标数据重建。测试

标准对象分类任务忽略了没有任何对象类别表示的冒名顶替者的影响。这些开放集开始在人脸识别任务中获得关注,其中一些测试样本没有出如今训练数据库中,必须拒绝[28]。最近,Scheirer等人对利用开放集检测多类识别中不相关样本的现有技术进行了从新研究。[23]和[36]经过学习支持向量机来检测未知实例,支持向量机分配几率决策得分,而不是类标签。相似地,[49]和[4]添加了一个正则化器来检测异常值并惩罚错误分类。


3. Open Set Domain Adaptation

本文提出了一种迭代求解目标样本标记问题的方法。将目标样本的子集关联到源域的已知类别,并经过最小化赋值距离计算从源到目标域的映射。而后在下一个迭代中使用转换后的源样例来从新估计分配并更新转换。这个迭代过程不断重复直到收敛,如图2所示。在3.1节中,咱们描述了目标样本对源域类别的无监督分配。半监督状况见第3.2节。第3.3节最后描述了如何根据前面的赋值估计源域到目标域的映射。这部分对于无监督和半监督设置也是同样的。

图2。无监督开放集域自适应方法综述。(a)源域包括一些用红色、蓝色和绿色表示的有标签的图像,以及一些属于未知类别的图像(灰色)。对于目标域,咱们没有任何标签,可是形状代表它们是否属于这三个类别之一或未知类别(圆圈)。(b)在第一步中,咱们为一些目标样本分配类别标签,而不标记离群值。(c)经过尽可能缩短由同一类别标记的源和目标域的样本之间的距离,咱们能够了解到从源到目标域的映射。图像显示了转换后源域中的示例。这个过程在(b)和(c)之间迭代,直到收敛到局部最小值。(d)为了标签全部样品在目标域经过的三个类(红、绿、蓝)或未知(灰色),咱们学习一个分类器源样本被映射到目标域(c)和应用到目标领域的样品(a)。在这幅图像中,两个样品与未知类错误归类为红色或绿色。

3.1. Unsupervised Domain Adaptation

咱们首先解决无监督域自适应的问题,即,在开放集协议中,没有一个目标示例是带注释的。给定源域中的一组类C,包括|\mathcal{C}-1|已知类和一个额外的未知类,该类收集来自其余不相关类别的全部实例,咱们的目标是将目标样本\mathcal{T}=\left\{T_{1}, \ldots, T_{|\mathcal{T}|}\right\}的类c \in \mathcal{C} .咱们定义的成本分配目标样本Tt的c类d_{c t}=\left\|S_{c}-T_{t}\right\|_{2}^{2}T_{t} \in \mathbb{R}^{D}的特征表示目标样本T和S_{c} \in \mathbb{R}^{D}是全部样本均值的源域标签的类c。提升鲁棒性的任务,咱们不执行,全部目标样本被分配到一个类,如图2所示(b)。声明一个目标样本的成本做为离群值被定义为一个参数λ,4.1节中讨论。定义了个体的分配成本后,咱们能够经过

\underset{\boldsymbol{x}_{c t}, \boldsymbol{o}_{t}}{\operatorname{minimise}} \sum_{t}\left(\sum_{c} d_{c t} x_{c t}+\lambda o_{t}\right)

\begin{array}{c}{\text { subject to } \sum_{c} x_{c t}+o_{t}=1} \\ {\sum_{t} x_{c t} \geq 1} \\ {x_{c t}, o_{t} \in\{0,1\}}\end{array}

经过最小化约束目标函数,获得了分配问题的二元变量xct和ot。第一类约束确保将目标样本分配给一个类,即, xct = 1,或声明为离群值,即, ot = 1。第二种约束确保每一个c类至少分配一个目标样本。咱们使用约束整数程序包SCIP[1]来求解全部建议的公式。

如图2(b)所示,咱们也用未知类来标记目标。注意,unknown类组合了全部不感兴趣的对象。即便源和目标域中的未知数属于不一样的语义类,目标样本也可能比任何其余正类更接近全部负类的平均值。在这种状况下,咱们能够秘密地将目标样品标记为未知。在咱们的实验中,咱们代表,若是未知类被包含在无监督设置中,这没有多大区别,由于处理不接近负数均值的目标样本的异常值。

3.2. Semi-supervised Domain Adaptation

当对一些目标样本进行注释时,无监督分配问题天然扩展到半监督设置。在这种状况下,咱们只须要经过附加的约束来扩展公式(1),这些约束强制带注释的目标样本不改变标签,即,

x_{\hat{c}_{t} t}=1 \quad \forall\left(t, \hat{c}_{t}\right) \in \mathcal{L}

L表明贴上目标样本的数量和\hat{c}_{t}类标签提供目标样本t。为了利用标记目标样品更好,一个可使用相邻结构在源和目标域。当约束条件不变时,目标函数(1)可改成

\sum_{t}\left(\sum_{c} x_{c t}\left(d_{c t}+\sum_{t^{\prime} \in N_{t}} \sum_{c^{\prime}} d_{c c^{\prime}} x_{c^{\prime} t^{\prime}}\right)+\lambda o_{t}\right)

其中d_{c c^{\prime}}=\left\|S_{c}-S_{c^{\prime}}\right\|_{2}^{2}。在(1)的成本标签的目标样本t,c类只有dct,添加第二个公式(3),它是计算在全部邻居Nt (t)和添加类源域之间的距离做为额外费用若是邻居比目标分配给另外一个类样本t。

然而,目标函数(3)变成了二次函数,所以np很难求解。所以,咱们利用Kaufman和Broeckx线性化[25]将二次分配问题转化为一个混合的0-1线性程序。用

w_{c t}=x_{c t}\left(\sum_{t^{\prime} \in N_{t}} \sum_{c^{\prime}} x_{c^{\prime} t^{\prime}} d_{c c^{\prime}}\right)

咱们推导出线性化问题

\underset{x_{c t}, w_{c t}, o_{t}}{\operatorname{minimise}_{t}} \sum_{t}\left(\sum_{c} d_{c t} x_{c t}+\sum_{c} w_{c t}+\lambda o_{t}\right)

\begin{array}{l}{\text { subject to } \sum_{c} x_{c t}+o_{t}=1} \\ {\sum_{t} x_{c t} \geq 1} \\ {a_{c t} x_{c t}+\sum_{t^{\prime} \in N_{t}} \sum_{c^{\prime}} d_{c c^{\prime}} x_{c^{\prime} t^{\prime}}-w_{c t} \leq a_{c t}} \\ {x_{c t}, o_{t} \in\{0,1\}} \\ {w_{c t} \geq 0}\end{array}

a_{c t}=\sum_{t^{\prime} \in N_{t}} \sum_{c^{\prime}} d_{c c^{\prime}}

3.3. Mapping

如图2所示,咱们在求解赋值问题(如3.1或3.2节所述)和估计从源域到目标域的映射之间进行迭代。咱们考虑一个线性变换,它由矩阵W \in \mathbb{R}^{D \times D}表示。咱们经过最小化如下损失函数来估计W:

f(W)=\frac{1}{2} \sum_{t} \sum_{c} x_{c t}\left\|W S_{c}-T_{t}\right\|_{2}^{2}

咱们能够把它写成矩阵形式:

f(W)=\frac{1}{2}\left\|W P_{S}-P_{T}\right\|_{F}^{2}

L=\sum_{t} \sum_{c} x_{c t}的矩阵P_{S}P_{T} \in \mathbb{R}^{D x L}表示全部赋值,其中列表示实际关联。凸目标函数的二次性质能够看做是一个线性最小二乘问题,任何可用的QP求解器均可以很容易地求解。然而,基于卷积神经网络的最新特性是高维的,目标实例的数量一般很是大。所以,咱们使用非线性优化[41,24]来优化f(W)。(6)的导数由

\frac{\partial f(W)}{\partial W}=W\left(P_{S} P_{S}^{T}\right)-P_{T} P_{S}^{T}

若是L < D,即。,样本数量,已分配给一个已知类别,小于特征的维数,优化也处理一个欠定线性最小二乘公式。在这种状况下,求解器收敛到范数最小的矩阵W,仍然是一个有效的解。

在估计转换W以后,咱们将源样本映射到目标域。所以,咱们迭代解决分配问题的过程,并估计从源域到目标域的映射,直到它收敛为止。当该方法收敛后,咱们在变换后的源样本上以1 -vs- 1的设置训练线性支持向量机。对于半监督设置,咱们还将带注释的目标样本L(2)包含到训练集中,而后使用线性svm获得目标样本的最终标签,如图2(d)所示。


4. Experiments

咱们在对象分类的领域适应上下文中评估咱们的方法。在这个设置中,源域的图像由类标签标注,目标是对目标域中的图像进行分类。咱们报告了无监督和半监督状况下的准确性,其中目标样本分别未标记或部分标记。为了一致性,咱们使用了libsvm[8],由于它也在其余做品中使用过,好比[12]和[39]。咱们在全部的实验中都设置了错误分类参数C = 0.001,这使得软边际优化在这类分类任务中效果最佳[12,39]。

4.1. Parameter configuration

咱们的算法包含一些须要定义的参数。对于异常排斥,咱们使用

\lambda=0.5\left(\max _{t, c} d_{c t}+\min _{t, c} d_{c t}\right)

λ是自动适应的基于dct的距离,由于更高的值接近最大的距离几乎抛弃任何异常值和较低的值几乎拒绝全部做业。咱们迭代该方法,直到达到10次迭代的最大次数,或者若是达到了这个距离:

\sqrt{\sum_{c} \sum_{t} x_{c t}\left|S_{c, k}-T_{t}\right|^{2}}

低于ǫ= 0.01 Sc, k对应转换类的意思是在迭代k。在实践中,这一过程迭代收敛后3 - 5个。

4.2. Office dataset

咱们在Office数据集[34]上对咱们的方法进行了评估和比较,[34]是使用CNN特性进行域适应的标准基准。它提供了三个不一样的域,即Amazon (A)、DSLR (D)和Webcam (W)。Amazon数据集包含以白色背景为中心的对象,其余两个域包含在办公环境中拍摄的不一样质量级别的照片。总共有6个源-目标组合的31个公共类。这意味着至关大的领域有4组合转变(D, W, D, W)和2与未成年人域转变(D W W D)。

咱们引入一个开集协议数据集经过在加州理工学院也是常见的10类共享类数据集[18]。按字母顺序,类11-20在源域中用做未知数,类21-31在目标域中用做未知数,即,源和目标域中的未知类不共享。要进行评估,须要根据10个共享类中的一个正确分类目标域中的每一个示例,或者将其归类为未知类。为了与封闭设置(CS)进行比较,咱们报告了源和目标域只包含10个共享类样本时的准确性。因为OS是在全部目标样本上进行评估的,因此咱们也报告了仅在与CS相同的目标样本上测量精度时的数值,即,只适用于共享的10个类。后一种协议由OS(10)表示,并与CS(10)进行了直接比较。补充材料中还报告了全部类的封闭设置的其余结果。

Unsupervised domain adaptation 咱们首先比较了咱们的方法在无监督设置下的准确性与嵌入在CNN模型训练中的最早进的领域适应技术。DAN[29]从新训练了AlexNet经过冻结前3个卷积层,对后2个卷积层进行微调,并经过最小化两个域之间的差别,从每一个全链接层学习权重,从而对模型进行建模。RTN[30]经过添加链接源分类器和目标分类器的剩余传输模块扩展了DAN。BP[13]经过梯度反转层对CNN进行域自适应训练,使域损失与分类损失同时最小化。对于训练,咱们按照[17]中提出的每一个类使用全部样本,这是该数据集上CNNs的标准协议。在[13]中,咱们对全部的分类方法都使用线性支持向量机,而不是使用软最大值层来进行公平的比较。

为了分析第3节中讨论的公式,咱们比较了几个变体:ATI (assignment -and transform - iterated)表示咱们在(1)中为全部目标样本分配一个源类的公式,即λ=。ATI-λ包括异常排斥和ATI-λ-N1是局部性约束制定对应的无监督版本(3)与1近邻。此外,咱们将LSVM表示为在没有任何域自适应的状况下在源域上训练的线性svm。

使用上述开放集协议的这些技术的结果如表1所示。咱们的方法在没有领域自适应(LSVM)的基础上,对CS和OS分别提升了+6.8%和+14.3%。对于具备较大领域转移的组合,例如与Amazon的组合,改进幅度更大。咱们也观察到ATI在封闭设置(+2.2%)和开放设置(+5.2%)下,优于全部基于cnn的域适应方法。还能够看出,对于全部方法,开放集的精度都低于封闭集,可是咱们的方法处理开放集协议的效果最好。虽然ATI-λ不得到任何至关大的改进在CS ATI相比,异常拒绝容许操做系统的改善。ATI-λ-N1所在地限制配方,咱们建议只semi-supervised设置,减小无监督设置的准确性。

此外,咱们报告了与深度学习无关的流行领域适应方法的准确性。咱们报告了将数据转换为一个常见的低维子空间的方法的结果,包括传输份量分析(TCA)[33],大地测量流核(GFK)[18]和子空间对齐(SA)[12]。此外,咱们还包括CORAL[39],它会根据目标数据对源进行白化和重着色。按照[34]的标准协议,当Amazon用做源域时,每一个对象类取20个样本,对于DSLR或Webcam取8个样本。咱们从AlexNet模型[26]的全连通第7层(fc7)中提取特征向量。每一个评估都使用来自源域的随机样本执行5次。五次运行的平均精度和标准误差见表2。结果与表1中报告的方案类似。咱们ATI方法优于其余方法对CS和OS和额外的异常处理(ATI-λ)并不能提升闭集的精度,但开集。

Impact of unknown class 咱们在开放集协议中使用的线性支持向量机使用转换后的源域的未知类进行训练。因为来自源域的未知对象样本与来自目标域的未知对象样原本自不一样的类,所以使用不须要任何负样本的SVM多是更好的选择。所以,咱们将标准SVM分类器的性能与特定的开放集SVM (OS-SVM)[36]进行了比较,其中仅使用10个已知的类进行训练。svm引入了包含几率,若是不知足任何类的包含,则将目标实例标记为未知。表3比较了这两个分类器在Office数据集的6个域转移中的分类精度。在性能比较时没有应用领域适应,ATI-λ获得更好的精度当学习包括消极的实例。

如3.1节所述,未知类也是目标样本的标签集C的一部分。而后使用标记目标样本估计映射W(6),评估包括未知类的影响,表4比较未知时的精度类不包括在c添加未知类提升精度略实施以来的负面意思源映射到目标负样本。然而,影响很是小。

此外,咱们还分析了在源和目标域中增长未知样本数量对配置Amazon DSLR+Webcam的影响。因为DSLR和网络摄像头之间的域转移接近于零(相同的场景,可是不一样的摄像头),所以能够合并它们以得到更多的未知样本。按照所描述的协议,咱们为每一个已知类别抽取20个样本,在本例中也取目标域的样本,并随机将两个域中的未知样本数量同时从20个增长到400个。如表5所示,报告了5个随机分割的平均精度,若是不使用域自适应(LSVM),则添加更多未知样本会下降精度,对于域自适应方法CORAL[39]也是如此。这是预期的,由于未知数来自不一样的类,而且与来自共享类的示例相比,未知数的影响会增长。咱们的方法处理了这种增加,精度保持在80.3%到82.5%之间的稳定。​​​​​​​

Semi-supervised domain adaptation 咱们还评估了在半监督设置下对办公数据集进行开放集域自适应的方法。再次应用带源样本子集的[34]标准协议,每一个类取3个带标签的目标样本,其他不带标签。咱们将咱们的方法与​​​​​​​深度学习法MMD[46]。做为基线,咱们报告了线性支持向量机(LSVM)在只训练源样本(s)、只训练带注释的目标样本(t)或同时训练两个样本(st)时的准确性。正如预期的那样,针对这两方面进行训练的基线表现最好,如表6所示。咱们的方法ATI优于基线和CNN方法[46]。在无监督的状况下,与CNN方法相比,开放集(+4.8%)的改进要大于封闭集(+2.2%)。ATI-λ-N而局部性约束配方,减小无监督的准确性,提升了准确性的semi-supervised状况制定实施以来,目标样本的邻居被分配到同一个班。结果有一个(ATI-λ-N1)或两个相邻(ATI-λ-N2)是类似的。​​​​​​​

4.3. Dense Cross-Dataset Analysis

为了测量咱们的方法和开放集协议在类内变化较多的流行数据集上的性能,咱们还对用于跨数据集分析的密集测试平台[44]进行了实验。这个协议提供了来自4个著名数据集的40个类,Bing (B), Caltech256 (C), ImageNet (I)和Sun (S)。对于Office数据集,咱们将前10个类做为共享类,类11-25在源域中用做未知数,类26-40在目标域中用做未知数。咱们使用提供的脱焦功能(DeCAF7)。按照[43]中描述的无监督协议,咱们为每一个类提取50个源样本用于训练,并为全部数据集(Sun除外,Sun中每一个类提取20个样本)每一个类测试30个目标图像。

表7中报告的结果与Office数据集一致。ATI优于基线和闭集的其余方法+ 4.4%和+ 5.3%开集。ATI-λ得到最好的开集的精度。

4.4. Sparse Cross-Dataset Analysis

咱们还介绍了一个开放集评估使用稀疏设置从[44]与数据集Caltech101 (C), Pascal07 (P)和Office (O)。这些数据集是至关不平衡,并提供独特的特色:办公室几乎没有背景包含在类实例(17类,共2300个样本,68 - 283样品每一个类),Caltech101容许多类品种(35类,共5545个样本,35 - 870样本/类)和Pascal07收集更现实的场景与部分阻挡物体在各图像位置(16类,共12219个样本,193 - 4015样品每一个类)。对于每一个域转移,咱们取全部共享类的样本,并将全部其余样本视为未知数。表8总结了每一个班次共享类的数量和未知目标样本的百分比,这些样本的百分比从30%到90%不等。

Unsupervised domain adaptation 对于无监督实验,咱们使用全部源和未标记的目标样本对每一个域移位进行一次运行。结果见表8。对于这种高度不平衡的开放集协议,ATI的性能比基线和其余方法高出+5.3%。ATI-λ略有改善ATI的准确性​​​​​​​。

Semi-supervised domain adaptation 为了评估半监督设置,咱们取全部的源样本和每一个共享类有3个带注释的目标样例,就像在办公室数据集[34]的半监督设置中所作的那样。表9报告了5次随机分割的平均值和标准差。ATI在基线改善训练在源和目标样本一块儿(st) + 4.5%, ATI-λ和局部性约束邻居进一步提升性能。ATI-λ-N1改善基线+ 5.1%的准确性。​​​​​​​

5. Conclusions

本文引入了开放集域自适应的概念。与闭集域自适应不一样,源和目标域只共享对象类的一个子集,而目标域的大多数示例都属于源域中不存在的类。咱们为现有的数据集提出了新的开放集协议,并评估了CNN方法和标准的无监督域适应方法。此外,咱们还提出了一种无监督开放集域自适应方法。该方法还能够应用于闭集域自适应和半监督域自适应。在全部的设置中,咱们的方法都达到了最早进的结果。