深度学习论文: Decoupling Representation and classifier for long-tailed recognition及其PyTorch实现

网友投稿 335 2022-09-04

深度学习论文: Decoupling Representation and classifier for long-tailed recognition及其PyTorch实现

Decoupling Representation and classifier for long-tailed recognition PDF:​​​​​:​​概述

在学习分类任务的过程中,将通常默认为联合起来学习的类别特征表征与分类器解耦(decoupling),寻求合适的表征来最小化长尾样本分类的负面影响。

作者将分类网络分解为representation learning 和 classification 两部分,系统的研究了这两部分对于Long-tailed问题的影响。通过实验得到的两点发现是: 数据不均衡问题不会影响高质量Representations的学习。即,random sampling策略往往会学到泛化性更好的representations; 使用最简单的random sampling 来学习representations,然后只调整classifier的学习也可以作为一个strong baseline。

2 表征学习(representation learning )

(Sampling strategies)

2-1 样本均衡采样(Instance-balanced sampling)

该方法最为常见,即每一个训练样本都有均等的机会概率被选中,即上述公式中 q=1 的情况。

2-2 类别均衡采样(Class-balanced sampling)

每个类别都有同等的概率被选中,即公平地选取每个类别,然后再从类别中进行样本选取,即上述公式中 q=0 的情况。

2-3 平方根采样(Square-root sampling)

本质上是之前两种采样方式的变种,通常是将概率公式中的 q 定值为 0.5。

2-4 渐进式均衡采样(Progressively-balanced sampling)

根据训练中的迭代次数 t(epoch)同时引入样本均衡(IB)与类别均衡(CB)采样并进行适当权重调整的一种新型采样模式,公式为

3 分类器学习(classifier learning)

3-1 重训练分类器(Classifier Re-training, cRT)

固定住representations部分,随机初始化classifier的weight和bias参数,并使用class-balanced sampling在训练少量epoch

3-2 最近类别平均分类器(Nereast Class Mean classifier, NCM)

首先将training set里的每个类别计算feature representaitions的均值,然后在test set上执行最近邻查找。或者将mean features进行L2-Normalization之后,使用余弦距离或者欧氏距离计算相似度。作者指出,余弦相似度可以通过其本身的normalization特性来缓解weight imbalance的问题。

3-3 τ-归一化分类器(τ-normalized classifier)

对classifier权重normalized

3-4 Learnable weight scaling (LWS)

4 Experiments

通过各类对比实验,该研究得到了如下观察:

5 训练注意事项

5-1 表征学习阶段

学习过程中保持网络结构(比如 global pooling 之后不需要增加额外的全连接层)、超参数选择、学习率和 batch size 的关系和正常分类问题一致(比如 ImageNet),以确保表征学习的质量。

类别均衡采样:采用多 GPU 实现的时候,需要考虑使得每块设备上都有较为均衡的类别样本,避免出现样本种类在卡上过于单一,从而使得 BN 的参数估计不准。

渐进式均衡采样:为提升采样速度,该采样方式可以分两步进行。第一步先从类别中选择所需类别,第二步从对应类别中随机选择样本。

5-2.分类器学习阶段

重新学习分类器(cRT):重新随机初始化分类器或者继承特征表示学习阶段的分类器,重点在于保证学习率重置到起始大小并选择 cosine 学习率。

τ-归一化(tau-normalization):τ 的选取在验证集上进行,如果没有验证集可以从训练集模仿平衡验证集,可参考原论文附录 B.5。

可学习参数放缩(LWS):学习率的选择与 cRT 一致,学习过程中要保证分类器参数固定不变,只学习放缩因子。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:深度学习论文: Selective Kernel Networks及其PyTorch实现
下一篇:hdu Bone Collector(背包)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~