清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数

  关注“FightingCV”公众号

  回复“AI”即可获得超100G人工智能的教程

  点击进入→FightingCV交流群

  本篇文章为大家介绍清华大学在 CVPR 2023 的论文,Learning Imbalanced Data with Vision Transformers(用视觉 Transformer 学习长尾数据),代码已开源。

  背景

  在机器学习领域中,学习不平衡的标注数据一直是一个常见而具有挑战性的任务。近年来,视觉 Transformer 作为一种强大的模型,在多个视觉任务上展现出令人满意的效果。然而,视觉 Transformer 处理长尾分布数据的能力和特性,还有待进一步挖掘。

  目前,已有的长尾识别模型很少直接利用长尾数据对视觉 Transformer(ViT)进行训练。基于现成的预训练权重进行研究可能会导致不公平的比较结果,因此有必要对视觉 Transformer 在长尾数据下的表现进行系统性的分析和总结。

  

  论文链接:https://arxiv.org/abs/2212.02015

  代码链接:https://github.com/XuZhengzhuo/LiVT

  本文旨在填补这一研究空白,详细探讨了视觉 Transformer 在处理长尾数据时的优势和不足之处。本文将重点关注如何有效利用长尾数据来提升视觉 Transformer 的性能,并探索解决数据不平衡问题的新方法。通过本文的研究和总结,研究团队有望为进一步改进视觉 Transformer 模型在长尾数据任务中的表现提供有益的指导和启示。这将为解决现实世界中存在的数据不平衡问题提供新的思路和解决方案。

  文章通过一系列实验发现,在有监督范式下,视觉 Transformer 在处理不平衡数据时会出现严重的性能衰退,而使用平衡分布的标注数据训练出的视觉 Transformer 呈现出明显的性能优势。相比于卷积网络,这一特点在视觉 Transformer 上体现的更为明显。另一方面,无监督的预训练方法无需标签分布,因此在相同的训练数据量下,视觉 Transformer 可以展现出类似的特征提取和重建能力。

  基于以上观察和发现,研究提出了一种新的学习不平衡数据的范式,旨在让视觉 Transformer 模型更好地适应长尾数据。通过这种范式的引入,研究团队希望能够充分利用长尾数据的信息,提高视觉 Transformer 模型在处理不平衡标注数据时的性能和泛化能力。

  文章贡献

  本文是第一个系统性的研究用长尾数据训练视觉 Transformer 的工作,在此过程中,做出了以下主要贡献:

  首先,本文深入分析了传统有监督训练方式对视觉 Transformer 学习不均衡数据的限制因素,并基于此提出了双阶段训练流程,将视觉 Transformer 模型内在的归纳偏置和标签分布的统计偏置分阶段学习,以降低学习长尾数据的难度。其中第一阶段采用了流行的掩码重建预训练,第二阶段采用了平衡的损失进行微调监督。

  

  其次,本文提出了平衡的二进制交叉熵损失函数,并给出了严格的理论推导。平衡的二进制交叉熵损失的形式如下:

  

  与之前的平衡交叉熵损失相比,本文的损失函数在视觉 Transformer 模型上展现出更好的性能,并且具有更快的收敛速度。研究中的理论推导为损失函数的合理性提供了严密的解释,进一步加强了我们方法的可靠性和有效性。

  

  不同损失函数的收敛速度的比较

  基于以上贡献,文章提出了一个全新的学习范式 LiVT,充分发挥视觉 Transformer 模型在长尾数据上的学习能力,显著提升模型在多个数据集上的性能。该方案在多个数据集上取得了远好于视觉 Transformer 基线的性能表现。

  

  不同参数量下在 ImageNet-LT 上的准确性。

  

  在 ImagNet-LT(左)和 iNaturalist18(右)数据集上的性能表现

  同时,本文还验证了在相同的训练数据规模的情况下,使用ImageNet的长尾分布子集(LT)和平衡分布子集(BAL)训练的 ViT-B 模型展现出相近的重建能力。如 LT-Large-1600 列所示,在 ImageNet-LT 数据集中,可以通过更大的模型和 MGP epoch 获得更好的重建结果。

  

  总结

  本文提供了一种新的基于视觉 Transformer 处理不平衡数据的方法 LiVT。LiVT 利用掩码建模和平衡微调两个阶段的训练策略,使得视觉 Transformer 能够更好地适应长尾数据分布并学习到更通用的特征表示。该方法不仅在实验中取得了显著的性能提升,而且无需额外的数据,具有实际应用的可行性。

  论文的更多细节请参考论文原文和补充材料。

  From 机器之心

  往期回顾

  基础知识

  【CV知识点汇总与解析】|损失函数篇

  【CV知识点汇总与解析】|激活函数篇

  【CV知识点汇总与解析】| optimizer和学习率篇

  【CV知识点汇总与解析】| 正则化篇

  【CV知识点汇总与解析】| 参数初始化篇

  【CV知识点汇总与解析】| 卷积和池化篇 (超多图警告)

  【CV知识点汇总与解析】| 技术发展篇 (超详细!!!)

  最新论文解析

  NeurIPS2022 Spotlight | TANGO:一种基于光照分解实现逼真稳健的文本驱动3D风格化

  ECCV2022 Oral | 微软提出UNICORN,统一文本生成与边框预测任务

  NeurIPS 2022 | VideoMAE:南大&腾讯联合提出第一个视频版MAE框架,遮盖率达到90%

  NeurIPS 2022 | 清华大学提出OrdinalCLIP,基于序数提示学习的语言引导有序回归

  SlowFast Network:用于计算机视觉视频理解的双模CNN

  WACV2022 | 一张图片只值五句话吗?UAB提出图像-文本匹配语义的新视角!

  CVPR2022 | Attention机制是为了找最相关的item?中科大团队反其道而行之!

  ECCV2022 Oral | SeqTR:一个简单而通用的 Visual Grounding网络

  如何训练用于图像检索的Vision Transformer?Facebook研究员解决了这个问题!

  ICLR22 Workshop | 用两个模型解决一个任务,意大利学者提出维基百科上的高效检索模型

  See Finer, See More!腾讯&上交提出IVT,越看越精细,进行精细全面的跨模态对比!

  MM2022|兼具低级和高级表征,百度提出利用显式高级语义增强视频文本检索

  MM2022 | 用StyleGAN进行数据增强,真的太好用了

  MM2022 | 在特征空间中的多模态数据增强方法

  ECCV2022|港中文MM Lab证明Frozen的CLIP 模型是高效视频学习者

  ECCV2022|只能11%的参数就能优于Swin,微软提出快速预训练蒸馏方法TinyViT

  CVPR2022|比VinVL快一万倍!人大提出交互协同的双流视觉语言预训练模型COTS,又快又好!

  CVPR2022 Oral|通过多尺度token聚合分流自注意力,代码已开源

  CVPR Oral | 谷歌&斯坦福(李飞飞组)提出TIRG,用组合的文本和图像来进行图像检索