【TPAMI 2023】What Makes for Good Tokenizers in Vision Transformer?

Posted by ShawnD on November 28, 2023

Abstract

Transformer 架构最近在视觉任务中迎来了迅猛的应用,与普遍的卷积范式形成了对立。

依靠将输入分割成多个 token 的 tokenization 过程, Transformer 能够利用自注意力机制提取他们之间的成对关系。

虽然它是 Transformer 的基础构造块,但在计算机视觉中,一个好的 Tokenizer 到底是什么还没有被充分理解。

在这项工作中,我们从信息权衡的角度研究了这一未知问题。

除了统一和理解现有的结构性修改之外,我们的推导促成了更好的视觉 Tokenizer 设计策略。

我们提出的MoTo(Modulation across Tokens)通过标准化增加了 Token 间建模能力。

此外,在标准训练制度中还融入了一个规范化目标TokenProp。

通过在各种 Transformer 架构上进行广泛的实验,我们观察到这两种即插即用设计在提高性能和显示出引人注目的特性方面都有所改进,并且计算开销可以忽略不计。

这些观察进一步表明了在视觉 Transformer 中,通常被忽略的 Tokenizer 设计的重要性。