山真柄 发表于 2025-6-3 10:42:56

CV中常用Backbone-2:ConvNeXt模型详解及其代码

之前介绍了CV常用Backbon:
CV中常用Backbone-1:Resnet/Unet/Vit系列/多模态系列等)以及代码
这里介绍新的一个Backbone:ConvNeXt,主要来自两篇比较老的来自Meta论文:
1、《A ConvNet for the 2020s》
arXiv:2201.03545
2、《ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders》
arXiv:2301.00808
两篇论文讲的都是一个模型:ConvNeXt。这也是证明一点:Vit效果好并不是attention本身而是因为transform的超大感受野和各种trick。因此作者也是不断借鉴Vit的操作(用斜体表示)
ConvNeXt v1

A ConvNet for the 2020s
⚙-官方代码:https://github.com/facebookresearch/ConvNeXt/blob/main/models/convnext.py
⚙-自己修改:https://www.big-yellow-j.top/code/ConvNeXt.py

值得注意的一点是在 ConvNeXt 其实就是一个大型的模型调参(不断调节网络参数取得不错效果,于此同时作者对于模型为什么这么做也都是:对比其他模型做法而后而后借鉴到自己做法中),首先作者在论文中做了如下的一些对比(和采用 swin-transformer的resnet进行对比):

模型在改进上主要是如下几点:1、macro design;2、 ResNeXt;3、inverted bottleneck;4、large kernel size;5、various layer-wise micro designs。

[*]1、Macro design
这一点主要是对模型的参数结构做了调整在准确率的提升上起到的效果还是比较有限的
在这里作者主要是做了如下几点修改:1、修改堆叠数量。将ResNet-50中的block堆叠数量从:\((3,4,6,3)\) 改为:\((3,3,9,3)\)。之所以这样设计作者对比 Swin Transformers中主要的比率 为:\((1,1,9,1)\) 通过这样调整对于准确率提升还是比较有限的(78.8%-->79.4%),resnet中堆叠数量

2、修改卷积核。这点没有过多解释直接使用:步长为4,大小也为4的卷积操作(这里是因为:在 Vit网络架构中通常使用一个步长为4,大小也为4的卷积 ),准确率有79.4%-->79.5%
除此之外作者还有一点修改就是将最初的 通道数由64调整成96和Swin Transformer保持一致 ,准确率:80.5%

[*]2、Inverted bottleneck
上面第1点是做模型宏观参数(卷积核大小等)做修改,而在这里作者做得主要修改网络结构顺序

a:resnet;b:MobileNetV2;c:ConvNeXt
这里作者给出的解释是:在Vit中的MLP做的处理和上图中的(b)操作很相像(代码:⚙)
...
self.linear1 = nn.Linear(embed_dim, dim_feedforward)
self.dropout = nn.Dropout(dropout)
self.linear2 = nn.Linear(dim_feedforward, embed_dim)
...
src2 = self.linear2(self.dropout(F.relu(self.linear1(src2))))因此作者给出的做法是:先降低后提高。在较小的模型上准确率由80.5%提升到了80.6%,在较大的模型上准确率由81.9%提升到82.6%。

[*]3、Large Kernel Sizes
换成更加大的卷积核操作
这里就比较简单直接将最开始的3x3卷积核改为7x7卷积核,它将模型的准确率提升至80.6%

[*]4、Micro Design
激活函数替换:将Relu改为GELU(对结果影响不是很大);
减少激活函数:之前网络结构可能对每一个卷积处理之后都会使用一个激活函数处理,这里的话只在 两个 \(1\times1\) 卷积后面添加一个激活函数进行处理;
减少归一化层:因此在ConvNeXt中也使用了更少的归一化操作,它仅在第一个\(1\times1\)卷积之前添加了一个BN
替换归一化层:像之前的描述最开始在卷积网络中都是用BN作为归一化层,这里作者使用LN也取得不错效果;
拆分采样层:在残差网络中,它通常使用的是步长为 2的3x3卷积或者1x1卷积来进行降采样,这使得降采样层和其它层保持了基本相同的计算策略。但是 Swin Transformer将降采样层从其它运算中剥离开来 ,即使用一个步长为2的2x2卷积插入到不同的Stage之间。ConvNeXt也是采用了这个策略,而且在降采样前后各加入了一个LN,而且在全局均值池化之后也加入了一个LN,这些归一化用来保持模型的稳定性。这个策略将模型的准确率提升至82.0%

总的来说这篇论文主要还是集中在玄学调参:1、对于ResNet去修改他的堆叠数量(1,1,9,1);2、换更加大的卷积核(4x4,4);3、更加少的激活函数核归一化处理(都只在1x1卷积之后进行操作)。提供如下几种模型

其中C代表4个stage中输入的通道数,B代表每个stage重复堆叠block的次数
ConvNeXt v2

ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders
这篇文章主要就是两个内容:1、Masked Autoencoder(MAE);2、Global Response Normalization(GRN)。将这两个内容用到 ConvNeXt 中来。依次介绍这两个内容。

[*]1、Masked Autoencoder

这点其实并不是很新早在 何凯明提出模型(MAE)以及提到过(详细描述:
来源:程序园用户自行投稿发布,如果侵权,请联系站长删除
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: CV中常用Backbone-2:ConvNeXt模型详解及其代码