Deit 模型讲解和代码资源合集
DeiT(Data-efficient Image Transformer)是由Facebook AI和索邦大学联合提出的高效视觉Transformer模型,通过引入注意力蒸馏(distillation through attention)机制显著提升了训练效率。相关资源包括:1)论文与源码(arXiv:2012.12877,GitHub开源);2)技术解析文章(51CTO/CSDN等平台详解模型
DeiT(Data-efficient Image Transformer) 是由 Facebook AI 和索邦大学联合提出的高效视觉 Transformer模型,通过引入 注意力蒸馏(distillation through attention) 机制显著提升了训练效率。
相关资源包括:
-
论文与源码(arXiv:2012.12877,GitHub开源);
-
技术解析文章(51CTO/CSDN 等平台详解模型原理与蒸馏方法);
-
实现教程(PyTorch 版 ViT/DeiT 代码库);
-
论文翻译(完整中译版)。
核心创新在于采用 CNN 教师模型 进行知识蒸馏,使 Transformer 在较小数据集上达到 SOTA 性能。多篇解读从不同角度剖析了其 架构设计、训练策略 及与 ViT 的对比。
-
发表单位: Facebook AI & Sorbonne University

资源合集
1、Transformer + Distillation:DeiT 高效的图像Transformer
2、DeiT:ViT & 模型蒸馏
简单阐述了DeiT的机制,并介绍了模型蒸馏方法,额外提供了DeiT的实现代码
DeiT:ViT&模型蒸馏 - 知乎
https://zhuanlan.zhihu.com/p/471384477
3、DeiT:Training data-efficient image transformers & distillation through attention
4、Transformer主干网络——DeiT保姆级解析
Transformer主干网络——DeiT保姆级解析_deit v2-CSDN博客
https://blog.csdn.net/qq_37668436/article/details/122887573
5、【论文阅读】DeiT | Training data-efficient image transformers & distillation through attention
6、 论文阅读笔记 | Transformer系列——DeiT
7、【读论文】Transformer的蒸馏DeiT: Training data-efficient image transformers & distillation through attention
8、DeiT翻译【Training data-efficient image transformers & distillation through attention】
9、DeiT
一篇特别简短介绍DeiT的文章,但是干货很多
DeiT - 知乎
https://zhuanlan.zhihu.com/p/345508187
10、ViT和DeiT的原理与使用
(80 封私信 / 82 条消息) ViT和DeiT的原理与使用 - 知乎
https://zhuanlan.zhihu.com/p/354140152
11、DeiT:使用Attention蒸馏Transformer
(80 封私信 / 82 条消息) DeiT:使用Attention蒸馏Transformer - 知乎
https://zhuanlan.zhihu.com/p/413404691
12、基于Pytorch实现的ViT模型源码
13、基于Pytorch实现的DeiT模型源码
GitHub - facebookresearch/deit: Official DeiT repository
https://github.com/facebookresearch/deit
更多推荐



所有评论(0)