远东轶事 - 知乎专栏 09月12日
NASViT:高效视觉Transformer的神经架构搜索
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了一种基于supernet的神经结构搜索(NAS)训练方法,用于生成轻量级且精度更高的ViT模型。针对训练过程中的梯度冲突问题,提出多种降低梯度冲突的方法,并在ImageNet数据集上取得优于现有CNN和ViT模型的性能。

最后一篇ICLR在周四讲。

NASViT: Neural Architecture Search for Efficient Vision Transformers with Gradient Conflict aware Supernet Training

(加州时间周四4月28日下午6点半,北京时间周五4月29日上午9点半,Poster Session 12)

我们使用基于supernet的神经结构搜索(NAS)训练得到了一系列跟MobileNet一样轻量级(FLOPs位于200M到800M区间),同时精度更高的的ViT模型。在训练过程中,我们发现supernet中不同子网络之间的梯度容易互相冲突(gradient conflict),为止我们我们从搜索空间设计,optimizer优化和模型正则化的角度提出了多个方法降低不同子网络之间的梯度冲突的方法,并在ImageNet数据集上取得了优于当前的CNN和ViT模型的SOTA精度。

(感谢一作Chengyue Gong提供的文字稿)

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

神经架构搜索 ViT模型 梯度冲突
相关文章