最大CLIP!LAION发布CLIP的扩增定律

2022-12-23 07:13:09


(相关资料图)

点蓝色字关注“机器学习算法工程师”

设为星标,干货直达!

近日,LAION等机构在Reproducible scaling laws for contrastive language-image learning发布了CLIP的扩增定律(scaling law),其中最大的CLIP为ViT-H/14,基于LAION-2B数据集训练,可以在ImageNet1K数据集上到78.0%的zero-shot准确度,性能超过OpenAI目前开源的CLIP L/14,和Meta AI的FLIP Huge模型性能相当,但是模型已经开源在https://github.com/LAION-AI/scaling-laws-openclip。

论文的实验采用开源数据集LAION-400M和LAION-2B数据集,训练框架采用开源的OpenCLIP,所以论文的实验是可以复现的。训练在1520 NVIDIA A100 GPUs上进行,采用PyTorch DDP分布式训练策略,采用混合精度(但是fp16会不稳定,所以采用bf16,或者基于TF32的float32),训练的batch size在 86-88K之间。实验的总体结论是:扩增定律也明显适用CLIP,当扩增模型,训练数据和算力时,模型在下游任务上有一致性的提升。但是不同的训练数据集表现出不同的扩增系数:OpenCLIP的模型(基于LAION-2B数据集)在图文检索任务上有较大的扩增系数,而OpenAI CLIP模型(基于私有的WebImageText 400M数据集)在zero-shot分类任务上有较强的扩增系数。这个结论和FLIP的结论比较吻合,这说明训练数据集对CLIP的性能确实有比较大的影响。用论文结论的一句话来说就是:Scaling behavior depends on task type and pre-training dataset。更多内容可见论文:https://arxiv.org/abs/2212.07143

最新资讯

猜你喜欢

最大CLIP!LAION发布CLIP的扩增定律

2022-12

价格前线|12月22日铅现货异动提示

2022-12

【全球独家】智能自提柜 快捷更安全

2022-12

协程这么好,它能完全代替线程么?-当前焦点

2022-12

武汉270余家医疗机构发热门诊电子地图上线!可一键导航前往

2022-12

股海泛舟:可选消费是啥?|世界新资讯

2022-12

环球热文:华神科技: 关于调整公司2021年限制性股票激励计划首次授予部分限制性股票回购价格的公告

2022-12

保险理赔,该怎么避坑?-全球新动态

2022-12