要点:
1. 随着容量或预[]训练数据量的[]增加,模型性[]能不断提升。[]
2. 论文证实自回[]归训练对于图[]像模型学习表[]征能力具有扩[]展性。
3. 自回归目标足以满足视觉特征的训练要求,且没有饱和的迹象。
1月18日 消息:苹果公司的研究者通过自回归图像模型(AIM)验证了视觉模型“参数越多性能越强”的规律,进一步证明随着容量或预训练数据量的增加,模型能不断提升性能。AIM能有效利用大量未经整理的图像数据,训练方法和稳定性与最近的大型语言模型(LLM)类似。这一观察结果与之前关于扩展大型语言模型的研究结果是一致的。
虽然本文实验所使用的模型规模有限,还需进一步探索是否能在更大参数量级的模型上验证此规律。研究者使用的预训练目标遵循应用于图像 patch 序列的标准自回归模型,通过一系列实验和研究,验证了模型容量可以轻松扩展到数十亿个参数,同时对下游任务有很好的性能。
项目地址:h[]ttps:/[]/top.a[]ibase.[]com/to[]ol/aim[]
此外,研究者对自回归目标训练 ViT 模型的多方面进行了探讨,并且重新审视了之前的工作。研究者的实验报告显示,在整个训练过程中,优化目标直接带来更好的下游性能,而随着模型容量的增加,损失值和下游任务的准确性都有所提高。这一观察结果与在 LLMs 中观察到的趋势一致,反映了优化目标会直接带来更好的下游性能。
在 AIM 的设计参数中[],除了扩展宽[]度,研究者还[]特别采用了一[]种简单设计,[]使用多层感知[]机块,独立地[]对每个 patch 进行处理。研[]究者同时强调[],研究的模型[]规模有限,对[]更大参数量级[]的模型上验证[]此规律还有待[]进一步探索。[]
论文的实验结果证明了视觉模型同样遵循「参数越多性能越强」的规律,自回归训练对图像模型具有很好的扩展性,并能够满足视觉特征的训练要求。对未来图像模型性能提升和优化提供了新的研究方向和思路。
评论区
提示:本文章评论功能已关闭