Mini-InternVL结构和InternViT训练方法
模型采用动态分辨率输入和Pixel Unshuffle操作方法,使分辨率为448×448的图像可表示为256个视觉标记,支持处理最多40个图像切片。
训练过程分为两个阶段:
· 语言-图像对齐,使用多种任务的数据集进行预训练,确保模型能够处理不同的语言和视觉元素。
· 视觉指令调优,选择特定数据集微调模型,提升其在多模态任务中的表现,并教会模型遵循用户指令。
轻量级视觉编码器InternViT-300M
目前,主流多模态大模型采用在大规模图像-文本配对数据上训练的视觉编码器,如CLIP等,以获得其视觉表示。然而,这些编码器普遍缺乏对视觉世界的全面理解,需要通过与大语言模型的生成预训练进行迭代学习。
与其他通过辅助路径增强视觉基础模型的方法不同,联合团队直接使用了一个经过生成训练的强大视觉模型,将其预训练知识迁移到一个轻量级的视觉模型上。研究人员使用视觉编码器InternViT-6B作为“教师模型”,并用CLIP-ViT-L-336px初始化“学生模型”的权重。通过计算最后K层变换器隐藏状态之间的负余弦相似度损失,对齐“学生模型”和“教师模型”的表征,构建出新的视觉编码器InternViT-300M。
研究人员从多个公开资源中精选自然图像、OCR图像、图表和多学科图像数据集,所有图像的分辨率都被调整为448×448,为提高训练效率,而未使用动态分辨率。最终,InternViT-300M以1/20的参数量,继承了InternViT-6B蕴含的预训练知识,以轻体量适配各类大语言模型。
迁移学习框架,知识“一键迁移”
由于模型设计、数据格式和训练策略的差异,导致多模态大模型之间存在显著异质性。为此,研究人员推出了一个简单有效的迁移学习框架,实现模型设计、数据格式和训练策略的标准化,减少训练数据需求和计算资源成本。
其中指令调优是训练的关键阶段,如下图所示,在数据格式方面,通过将训练数据格式化为视觉问答(VQA)和对话格式,提升模型遵循用户指令的能力。对于其他传统任务,例如图像分类任务,视觉定位任务,区域感知任务和多视角图像和视频帧的理解,此前的多格式内容均被统一单独格式化为VQA格式。
域迁移框架中的数据格式
实验结果
通用基准测试
Mini-InternVL在多个基准测试中表现优异。最小版本模型仅包含10亿参数,但其性能与20亿参数的同类型模型相当。与其他轻量级模型相比,Mini-InternVL-4B在大多数基准测试中表现出色,在MMbench、ChartQA、DocVQA和MathVista等任务上,其表现接近主流商业模型。值得注意的是,Mini-InternVL仅使用5%的参数,便实现了InternVL2-Llama3-76B约90%的性能表现。
域迁移的结果
研究人员分别针对多视角自动驾驶,具有时间信息的自动驾驶,医学图片感知和遥感图像感知四个垂类领域进行了域迁移。
迁移模型在Drivelm榜单上的结果
迁移模型在BDD-X数据的动作任务上的表现
迁移模型在BDD-X数据的控制信号预测任务上的表现
迁移模型在GMAI-MMBench上的表现
迁移模型在遥感图像基准RSVQA和DIOR-RSVG上的表现
上海市徐汇区龙文路129号
国际传媒港L1楼
联系我们
comm@pjlab.org.cn
Copyright © 2025 Shanghai Artificial Intelligence Laboratory
沪ICP备2021009351号-1