多模态大模型:关于Better Captions那些事儿
一、ShareGPT4V
题目: ShareGPT4V: Improving Large Multi-Modal Models with Better Captions
机构:中科大,上海人工智能实验室
论文: https://arxiv.org/pdf/2311.12793.pdf
代码:https://sharegpt4v.github.io/
任务: 多模态大模型CAPTION数据集质量优化
特点: 提出一个大规模更高质量的图像caption数据集
方法: 利用GPT4V
前置相关工作:LLaVA-Instruct,Qwen-VL
1.1、Motivation
利用GPT4-V去构造更加详细且准确的图像文本描述(相比COCO-Caption以及LLaVA-Instruct等数据集而言)
- 100K直接从GPT4-V直接生成的captions
- 利用上述子集去训练一个caption模型,进而把数据集扩充自1.2M
- ShareGPT4V用于SFT阶段可以明显提升LLaVA-7B, LLaVA-1.5-13B, and Qwen- VL-Chat-7B 在MME和MMBench等数据集上的指标
- 利用这个数据集,进行预训练和微调,提出一个模型ShareGPT4V-7B
本文认为现在LMM常规的两段式训练,预训练再微调,在预训练阶段想要达到的模态对齐的目标往往很难达到,其中一个很重要的原因是高质量的图文对比较少,现有的图文对,文本描述往往比较简单,并且主要关注在显著性的目标身上,会丢失很多信息,导致是一个sub optimal的模态对齐。
为了证明上面motivation,做了如下的简单实验,将GPT4-V生成的caption,以一定比例替换掉如下LLM SFT阶段的数据,only 3.5% for LLaVA-1.5 [30] and Qwen-VL-Chat [3]1, and 14.5% for LLaVA [31](值得注意的是千问-VL chat的pre-SFT的模型以及SFT的数据都是没有开源的,因此采取的方式是直接用LLaVA-1.5 SFT的665K数据去做实验微调 Qwen-VL-Chat-7B)
当然,在上面的100K GPT4-V构造的数据,尝到甜头后,也驱使作者去构造更多的数据用于预训练阶段(可能是从成本考虑,间接去训练了一个captioner,而非直接去调用GPT4-V去构造超过1M量级的数据集)
1.2、ShareGPT4V数据集构建
值得注意的是这100K的图像,还是有针对性的做了一些配比以及源的选取的,比如
- 50K images from COCO [29]
- 30K images from ’LCS’ (which abbreviates LAION [48], CC-3M [50], and SBU [41])
- 20K images from SAM [21]
- 500 images from TextCaps [51]
- 500 images from WikiArt [47]
- 1K images from web- crawled data (split evenly between images of landmarks and images of celebritie
对于1.2M用于训练share captioner的图像,分别来自:
- 118K images from COCO [29]
- 570K images from SAM [21]
- 558K images from LLaVA-1.5 pre-training data [30].
最终得到ShareGPT4V-PT这样一个预训练的数据集
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。 如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:veading@qq.com进行投诉反馈,一经查实,立即删除!