2024-07-16 11:41 湖北
SEED-Story由MLLM驱动,能够从用户提供的图片和文本作为故事的开始,生成多模态长篇故事,模型、代码与数据都已开源。生成的故事包括丰富且连贯的叙事文本,以及在角色和风格上保持一致的图片。故事可以跨越多达25个多模态序列,尽管在训练期间仅使用最多10个序列。
SEED-Story训练过程包括三个阶段:
在第一阶段,我们预训练一个基于SD-XL的去标记化器,通过接受预训练的ViT的特征作为输入来重建图片。
在第二阶段,我们采样一个随机长度的交错图像-文本序列,并通过对目标图像的ViT特征和可学习查询的输出隐藏状态之间的下一个词预测和图像特征回归来训练MLLM。
在第三阶段,从MLLM回归得到的图像特征被输入到去标记化器中,以调整SD-XL,增强生成图片中角色和风格的一致性。
左侧:在多模态故事生成中预测下一个词时的注意力图可视化。我们观察到重要的注意力集中在整个序列的第一个词("0"词),标点符号词,与BoI(图像开头)相邻的词和与EoI(图像结尾)相邻的词上。右侧:(a) 密集型注意力图,它保留了KV缓存中的所有词。(b) 窗口型注意力,通过滑动窗口逐出前面的词。(c) 注意力汇聚,它基于窗口型注意力保留了开头的词。(d) 多模态注意力汇聚,它基于窗口型注意力保留了文本词的开头、图像词以及图像词的结尾。这可以有效地使我们的模型泛化到生成比训练序列长度更长的序列。
StoryStream数据集和现有多模态故事生成数据集的样本数据。StoryStream多模态故事序列包括视觉上吸引人的高分辨率图片,以及详细叙述的文本(如下方划线所示),非常接近真实世界的故事书。此外,故事在长度上也更加延伸。
实验证明了SEED-Story模型在多模态故事生成方面的先进性,特别是在生成长篇故事和维持生成内容的一致性与质量方面。
MM-interleaved与SEED-Story多模态故事生成的定量评估。(a):显示FID得分的直方图。(b, c, d):使用GPT-4V分别选择MM-interleaved和SEED-Story生成的首选结果。饼图显示了胜率,其中“平局”表示GPT-4V以同等分数评估了它们的成果。
来自SEED-Story的多模态故事生成示例。它展示了从同一初始图像生成的两个叙事分支。顶部分支以引用“戴黄帽子的男人”的文本开始,导致包含该角色的图像生成。底部分支开始时没有提及男人,结果导致故事在排除他的情况下与第一个分支发生分歧。
SEED-Story多模态长篇故事生成结果
SEED-Story多模态长篇故事生成结果
使用不同注意力机制生成长故事的可视化。采用其他机制的模型在生成长序列时会崩溃,而我们的模型采用多模态注意力汇聚机制始终如一地生成高质量的图像。
https://github.com/TencentARC/SEED-Story
SEED-Story: Multimodal Long Story Generation with Large Language Model
https://arxiv.org/pdf/2407.08683
推荐阅读
• 对齐LLM偏好的直接偏好优化方法:DPO、IPO、KTO
• RAG全景图:从RAG启蒙到高级RAG之36技,再到终章Agentic RAG!
• Agent到多模态Agent再到多模态Multi-Agents系统的发展与案例讲解(1.2万字,20+文献,27张图)
欢迎关注我的公众号“PaperAgent”,每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。