魔搭ModelScope社区 07月08日 14:15
智谱AI发布新版VLM开源模型GLM-4.1V-9B-Thinking,引入思考范式,性能提升8倍
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

智谱AI推出GLM-4.1V-9B-Thinking视觉语言大模型,仅10B参数却在18项任务中持平甚至超越8倍参数量的Qwen-2.5-VL-72B,支持64k上下文长度、4k图像分辨率及中英文双语,开源助力研究突破。该模型引入思考范式,通过课程采样强化学习 RLCS全面提升模型能力,在多个子领域均达到世界前列的水平,支持任意长宽比和高达4k的图像分辨率,提供支持中英文双语的开源模型版本。

🔍 智谱AI推出的GLM-4.1V-9B-Thinking视觉语言大模型仅10B参数,却在18项任务中持平甚至超越8倍参数量的Qwen-2.5-VL-72B,展现强大性能。

📚 该模型支持64k上下文长度,任意长宽比和高达4k的图像分辨率,提供支持中英文双语的开源模型版本,助力研究者探索视觉语言模型的能力边界。

🤖 GLM-4.1V-9B-Thinking通过引入「思维链」推理机制,在回答准确性、内容丰富度与可解释性方面全面超越传统的非推理式视觉模型,在28项评测任务中有23项达到10B级别模型最佳。

🎨 该模型是系列中首个推理模型,在数学领域及其他多个子领域均达到世界前列的水平,支持图像OCR微调,提供丰富的应用场景。

🌐 ms-swift已经支持GLM4.1V系列模型的微调,开发者可以使用自定义数据集进行模型训练,满足不同任务需求。

2025-07-02 20:03 浙江

智谱AI推出GLM-4.1V-9B-Thinking视觉语言大模型,仅10B参数却在18项任务中持平甚至超越8倍参数量的Qwen-2.5-VL-72B,支持64k上下文长度、4k图像分辨率及中英文双语,开源助力研究突破。

01

模型推荐

视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外, 逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。

多模态大模型正在从“看得见”走向“看得懂、想得通”,基于 GLM-4-9B-0414 基座模型,智谱AI推出新版VLM开源模型 GLM-4.1V-9B-Thinking ,引入思考范式,通过课程采样强化学习 RLCS(Reinforcement Learning with Curriculum Sampling)全面提升模型能力, 达到 10B 参数级别的视觉语言模型的最强性能,在18个榜单任务中持平甚至超过8倍参数量的 Qwen-2.5-VL-72B。 同步开源基座模型 GLM-4.1V-9B-Base,希望能够帮助更多研究者探索视觉语言模型的能力边界。

与上一代的 CogVLM2 及 GLM-4V 系列模型相比,GLM-4.1V-Thinking 有如下改进:

    系列中首个推理模型,不仅仅停留在数学领域,在多个子领域均达到世界前列的水平。

    支持 64k 上下长度。

    支持任意长宽比和高达 4k 的图像分辨率。

    提供支持中英文双语的开源模型版本。

模型链接:

https://modelscope.cn/collections/GLM-41V-35d24b6def9f49

体验链接:

https://modelscope.cn/studios/ZhipuAI/GLM-4.1V-9B-Thinking-Demo

02

榜单信息

GLM-4.1V-9B-Thinking 通过引入「思维链」(Chain-of-Thought)推理机制,在回答准确性、内容丰富度与可解释性方面, 全面超越传统的非推理式视觉模型。在28项评测任务中有23项达到10B级别模型最佳,甚至有18项任务超过8倍参数量的Qwen-2.5-VL-72B。

03

快速推理

这里展现了一个使用

transformers

进行单张图片推理的代码。首先,从源代码安装

transformers

库。

pip install git+https://github.com/huggingface/transformers.git

接着按照以下代码运行:

from modelscope import AutoProcessor, Glm4vForConditionalGeneration

import torch

MODEL_PATH = "ZhipuAI/GLM-4.1V-9B-Thinking"

messages = [

    {

        "role""user",

        "content": [

            {

                "type""image",

                "url""https://upload.wikimedia.org/wikipedia/commons/f/fa/Grayscale_8bits_palette_sample_image.png"

            },

            {

                "type""text",

                "text""describe this image"

            }

        ],

    }

]

processor = AutoProcessor.from_pretrained(MODEL_PATH, use_fast=True)

model = Glm4vForConditionalGeneration.from_pretrained(

    pretrained_model_name_or_path=MODEL_PATH,

    torch_dtype=torch.bfloat16,

    device_map="auto",

)

inputs = processor.apply_chat_template(

    messages,

    tokenize=True,

    add_generation_prompt=True,

    return_dict=True,

    return_tensors="pt"

).to(model.device)

generated_ids = model.generate(**inputs, max_new_tokens=8192)

output_text = processor.decode(generated_ids[0][inputs["input_ids"].shape[1]:], skip_special_tokens=False)

print(output_text)

显存占用:

04

模型微调

ms-swift已经支持了GLM4.1V系列模型的微调。ms-swift是魔搭社区官方提供的大模型与多模态大模型训练部署框架。ms-swift开源地址:https://github.com/modelscope/ms-swift我们将展示可运行的微调demo,并给出自定义数据集的格式。

在开始微调之前,请确保您的环境已准备妥当。

# pip install git+https://github.com/modelscope/ms-swift.git

git clone https://github.com/modelscope/ms-swift.git

cd ms-swift

pip install -e .

ZhipuAI/GLM-4.1V-9B-Thinking模型为例,图像OCR微调脚本如下。更多任务,包括视频微调、grounding任务微调,可以参考这里:https://github.com/modelscope/ms-swift/tree/main/examples/train/multimodal

CUDA_VISIBLE_DEVICES=0 \

swift sft \

    --model ZhipuAI/GLM-4.1V-9B-Thinking \

    --dataset AI-ModelScope/LaTeX_OCR:human_handwrite#20000 \

    --train_type lora \

    --torch_dtype bfloat16 \

    --num_train_epochs 1 \

    --per_device_train_batch_size 1 \

    --per_device_eval_batch_size 1 \

    --learning_rate 1e-4 \

    --lora_rank 8 \

    --lora_alpha 32 \

    --target_modules all-linear \

    --freeze_vit true \

    --gradient_accumulation_steps 16 \

    --eval_steps 50 \

    --save_steps 50 \

    --save_total_limit 5 \

    --logging_steps 5 \

    --max_length 2048 \

    --output_dir output \

    --warmup_ratio 0.05 \

    --dataloader_num_workers 4

训练显存占用:

自定义数据集格式如下(system字段可选),只需要指定`--dataset <dataset_path>`即可:

{"messages": [{"role": "user", "content": "浙江的省会在哪?"}, {"role": "assistant", "content": "浙江的省会在杭州。"}]}

{"messages": [{"role": "user", "content": "<image><image>两张图片有什么区别"}, {"role": "assistant", "content": "前一张是小猫,后一张是小狗"}], "images": ["/xxx/x.jpg", "/xxx/x.png"]}

{"messages": [{"role": "system", "content": "你是个有用无害的助手"}, {"role": "user", "content": "<video>视频中是什么"}, {"role": "assistant", "content": "视频中是一只小狗在草地上奔跑"}], "videos": ["/xxx/x.mp4"]}

训练完成后,使用以下命令对训练时的验证集进行推理:

CUDA_VISIBLE_DEVICES=0 \

swift infer \

    --adapters output/vx-xxx/checkpoint-xxx \

    --stream false \

    --max_batch_size 1 \

    --load_data_args true \

    --max_new_tokens 2048

推送模型到ModelScope:

CUDA_VISIBLE_DEVICES=0 \

swift export \

    --adapters output/vx-xxx/checkpoint-xxx \

    --push_to_hub true \

    --hub_model_id '<your-model-id>' \

    --hub_token '<your-sdk-token>'

点击阅读原文, 即可跳转模型链接~


👇点击关注ModelScope公众号获取

更多技术信息~

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

智谱AI GLM-4.1V-9B-Thinking 视觉语言大模型 开源模型
相关文章