魔搭ModelScope社区 02月20日
魔搭社区模型速递(1.19-2.15)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

魔搭ModelScope社区有众多进展,包括多种模型、数据集、应用上新及文章发布,涵盖多个领域的创新成果。

📟魔搭ModelScope推出6205个模型,如DeepSeek-R1-Distill-Qwen系列等

📁包含823个数据集,如R1蒸馏模型数学推理能力测试集等

🎨333个创新应用,如DeepSeek-R1 游乐场等

📄26篇内容,涉及多智能体强化学习、模型开源等多个方面

2025-02-16 21:04 浙江

模型上新6205、数据集823、应用上新333、文章发布26

?魔搭ModelScope本期社区进展:

?6205个模型:DeepSeek-R1-Distill-Qwen系列、Qwen2.5 VL系列、VITA-1.5、Janus-Pro、Qwen2.5-1M、UI-TARS、InspireMusic、RWKV-7 2.9B等;

?823个数据集:R1蒸馏模型数学推理能力测试集、smoltalk中文数据集、大模型IQ/EQ评测集、codeforces problemset等;

?333个创新应用DeepSeek-R1 游乐场、Qwen2.5-Max展示、Qwen2.5-VL-72B-Instruct展示、Janus-Pro-7B多模态、Qwen2.5-1M-Demo等;

? 26篇内容:


01


精选模型


DeepSeek-R1系列

Deepseek发布并开源 DeepSeek-R1,遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。同步,DeepSeek官方蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果,同时显著降低了资源消耗,适合企业内部部署和研究社区使用,尤其在数学、逻辑推理和编程任务上表现优异。



模型链接:

https://modelscope.cn/collections/DeepSeek-R1-c8e86ac66ed943


示例代码:

使用ollama推理

设置ollama下启用

ollama serve
ollama run DeepSeek-R1任意GGUF模型
ollama run modelscope.cn/unsloth/DeepSeek-R1-Distill-Qwen-7B-GGUF

运行结果


使用魔搭社区API-Inference推理:

from openai import OpenAI
client = OpenAI( base_url='https://api-inference.modelscope.cn/v1/', api_key='Your_SDK_Token', # ModelScope Token)
response = client.chat.completions.create( model='deepseek-ai/DeepSeek-R1', # ModelScope Model-Id messages=[ { 'role': 'system', 'content': 'You are a helpful assistant.' }, { 'role': 'user', 'content': '你好' } ], stream=True)

reasoning_content = ''answer_content = ''done_reasoning = Falsefor chunk in response: # for reaonsing model, output may include both reasoning_content and content reasoning_chunk = chunk.choices[0].delta.reasoning_content answer_chunk = chunk.choices[0].delta.content if reasoning_chunk != '': print(reasoning_chunk, end='',flush=True) elif answer_chunk != '': if not done_reasoning: print("\n\n === Final Answer ===\n") done_reasoning = True print(answer_chunk, end='',flush=True)
好的,用户用中文打招呼“你好”,我需要回应。首先,确定用户的需求是什么。可能只是简单的问候,或者有后续问题。考虑到用户之前可能切换了语言,现在用中文,可能需要中文回答。我应该保持友好,询问有什么可以帮助的,同时保持简洁。避免使用复杂的句子,让用户感到轻松。另外,检查是否有拼写错误,确保回应自然。最后,确保符合OpenAI的内容政策,不涉及敏感话题。准备好回应后,发送即可。
=== Final Answer ===
你好!很高兴见到你,有什么我可以帮忙的吗?


Qwen2.5 VL系列

Qwen团队推出最新视觉语言模型Qwen2.5-VL,具备强大的视觉语言理解和生成能力。

能力增强部分包括:

    超强视觉理解:不仅能识别常见物体,还能分析图像中的文本、图表、图标和布局。

    智能代理能力:可作为视觉Agent,推理并动态指挥工具,支持多平台操作。

    长视频理解:能够理解超过1小时的视频内容,并精准定位关键事件。

    精准物体定位:通过边界框和点定位技术,输出稳定的JSON格式坐标和属性。

    结构化输出:支持对发票、表格等数据的结构化输出,适用于金融和商业领域。


Qwen2.5-VL有3B、7B和72B三种参数规模版本,适用于不同的应用场景。其在文档理解、视频分析和视觉代理任务上表现优异,无需针对特定任务进行微调。


模型链接:

通义千问2.5-VL-3B-Instruct

https://modelscope.cn/models/Qwen/Qwen2.5-VL-3B-Instruct


通义千问2.5-VL-7B-Instruct

https://modelscope.cn/models/Qwen/Qwen2.5-VL-7B-Instruct


通义千问2.5-VL-72B-Instruct

https://modelscope.cn/models/Qwen/Qwen2.5-VL-72B-Instruct


示例代码:

使用transformers推理:

pip install git+https://github.com/huggingface/transformers

官方提供了一个工具包,可帮助更方便地处理各种类型的视觉输入,就像使用 API 一样。这包括 base64、URL 以及交错的图像和视频。可以使用以下命令安装它:

pip install qwen-vl-utils[decord]==0.0.8

推理代码:

from transformers import Qwen2_5_VLForConditionalGeneration, AutoTokenizer, AutoProcessorfrom qwen_vl_utils import process_vision_infofrom modelscope import snapshot_download
model_dir = snapshot_download("Qwen/Qwen2.5-VL-3B-Instruct")# default: Load the model on the available device(s)model = Qwen2_5_VLForConditionalGeneration.from_pretrained( model_dir, torch_dtype="auto", device_map="auto")
# We recommend enabling flash_attention_2 for better acceleration and memory saving, especially in multi-image and video scenarios.# model = Qwen2_5_VLForConditionalGeneration.from_pretrained(# "Qwen/Qwen2.5-VL-3B-Instruct",# torch_dtype=torch.bfloat16,# attn_implementation="flash_attention_2",# device_map="auto",# )
# default processerprocessor = AutoProcessor.from_pretrained(model_dir)
# The default range for the number of visual tokens per image in the model is 4-16384.# You can set min_pixels and max_pixels according to your needs, such as a token range of 256-1280, to balance performance and cost.# min_pixels = 256*28*28# max_pixels = 1280*28*28# processor = AutoProcessor.from_pretrained("Qwen/Qwen2.5-VL-3B-Instruct", min_pixels=min_pixels, max_pixels=max_pixels)
messages = [ { "role": "user", "content": [ { "type": "image", "image": "https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen-VL/assets/demo.jpeg", }, {"type": "text", "text": "Describe this image."}, ], }]
# Preparation for inferencetext = processor.apply_chat_template( messages, tokenize=False, add_generation_prompt=True)image_inputs, video_inputs = process_vision_info(messages)inputs = processor( text=[text], images=image_inputs, videos=video_inputs, padding=True, return_tensors="pt",)inputs = inputs.to("cuda")
# Inference: Generation of the outputgenerated_ids = model.generate(**inputs, max_new_tokens=128)generated_ids_trimmed = [ out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)]output_text = processor.batch_decode( generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False)print(output_text)


更多详情请查看文章:

Qwen2.5 VL! Qwen2.5 VL! Qwen2.5 VL! 重要的模型说三遍!

Qwen2.5-VL Cookbook来啦!手把手教你怎么用好视觉理解模型!



UI-TARS

UI-TARS 是由字节跳到开源的新一代原生 GUI 代理模型,旨在利用类似人类的感知、推理和操作能力与图形用户界面 (GUI) 无缝交互。与传统的模块化框架不同,UI-TARS 将所有关键组件(感知、推理、基础和记忆)集成到单个视觉语言模型 (VLM) 中,无需预定义的工作流程或手动规则即可实现端到端任务自动化。


模型链接:

UI-TARS-2B-SFT

https://modelscope.cn/models/bytedance-research/UI-TARS-2B-SFT


UI-TARS-7B-SFT

https://modelscope.cn/models/bytedance-research/UI-TARS-7B-SFT


UI-TARS-72B-SFT

https://modelscope.cn/models/bytedance-research/UI-TARS-72B-SFT


UI-TARS-72B-DPO

https://modelscope.cn/models/bytedance-research/UI-TARS-72B-DPO


UI-TARS-7B-DPO

https://modelscope.cn/models/bytedance-research/UI-TARS-7B-DPO


使用指引:

开源版Operator原生AI智能体来了?字节跳动开源UI-TARS模型



02


数据集推荐



R1蒸馏模型数学推理能力测试集

用于评测R1类模型推理能力的数据集,包括MATH-500(高中数学竞赛问题)、GPQA-Diamond(物理、化学、生物硕士水平选择题)和AIME-2024(美国邀请数学竞赛题目),并展示了如何使用EvalScope框架进行模型性能评测和结果可视化。

数据集链接:

https://modelscope.cn/datasets/modelscope/R1-Distill-Math-Test/summary


更多详情请查看文章:

R1蒸馏模型数学推理能力测试集


smoltalk中文数据集

是一个中文微调数据集,该数据集是参考Smoltalk数据集的。它旨在为培训大语言模型提供高质量的合成数据支持(LLMs )。该数据集完全由合成数据组成,包括700,000多个条目。它是专门设计的,以增强中文的性能LLMs在各种任务中,提高了它们的多功能性和适应性。

数据集链接:

https://modelscope.cn/datasets/opencsg/smoltalk-chinese


更多详情请查看文章:

OpenCSG开源SmolTalk Chinese数据集


大模型IQ/EQ评测集

大模型IQ/EQ评测集(IQuiz)是一个用于评估大语言模型智力(IQ)和情商(EQ)的多维度基准数据集,涵盖逻辑推理、常识问答、情感分析等多种任务,旨在全面评测模型的综合能力。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/IQuiz


codeforces problemset

数据集包含了来自 Codeforces 编程竞赛平台的大量编程题目数据。这些题目涵盖了从基础到高级的算法和数据结构问题,适用于编程训练、算法研究以及开发相关竞赛辅助工具等场景。

数据集链接:

https://modelscope.cn/datasets/ysysn7/578424


03


精选应用



DeepSeek-R1 游乐场

体验直达:

https://modelscope.cn/studios/AI-ModelScope/deepseek-playground


Qwen2.5-Max展示

体验直达:

https://modelscope.cn/studios/Qwen/Qwen2.5-Max-Demo


Qwen2.5-VL-72B-Instruct展示

体验直达:

https://modelscope.cn/studios/Qwen/Qwen2.5-VL-72B-Instruct


Janus-Pro-7B多模态

体验直达:

https://modelscope.cn/studios/AI-ModelScope/Janus-Pro-7B


Qwen2.5-1M-Demo

体验直达:

https://modelscope.cn/studios/Qwen/Qwen2.5-1M-Demo


04


社区精选文章






?点击关注ModelScope公众号获取

更多技术信息~


阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

魔搭ModelScope 模型 数据集 应用 文章
相关文章