魔搭ModelScope社区 2024年12月29日
魔搭社区每周速递(12.22-12.28)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

魔搭ModelScope社区近期迎来重大更新,共上新1039个模型,128个数据集以及63个创新应用,并新增6篇技术文章。模型方面,DeepSeek-V3以其6710亿参数的强大性能,在多项测试中超越其他开源模型;QVQ-72B-Preview视觉推理模型则在视觉理解和推理方面表现出色。数据集方面,SWE-agent-trajectories和SWE-bench-extra数据集为软件工程代理系统提供支持;fineweb-c数据集则致力于提升全球人工智能技术的可访问性。创新应用方面,QVQ-72B-preview、HelloMeme和CogAgent-Demo等应用展示了模型在不同领域的应用潜力。此外,社区还发布了多篇技术文章,涵盖大模型集成、视觉推理模型以及移动端推理框架等多个方面。

🚀DeepSeek-V3模型:幻方最新推出的专家混合语言模型,拥有6710亿参数,在MMLU等多个基准测试中表现卓越,性能逼近GPT-4o和Claude-Sonnet-3.5等封闭模型。

👁️QVQ-72B-Preview模型:Qwen团队开源的视觉推理模型,基于Qwen2-VL-72B构建,擅长视觉理解和推理,在MMMU多学科评测中获得70.3分,超越前代模型,并在数学科学领域展现强大的问题解决能力。

💡ModernBERT模型:由Answer.AI 和 LightOn发布,原生上下文长度可达8192个token,集成了多项最新架构改进,专为跨GPU的高效率推理设计,适用于处理长文档的任务,例如检索、分类和大型语料库内的语义搜索。

📚SWE系列数据集:包括SWE-agent-trajectories和SWE-bench-extra,旨在为软件工程代理系统提供训练和评估支持,解决GitHub问题并生成代码补丁,确保数据质量。

🎨创新应用:QVQ-72B-preview、HelloMeme和CogAgent-Demo等应用,分别展示了模型在多模态推理、表情姿态迁移以及图像区域识别等方面的应用潜力。

2024-12-29 18:55 浙江

模型上新1039,数据集上新128,应用上新63,文章新增6篇

?魔搭ModelScope本期社区进展:

?1039个模型:DeepSeek-V3、QVQ-72B-Preview、ModernBERT、InternVL2_5-26B-MPO-AWQ等;

?128个数据集:SWE-agent-trajectories、SWE-bench-extra、fineweb-c等;

?63个创新应用QVQ-72B-preview、HelloMeme、CogAgent-Demo

? 6内容:


01


精选模型


DeepSeek-V3

DeepSeek-V3是幻方最新推出的一个强大的专家混合(MoE)语言模型,总参数量为 6710 亿,每个 token 激活 370 亿参数。为了实现高效推理和具有成本效益的训练,DeepSeek-V3 延续前一代 DeepSeek-V2 依然采用了多头潜在注意力(MLA)和 DeepSeekMoE 架构。


DeepSeek-V3 在各项性能测试中均表现优异,在 MMLU、MMLU-Pro 和 GPQA中,分别取得了 88.5、75.9 和 59.1 的高分,超越了所有其他开源模型,并在性能上接近封闭模型如 GPT-4o 和 Claude-Sonnet-3.5。



模型链接:

DeepSeek-V3:

https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3


DeepSeek-V3-Base:

https://www.modelscope.cn/models/deepseek-ai/DeepSeek-V3-Base



QVQ-72B-Preview:

QVQ-72B-Preview是Qwen团队最新开源的视觉推理模型,基于 Qwen2-VL-72B 构建,专长于视觉理解和推理。在MMMU多学科评测中得分70.3,超越前代。在MathVista、MathVision和OlympiadBench等数学科学领域基准测试中,表现卓越,展现了其在复杂数学和科学问题解决上的强大能力。

模型链接:

https://modelscope.cn/models/Qwen/QVQ-72B-Preview


示例代码

transformers推理代码:

from modelscope import Qwen2VLForConditionalGeneration, AutoTokenizer, AutoProcessorfrom qwen_vl_utils import process_vision_info
# default: Load the model on the available device(s)model = Qwen2VLForConditionalGeneration.from_pretrained( "Qwen/QVQ-72B-Preview", torch_dtype="auto", device_map="auto")
# default processerprocessor = AutoProcessor.from_pretrained("Qwen/QVQ-72B-Preview")
# The default range for the number of visual tokens per image in the model is 4-16384. You can set min_pixels and max_pixels according to your needs, such as a token count range of 256-1280, to balance speed and memory usage.# min_pixels = 256*28*28# max_pixels = 1280*28*28# processor = AutoProcessor.from_pretrained("Qwen/QVQ-72B-Preview", min_pixels=min_pixels, max_pixels=max_pixels)
messages = [ { "role": "system", "content": [ {"type": "text", "text": "You are a helpful and harmless assistant. You are Qwen developed by Alibaba. Answer in the language of the question. You should think step-by-step."} ], }, { "role": "user", "content": [ { "type": "image", "image": "https://qianwen-res.oss-accelerate-overseas.aliyuncs.com/QVQ/demo.png", }, {"type": "text", "text": "What value should be filled in the blank space?"}, ], }]
# Preparation for inferencetext = processor.apply_chat_template( messages, tokenize=False, add_generation_prompt=True)image_inputs, video_inputs = process_vision_info(messages)inputs = processor( text=[text], images=image_inputs, videos=video_inputs, padding=True, return_tensors="pt",)inputs = inputs.to("cuda")
# Inference: Generation of the outputgenerated_ids = model.generate(**inputs, max_new_tokens=8192)generated_ids_trimmed = [ out_ids[len(in_ids) :] for in_ids, out_ids in zip(inputs.input_ids, generated_ids)]output_text = processor.batch_decode( generated_ids_trimmed, skip_special_tokens=True, clean_up_tokenization_spaces=False)print(output_text)


更多详情请见:

Qwen开源视觉推理模型QVQ,更睿智地看世界!


ModernBERT

ModernBERT是由Answer.AI 和 LightOn 发布的一款现代化的双向编码器 Transformer 模型(BERT 风格),预训练于 2 万亿个英文和代码数据标记,原生上下文长度可达 8,192 个token。集成了Rotary Positional Embeddings、Unpadding、GeGLU层、Alternating Attention和Flash Attention等多项最新架构改进,专为跨推理GPU的高效率设计。


ModernBERT 的原生长上下文长度使其非常适合需要处理长文档的任务,例如检索、分类和大型语料库内的语义搜索。该模型在大量的文本和代码语料库上进行了训练,适用于广泛的下游任务,包括代码检索和混合(文本 + 代码)语义搜索。

模型链接:

ModernBERT-base:

https://modelscope.cn/models/AI-ModelScope/ModernBERT-base


ModernBERT-large:

https://modelscope.cn/models/AI-ModelScope/ModernBERT-large


示例代码:

环境安装

!pip install git+https://github.com/huggingface/transformers.git

使用 AutoModelForMaskedLM模型推理

from transformers import AutoTokenizer, AutoModelForMaskedLMfrom modelscope import snapshot_download
model_id = snapshot_download("answerdotai/ModernBERT-base")tokenizer = AutoTokenizer.from_pretrained(model_id)model = AutoModelForMaskedLM.from_pretrained(model_id)
text = "The capital of France is [MASK]."inputs = tokenizer(text, return_tensors="pt")outputs = model(**inputs)
# To get predictions for the mask:masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)predicted_token = tokenizer.decode(predicted_token_id)print("Predicted token:", predicted_token)# Predicted token: Paris


使用pipeline:

import torchfrom transformers import pipelinefrom pprint import pprint
pipe = pipeline( "fill-mask", model="answerdotai/ModernBERT-base", torch_dtype=torch.bfloat16,)
input_text = "He walked to the [MASK]."results = pipe(input_text)pprint(results)


更多详见:

ModernBERT-base:终于等到了 BERT 回归



02


数据集推荐



SWE-agent-trajectories

数据集包含80,036条由SWE-agent框架生成的软件工程代理轨迹,旨在解决GitHub问题并生成代码补丁。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/SWE-agent-trajectories


SWE-bench-extra

数据集包含6,415个来自1,988个Python存储库的问题-拉取请求对,旨在训练和评估解决GitHub问题的软件工程代理系统,通过基于执行的验证和过滤步骤确保数据质量。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/SWE-bench-extra


fineweb-c

这个基于FineWeb2数据集的社区项目旨在通过多语言教育内容注释,提升全球人工智能技术的可访问性和效果,特别是优化大型语言模型的开发。

数据集链接:

https://modelscope.cn/datasets/AI-ModelScope/fineweb-c


03


精选应用



QVQ-72B-preview

QVQ是一个开源多模态推理模型,基于Qwen2-VL-72B构建,通过结合视觉理解和复杂问题解决能力,在MMMU评测中获得70.3分的优异成绩,尤其在需要复杂分析思维的视觉推理任务中表现出色。


体验直达:

https://modelscope.cn/studios/Qwen/QVQ-72B-preview



HelloMeme

用户可以直接上传图片或视频,尝试不同的模型版本,生成具有丰富表情和自然姿态的结果。此外,HelloMeme还支持视频生成,展现了在复杂视觉任务中的潜力。


体验直达:

https://modelscope.cn/studios/songkey/HelloMeme



CogAgent-Demo

支持上传mac截图,并输入指令之后会在右侧显示出图像区域

体验直达:

https://modelscope.cn/studios/ZhipuAI/CogAgent-Demo


04


社区精选文章





?点击关注ModelScope公众号获取

更多技术信息~


跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

模型更新 数据集 创新应用 AI 魔搭社区
相关文章