硅基流动 2024年12月18日
硅基流动 x 深度求索:SiliconCloud首发上线加速版DeepSeek-VL2
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

深度求索开源的DeepSeek-VL2视觉语言模型,采用MoE架构和动态切图技术,在视觉问答、OCR、文档理解等任务中表现卓越。该模型基于DeepSeekMoE-27B构建,拥有4.5B激活参数,性能媲美甚至超越现有开源模型。SiliconCloud首发上线了推理加速版DeepSeek-VL2,开发者可轻松通过API调用,并体验数十款大模型。DeepSeek-VL2在数据、架构和训练上进行了升级,引入了梗图理解等新能力,并通过高效训练策略,在各项评测指标上取得了优异成绩,可与GPT-4V等闭源模型相媲美。

🖼️ DeepSeek-VL2模型采用MoE架构和动态切图技术,使其在视觉任务中表现出卓越的性能,重新定义了视觉模型。

🚀 模型在数据、架构和训练上进行了重磅升级:数据方面,引入了梗图理解、视觉定位等新能力;架构方面,视觉部分支持动态分辨率图像,语言部分采用低成本、高性能的MoE架构;训练方面,继承三阶段训练流程,并对图像和文本数据使用不同流水并行策略。

📊 DeepSeek-VL2在各项评测指标上均取得了极具优势的成绩,可比肩闭源模型GPT-4V、Claude 3.5 Sonnet,展现了强大的视觉理解能力。

☁️ SiliconCloud平台首发上线推理加速版DeepSeek-VL2,开发者可轻松通过API调用,并体验数十款大模型,实现“Token自由”。

原创 SiliconCloud 2024-12-18 18:17 北京

MoE重新定义视觉模型。

 

发布DeepSeekV2.5系列最后一个版本后,深度求索开源了开发者们期待已久的视觉-语言系列模型DeepSeek-VL2。与其它各类Dense型视觉模型所不同的是,DeepSeek-MoE架构配合动态切图,让DeepSeek-VL2在视觉问答、光学字符识别(OCR)、文档/表格/图表理解及视觉定位等各种任务中表现出卓越能力。可以说,MoE重新定义了视觉模型。 


DeepSeek-VL2系列模型包括DeepSeek-VL2-Tiny、DeepSeek-VL2-Small和DeepSeek-VL2。其中,DeepSeek-VL2基于DeepSeekMoE-27B构建,具有4.5B激活参数,在激活参数相同或更少的情况下,实现了与现有开源密集型模型和MoE基础模型相当或最先进的性能。 

 

今天,硅基流动联合深度求索团队,在SiliconCloud首发上线推理加速版DeepSeek-VL2(价格为¥0.99/ M Tokens),免去开发者的部署门槛,只需在开发应用时轻松调用API,带来更高效的用户体验。平台还支持开发者自由对比体验数十款大模型,为你的生成式AI应用选择最佳实践。


 

在线体验 

https://cloud.siliconflow.cn/playground/chat/17885302689
 

API文档 

https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions

 

感受一下SiliconCloud上的DeepSeek-VL2在加速后的效果。 


1.梗图识别
 


2.图表理解


 

更多玩法可以在接入DeepSeek-VL2 API后解锁。 


模型亮点及性能

 

DeepSeek-VL2之所以展现出色的视觉理解效果,是因为在三个方面进行了重磅升级: 

 

 

通过以上技术突破,DeepSeek-VL2模型在各项评测指标上均取得了极具优势的成绩,可比肩闭源模型GPT-4V、Claude 3.5 Sonnet。 


开发者评价


作为为数不多真正享誉国内外AI社区的“国产之光”,DeepSeek以其低调务实但实力超群的做事风格赢得了广大开发者的喜爱。 

 

DeepSeek-VL2模型发布后,不少开发者给出了积极评价。有网友称,它在每个激活参数上超过了之前的帕累托前沿,采用了巧妙的tiling策略、数据集和训练细节。 

 

 

DeepSeek一如既往表现得很了不起。 

 

 

还有人问,为什么还没有人提供DeepSeek-VL2的API?


现在,你可以在SiliconCloud上接入并体验这款出色的视觉模型了。


Token工厂SiliconCloud
Qwen2.5(7B)等20+模型免费用


作为一站式大模型云服务平台,SiliconCloud致力于为开发者提供极速响应、价格亲民、品类齐全、体验丝滑的模型API。

除了DeepSeek-VL2,SiliconCloud已上架包括DeepSeek-V2.5-1210mochi-1-previewLlama-3.3-70B-InstructHunyuanVideoMarco-o1fish-speech-1.5QwQ-32B-PreviewQwen2.5-Coder-32B-InstructQwen2-VL、InternVL2Qwen2.5-7B/14B/32B/72BFLUX.1InternLM2.5-20B-ChatBCE、BGESenseVoice-SmallGLM-4-9B-Chat在内的数十种开源大语言模型、图片/视频生成模型、语音模型、代码/数学模型以及向量与重排序模型。


其中,Qwen2.5(7B)、Llama3.1(8B)等多个大模型API免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。

近期更新

 SiliconCloud上线DeepSeek-V2.5-1210
 SiliconCloud上线HunyuanVideo
 SiliconCloud上线Fish Speech 1.5
 3分钟用SiliconCloud轻松打造专属LLM
 成本直降100倍!LLM清洗/蒸馏数据高效方法
 SD3.5上线ControlNet三件套,BizyAir已支持

让超级产品开发者实现“Token自由”

邀好友用SiliconCloud,狂送2000万Token/人

即刻体验
加速版DeepSeek-V2.5-1210

siliconflow.cn/zh-cn/siliconcloud

扫码加入用户交流群

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepSeek-VL2 MoE架构 视觉模型 SiliconCloud AI模型
相关文章