魔搭ModelScope社区 11小时前
魔搭社区模型速递(5.18-5.24)
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

魔搭ModelScope社区近期发布了一系列重要更新,包括3790个模型上新,如Index-AniSora、Gemma-3n-Preview系列等;307个数据集上新,例如CCI4.0-M2系列、OpenVid-1M等;90个创新应用,如热门MCP服务一键评测等;以及7篇技术文章,涵盖模型蒸馏、开源语料库、Qwen2.5支持等多个方面。这些更新展示了ModelScope在模型、数据和应用方面的持续进步。

🚀 **模型更新:** 本期社区新增了3790个模型,包括Index-AniSora(B站开源的动漫视频生成模型)、Gemma-3n-Preview系列(Google发布的轻量级多模态模型,可在低资源设备上运行)以及Devstral-Small-2505(面向软件工程任务的代理型大语言模型)。

💾 **数据集更新:** 社区新增了307个数据集,涵盖多个领域。例如,CCI4.0-M2系列是智源研究院发布的开源中文互联网语料库,新增了高质量英文数据与合成数据;OpenVid-1M是一个大规模视频数据集,包含超过100万段视频,用于支持视频理解、分析和生成等多模态人工智能任务的研究与开发。

💡 **应用更新:** 社区推出了90个创新应用,包括热门MCP服务一键评测、有声课件制作等。这些应用为用户提供了更多便捷的工具,推动了人工智能技术的实际应用。

✍️ **文章发布:** 发布了7篇技术文章,内容涵盖推理模型蒸馏实践、开源中文互联网语料库、通义灵码+魔搭MCP、4G手机内存玩转Qwen2.5-Omni、阿里云发布可观测MCP、B站开源SOTA动画视频生成模型 Index-AniSora以及合成数据也能通吃真实世界等。

2025-05-25 14:58 浙江

模型上新3790、数据集上新307、应用上新90、文章发布7篇

🙋魔搭ModelScope本期社区进展:

📟3790个模型:Index-AniSora、Gemma-3n-Preview系列、Devstral-Small-2505、AetherV1等;

📁307个数据集:CCI4.0-M2系列、BandwidthEstimationDataset、DMind_Benchmark、OpenVid-1M等;

🎨90个创新应用热门MCP服务一键评测、有声课件制作、妆容百宝箱等;

📄 7 篇内容:

      Reasoning模型蒸馏实践:用大模型提升小模型能力

      智源研究院发布开源中文互联网语料库CCI 4.0,新增高质量英文数据与合成数据

      通义灵码 + 魔搭MCP:全流程构建创空间应用

      4G手机内存玩转Qwen2.5-Omni?MNN全面支持Qwen2.5-Omni与Qwen3!

      阿里云发布可观测MCP!支持自然语言查询和分析多模态日志

      B站开源SOTA动画视频生成模型 Index-AniSora!

      合成数据也能通吃真实世界?首个融合重建-预测-规划的生成式世界模型AETHER开源

    01

    模型推荐

    Index-AniSora
    Bilibili为动漫世界带来的礼物——Index-AniSora,SOTA开源动漫视频生成模型。 它支持一键创建多种动漫风格的视频片段,包括系列剧集、中国原创动画、漫画改编、VTuber内容、动漫PV、鬼畜动画等

    模型地址:

    https://modelscope.cn/models/bilibili-index/Index-anisora

    深度讲解详见文章:

    B站开源SOTA动画视频生成模型 Index-AniSora!
    Devstral-Small-2505

    Devstral 是近期由 Mistral AI 和 All Hands AI 合作构建的面向软件工程任务的代理型大语言模型。Devstral 在使用工具探索代码库、编辑多个文件和驱动软件工程代理方面表现出色。在SWE-bench基准测试中表现卓越,位列开源模型榜首。

    Devstral是在 Mistral-Small-3.1 的基础上微调而来的,具有长达 128k token的上下文窗口。作为编码代理,Devstral 仅限于文本处理,在从 Mistral-Small-3.1 微调之前移除了视觉编码器。同时,Devstral紧凑的大小仅为 240 亿个参数,足够轻便可以在单个 RTX 4090 或配备 32GB RAM 的 Mac 上运行,适合本地部署和设备上使用。

    模型地址:

    https://www.modelscope.cn/models/mistralai/Devstral-Small-2505

    示例代码:

    官方建议使用 OpenHands 架构来使用 Devstral

    按照以下文档说明创建 Mistral 账户并获取 API 密钥

    文档:

    https://docs.mistral.ai/getting-started/quickstart/#account-setup

    API

    运行以下命令以启动 OpenHands Docker 容器

      export MISTRAL_API_KEY=<MY_KEY>

      docker pull docker.all-hands.dev/all-hands-ai/runtime:0.39-nikolaik

      mkdir -~/.openhands-state && echo '{"language":"en","agent":"CodeActAgent","max_iterations":null,"security_analyzer":null,"confirmation_mode":false,"llm_model":"mistral/devstral-small-2505","llm_api_key":"'$MISTRAL_API_KEY'","remote_runtime_resource_factor":null,"github_token":null,"enable_default_condenser":true}' > ~/.openhands-state/settings.json

      docker run -it --rm --pull=always \

          -SANDBOX_RUNTIME_CONTAINER_IMAGE=docker.all-hands.dev/all-hands-ai/runtime:0.39-nikolaik \

          -LOG_ALL_EVENTS=true \

          -/var/run/docker.sock:/var/run/docker.sock \

          -~/.openhands-state:/.openhands-state \

          -3000:3000 \

          --add-host host.docker.internal:host-gateway \

          --name openhands-app \

          docker.all-hands.dev/all-hands-ai/openhands:0.39

      本地推理-OpenHands (推荐)

        启动服务器以部署 Devstral-Small-2505

      确保已按上述说明启动了一个与 OpenAI 兼容的服务器,然后通过运行以下命令启动一个 vLLM 服务器,并使用 OpenHands 与 

      Devstral-Small-2505

       进行交互

        VLLM_USE_MODELSCOPE=true vllm serve mistralai/Devstral-Small-2505 --tokenizer_mode mistral --config_format mistral --load_format mistral --tool-call-parser mistral --enable-auto-tool-choice --tensor-parallel-size 2

        服务器地址应采用以下格式:

        http://<your-server-url>:8000/v1

          启动 OpenHands

        参考安装 OpenHands。

        启动 OpenHands 的最简单方法是使用 Docker 镜像:

          docker pull docker.all-hands.dev/all-hands-ai/runtime:0.38-nikolaik

          docker run -it --rm --pull=always \

              -e SANDBOX_RUNTIME_CONTAINER_IMAGE=docker.all-hands.dev/all-hands-ai/runtime:0.38-nikolaik \

              -e LOG_ALL_EVENTS=

          true

           \

              -v /var/run/docker.sock:/var/run/docker.sock \

              -v ~/.openhands-state:/.openhands-state \

              -p 3000:3000 \

              --add-host host.docker.internal:host-gateway \

              --name openhands-app \

              docker.all-hands.dev/all-hands-ai/openhands:0.38

          然后,在 http://localhost:3000  访问 OpenHands UI

            连接到服务器

          当访问 OpenHands UI 时,系统会提示连接到一个服务器,可以使用高级模式连接到之前启动的服务器。

          填写以下字段:

                自定义模型: 

                openai/mistralai/Devstral-Small-2505

                基础 URL: http://<your-server-url>:8000/v1

                API 密钥: token(或在启动服务器时使用的任何其他令牌)

            使用由 Devstral 支持的 OpenHands

          通过开始新的对话在 OpenHands 中使用 Devstral Small,以构建一个待办事项列表应用为例:

            Build a To-Do list app with the following requirements:

            - Built using FastAPI and React.

            - Make it a one page app that:

               - Allows to add a task.

               - Allows to delete a task.

               - Allows to mark a task as done.

               - Displays the list of tasks.

            - Store the tasks in a SQLite database.

            Gemma-3n-Preview系列

            Gemma-3n是Google在2025年I/O大会上开源发布的一款专为低资源设备打造的多模态模型,仅需2GB RAM即可在手机、平板和轻薄笔记本上流畅运行,处理音频、文本、图片和视频多种数据类型,支持140+语言的文本和视觉处理,覆盖全球用户需求。

            Gemma3n继承了Gemini Nano的轻量化架构,通过知识蒸馏和量化感知训练(QAT),在保持高性能的同时大幅降低资源需求。本次开源向社区提供预览版(gemma-3n-E2B-it-litert-preview 和 E4B。

            模型地址:

            https://www.modelscope.cn/collections/Gemma-3n-Preview-865a7e2c20e245

            AetherV1

            近日,上海人工智能实验室开源了生成式世界模型 AETHER。该模型全部由合成数据训练而成,不仅在传统重建与生成任务中表现领先,更首次赋予大模型在真实世界中的 3D 空间决策与规划能力,可助力机器人完成目标导向的视觉规划、4D 动态重建、动作条件的视频预测等复杂任务。

            研究团队将几何重建与生成式建模深度融合,首创「重建 — 预测 — 规划」 一体化框架,通过 AETHER 使大模型能够感知周围环境,理解物体之间的位置、运动和因果关系,从而做出更智能的行动决策。

            02

            数据集推荐

            CCI4.0-M2系列
            CCI 4.0兼顾多样性与高质量,从单一语言数据集扩展为多语种数据集。本次发布包括了中、英语两种语言,并将在随后的发布中,开源更多语言的版本。此外,CCI 4.0首次采用CoT方法进行推理轨迹数据合成,以提升预训练模型的基础推理能力。CCI 4.0数据集由智源研究院牵头,联合包括阿里云、上海人工智能实验室、华为、出门问问、金山办公、昆仑万维、面壁智能、奇虎科技、美团、稀宇科技、月之暗面、紫东太初、中科闻歌、科大讯飞等多个机构共同贡献。

            数据集链接:

            https://modelscope.cn/organization/BAAI?tab=dataset

            BandwidthEstimationDataset

            BandwidthEstimationDataset 是由字节跳动提供的一个高质量带宽估计数据集,适用于学术研究和工业应用,涵盖多种网络条件和设备类型,可助力开发更精准的带宽预测模型。

            数据集链接:

            https://modelscope.cn/datasets/ByteDance/BandwidthEstimationDataset

            DMind_Benchmark

            DMind_Benchmark 是一个基准测试数据集,用于评估和比较不同模型的性能。

            数据集链接:

            https://modelscope.cn/datasets/AI-ModelScope/DMind_Benchmark

            OpenVid-1M

            OpenVid-1M 是一个大规模视频数据集,包含超过100万段视频,旨在支持视频理解、分析和生成等多模态人工智能任务的研究与开发。

            03

            精选应用

            热门MCP服务一键评测

            体验直达:

            https://modelscope.cn/studios/hicicada/MCP2PK

            有声课件制作

            体验直达:

            https://modelscope.cn/studios/lpcarl/PPTVoiceMaker

            04

            社区精选文章


            👇点击关注ModelScope公众号获取

            更多技术信息~

            阅读原文

            跳转微信打开

            Fish AI Reader

            Fish AI Reader

            AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

            FishAI

            FishAI

            鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

            联系邮箱 441953276@qq.com

            相关标签

            魔搭ModelScope 模型 数据集 应用 人工智能
            相关文章