硅基流动 前天 00:22
硅基流动 SiliconCloud × Chat2Graph:基于多智能体的知识图谱自动构建
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了 Chat2Graph 如何与硅基流动(SiliconCloud)平台的大模型 API 服务集成,从而增强了图计算在复杂知识结构与关联数据场景中的应用。通过集成 DeepSeek-R1 & V3、Qwen3-32B 等模型,Chat2Graph 提升了推理、规划、记忆等能力,支持从数据导入到洞察输出的完整图智能解决方案。文章详细阐述了部署、配置和使用的步骤,并提供了 SDK API,方便开发者构建定制化智能体应用,加速从数据分析到智能化决策的升级。

💡 Chat2Graph 是一款基于图计算的智能体系统,旨在提升智能体的推理、规划、记忆、知识与工具协作能力,并促进图数据库的智能化转型。

🔑 Chat2Graph 集成了 SiliconCloud 平台的大模型 API 服务,开发者可以选择包括 DeepSeek-R1 & V3、Qwen3-32B 在内的多种大模型,从而增强图计算处理能力。

🛠️ 使用 Chat2Graph 需要经过几个步骤:首先获取 SiliconCloud API Key,然后下载并构建 Chat2Graph,接着配置 SiliconCloud 模型,最后启动 Chat2Graph。

💬 Chat2Graph 支持用户从海量文档、报告或数据源中提取并可视化知识关系,辅助揭示金融风控、供应链优化等领域中的深层联系,并提供语境感知的智能问答和决策支持能力。

⚙️ Chat2Graph 还提供了清晰简洁的 SDK API,方便开发者将其深度集成到现有系统中或构建定制化的智能体应用,实现从传统数据分析向智能化决策的升级。

原创 SiliconCloud 2025-06-18 18:14 北京

Chat2Graph 已全面集成 SiliconCloud 平台的 API 服务。

面对日益复杂的知识结构与关联数据场景,传统的表格数据处理方式已难以满足深层分析与智能问答需求。随着大语言模型兴起,图计算与 AI 的融合成为关键发展方向。一方面,大模型降低了图计算使用门槛,提升用户体验;另一方面,图计算增强了大模型的关联分析和推理生成能力。

基于此,蚂蚁集团开源了 Chat2Graph 图原生智能体系统(https://github.com/TuGraph-family/chat2graph)。该系统充分发挥图数据在关系建模与可解释性方面的优势,全面提升智能体的推理、规划、记忆、知识与工具协作能力,同时推动图数据库智能化转型,实现降本增效的同时加速内容生成,最终达成人与图数据的自然交互。

Chat2Graph 现已全面集成硅基流动 SiliconCloud 平台的大模型 API 服务。开发者可自由选择包括 DeepSeek-R1 & V3、Qwen3-32B 在内的数十款大模型。基于 SiliconCloud 极速响应、稳定可靠的 API 服务,Chat2Graph 能进一步提升图计算处理能力,满足复杂场景下的数据分析需求,为开发者和企业提供从数据导入到洞察输出的完整图智能解决方案。

在实际应用中,Chat2Graph 支持用户从海量文档、报告或数据源中提取并可视化知识关系,自动构建与交互式探索知识图谱;辅助揭示金融风控、供应链优化、生命科学等领域中的深层联系、关键节点与社区结构;基于最新图谱动态提供语境感知的智能问答和决策支持能力;深度结合符号主义优势,提供高质量的任务规划和记忆召回,实现精确工具调用,助力开发者、产品经理及研究人员更高效地利用数据与知识,实现从传统数据分析向智能化决策的升级。

1. 获取硅基流动的 SiliconCloud API Key

    1. 开 SiliconFlow 官网 https://cloud.siliconflow.cn/)并注册/登录账号。

    2. 登录后,点击 API 密钥 ,创建新的 API Key,点击密钥进行复制,以备后续使用。

2. 部署 Chat2Graph

    1. 下载 Chat2Graph

git clone https://github.com/TuGraph-family/chat2graph.git

    2. 准备执行环境

准备符合要求的 Python 和 NodeJS 版本。

你可以使用 conda 等工具来管理 Python 环境:

conda create -n chat2graph_env python=3.10conda activate chat2graph_env

    3. 构建 Chat2Graph

一键构建 Chat2Graph:

cd chat2graph./bin/build.sh

    4. 配置 SiliconFlow 模型

准备 .env 配置文件:

cp .env.template .env && vim.env

填写 SiliconFlow 模型配置:

# SiliconFlow 模型配置LLM_NAME=deepseek-ai/DeepSeek-V3LLM_ENDPOINT=https://api.siliconflow.cn/v1LLM_APIKEY={your-siliconflow-api-key}EMBEDDING_MODEL_NAME=BAAI/bge-large-zh-v1.5EMBEDDING_MODEL_ENDPOINT=https://api.siliconflow.cn/v1/embeddingsEMBEDDING_MODEL_APIKEY={your-siliconflow-api-key}

      5. 启动 Chat2Graph

    一键启动 Chat2Graph:

    ./bin/start.sh

    当看到如下日志时,表示 Chat2Graph 已成功启动:

    Starting server...Web resources location: /Users/florian/code/chat2graph/app/server/webSystem database url: sqlite:////Users/florian/.chat2graph/system/chat2graph.dbLoading AgenticService from app/core/sdk/chat2graph.yml with encoding utf-8Init application: Chat2GraphInit the Leader agentInit the Expert agents____ _           _   ____   ____                 _      / ___| |__   ___| |_|___ \ / ___|_ __ __ _ _ __ | |__  | |   | '_ \ / _` | __| __) | |  _| '__/ _` | '_ \| '_ \ | |___| | | | (_| | |_ / __/| |_| | | | (_| | |_) | | | | \____|_| |_|\__,_|\__|_____|\____|_|  \__,_| .__/|_| |_|                                            |_|           * Serving Flask app 'bootstrap' * Debug mode: offWARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead. * Running on all addresses (0.0.0.0) * Running on http://127.0.0.1:5010 * Running on http://192.168.1.1:5010Chat2Graph server started success !

    3. 使用 Chat2Graph

    Chat2Graph 部署完成后,你可以在浏览器访问 http://localhost:5010/ 使用 Chat2Graph。

      1. 注册图数据库

    提前注册图数据库实例,可以体验完整的 Chat2Graph 的「与图对话」功能。当前支持 Neo4j 和 TuGraph 图数据库。

    启动 Neo4j 实例:

    docker pull neo4j:latestdocker run -d -p 7474:7474 -p 7687:7687 --name neo4j-server --env NEO4J_AUTH=none \  --env NEO4J_PLUGINS='["apoc", "graph-data-science"]' neo4j:latest

    启动 TuGraph 实例:

    docker pull tugraph/tugraph-runtime-centos7:4.5.1docker run -d -p 7070:7070 -p 7687:7687 -p 9090:9090 --name tugraph-server \  tugraph/tugraph-runtime-centos7:latest lgraph_server -d run --enable_plugin true

      2. 与图轻松对话

    自动完成知识图谱的构建与分析任务。

    支持图模型与图数据的实时渲染。

    4. 集成 Chat2Graph

    如果你需要将 Chat2Graph 深度集成到现有系统中或构建定制化的智能体应用,Chat2Graph 提供了清晰简洁的 SDK API,让你轻松定制智能体系统。

    配置 SiliconFlow 模型:

    SystemEnv.LLM_NAME="deepseek-ai/DeepSeek-V3"SystemEnv.LLM_ENDPOINT="https://api.siliconflow.cn/v1"SystemEnv.LLM_APIKEY="{your-siliconflow-api-key}"SystemEnv.EMBEDDING_MODEL_NAME="BAAI/bge-large-zh-v1.5"SystemEnv.EMBEDDING_MODEL_ENDPOINT="https://api.siliconflow.cn/v1/embeddings"SystemEnv.EMBEDDING_MODEL_APIKEY="{your-siliconflow-api-key}"

    仿写 chat2graph.yml 文件,一键初始化智能体:

    chat2graph = AgenticService.load("app/core/sdk/chat2graph.yml")

    同步调用智能体:

    answer = chat2graph.execute("What is TuGraph ?").get_payload()

    异步调用智能体:

    job = chat2graph.session().submit("What is TuGraph ?")answer = job.wait().get_payload()

    至此,本文展示了如何在 Chat2Graph 中调用硅基流动 SiliconCloud 的大模型 API 服务,无论独立使用还是 SDK 集成,Chat2Graph 都能提供强大的图智能能力,助力从传统数据分析向智能化决策的升级。

    更多 SiliconCloud 使用场景与应用案例:

    https://docs.siliconflow.cn/cn/usercases/awesome-user-cases

    近期更新

    SiliconCloud上线MiniMax-M1-80k

    SiliconCloud上线DeepSeek-R1-0528

    比肩H100!基于昇腾云超节点的R1上线

    SiliconCloud一周年,两大惊喜回馈登场

    硅基流动 x 昆仑技术推出DeepSeek一体机

    硅基流动上线DeepSeek-R1 & V3企业服务

    邀好友用SiliconCloud,狂送2000万Token/人即刻体验MiniMax-M1-80kcloud.siliconflow.cn扫码加入用户交流群

    阅读原文

    跳转微信打开

    Fish AI Reader

    Fish AI Reader

    AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

    FishAI

    FishAI

    鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

    联系邮箱 441953276@qq.com

    相关标签

    Chat2Graph SiliconCloud 图计算 大模型 智能体
    相关文章