掘金 人工智能 05月31日 00:38
4.9k star-开源版 DeepWiki
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文介绍了DeepWiki的开源版本DeepWiki-Open,它允许用户在本地部署,用于私有项目的解读和文档生成。文章对比了DeepWiki-Open与官方版的区别,强调了其在保护数据安全和节省成本方面的优势。文章详细介绍了部署的两种方式:Docker和源码启动,并提供了详细的步骤和配置说明,包括环境变量的设置、后端和前端项目的启动。此外,文章还介绍了DeepWiki-Open的功能,如支持本地目录访问和生成的文档对话与深度研究功能,并鼓励读者尝试。

💻 DeepWiki-Open是DeepWiki的开源版本,允许用户在本地部署,主要用于私有项目的解读和文档生成,尤其适用于代码无法对外公开的公司内部项目。

🔑 与官方版DeepWiki相比,DeepWiki-Open的主要优势在于:用户无需付费,且能保护数据安全,避免了代码外泄的风险。

⚙️ 部署DeepWiki-Open有两种方式:Docker和源码启动。文章详细介绍了源码启动的步骤,包括创建环境变量文件、配置API密钥(如Google Gemini、OpenAI、OpenRouter),以及启动后端和前端项目。

💡 在启动过程中,需要注意配置OpenAI API密钥用于embeddings,如果不使用Ollama本地模型,则必须配置。此外,DeepWiki-Open支持本地目录访问,用户只需在地址栏输入代码所在的目录路径即可。

📚 DeepWiki-Open生成的文档支持对话和Deep Research功能,用户可以在生成的文档上进行交互和深度研究,提升对项目的理解。

朋友们!经历了一个月搬家以及冲刺老板们定的 KPI 之后,我三金又回来了~

这次紧接着上次讲的 DeepWiki,给大家介绍它的开源版——DeepWiki-Open。

有了开源版本之后,我们就可以在本地部署一个 DeepWiki 应用,这可以有效地进行私有项目解读并为其生成项目文档。

那为什么有了 DeepWiki 之后我们还要介绍 DeepWiki-open 呢?两个点:

    一般来说,需要使用开源版 DeepWiki 的,代码是无法对外公开的,比如公司内部项目。要使用 Cognition AI 推出的 DeepWiki 生成私有项目文档,还需要付费。也就是说你的代码不仅要让人家看,还得付费人家才看。

所以开源版和官方版的差别就出来了:

让我们切到实际工作中来,DeepWiki-Open 项目能带给我们什么?

那如何进行部署呢?这里提供了两种方式:

本来我是想通过 docker 一键部署的,但是它要本地构建镜像(是的,它没 remote 镜像),我尝试构建了一次但由于网络原因失败了,所以干脆直接源码启动!

这里可以分为三步走:

GOOGLE_API_KEY=your_google_api_keyOPENAI_API_KEY=your_openai_api_key# 可选:如果您想使用OpenRouter模型,添加此项OPENROUTER_API_KEY=your_openrouter_api_key# 可选:用于自定义 OpenAI API 端点OPENAI_BASE_URL=https://自定义API端点.com/v1

这里要注意一点,如果不使用 Ollama,那么需要配置 OpenAI API 密钥用于 embeddings。也就是说 OpenAI 的 API 在不使用 Ollama 本地模型的情况下,必须得配置!

这点比较坑,我在没有配置它的情况下使用 OpenRouter 解析了好多次项目都没成功,后面还是在看中文文档的时候发现这点的。

但配置上 OpenAI 吧,说实话 token 跑得有点快,吓得我赶紧停止分析。

最终只能选择 Ollama:对话模型使用 qwen3:8b,嵌入模型使用 nomic-embed-text。

# 创建虚拟环境python3 -m venv deepwiki-open# 激活虚拟环境source ./deepwiki-open/bin/active# 安装后端项目依赖pip install -r api/requirements.txt# 启动 API 服务python -m api.main
# 安装前端依赖yarn install# 启动前端项目yarn dev

打开浏览器访问 localhost:3000,就可以看到 DeepWiki-Open 的界面了~

页面顶部是输入项目地址的地方,输入后我们点击「Generate Wiki」可以看到配置界面:

在 Model Provider 选项上我们可以更换模型,这里选择 Ollama:

在模型选择上,DeepWiki-Open 并不会自动读取我们本地部署了哪些大模型,而是要到 generator.json 文件中手动进行设置:

同理,嵌入模型设置也是一样,如上图所示的 embedder.json 就是嵌入模型的配置文件:

回到 DeepWiki-Open 的配置界面上,当我们选择好模型之后就可以点击右下角的「Generate Wiki」按钮开始进行项目解析了,这个过程会根据项目大小和模型强弱来决定最终的生成时间:

除了支持自建的私有 Git 仓库之外,DeepWiki-Open 还支持本地目录访问,只需要在地址栏输入代码所在的目录路径即可。类似下图红框那种路径:

生成的文档也支持对话和 Deep Research:

感兴趣的小伙伴们可以试起来了~Github 地址:github.com/AsyncFuncAI…

对 AI 感兴趣的 jy 可以关注一下三金,会持续输出有趣 AI 产品和应用

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

DeepWiki-Open 开源 文档生成 私有项目 AI工具
相关文章