一、概述
OpenAI Codex CLI 是一款开源的命令行工具,能够将 OpenAI 最新的推理模型直接引入你的终端。它作为一个轻量级的编程助手,可以在本地读取、修改和运行代码,帮助你更快地构建功能、修复漏洞以及理解陌生代码。由于 CLI 是本地运行的,你的源代码除非你主动分享,否则不会离开你的环境。
Ollama 是一个本地运行的 AI 模型管理工具,它提供了与 OpenAI Chat Completions API 的兼容接口,允许你在本地使用各种强大的语言模型,而无需依赖云端服务。将 Ollama 与 OpenAI Codex CLI 集成,可以让你在本地环境中利用 Ollama 提供的高性能 AI 编程辅助功能。
二、集成步骤
(一)安装 Ollama
- 下载并安装 Ollama:访问 Ollama 官网,下载适用于你操作系统的安装包并进行安装。拉取模型:安装完成后,在终端运行以下命令拉取你想要使用的模型,例如 Llama 2:
ollama pull llama2
(二)安装 OpenAI Codex CLI
在终端运行以下命令全局安装 OpenAI Codex CLI:
npm install -g @openai/codex
(三)配置 OpenAI Codex CLI 使用 Ollama
- 创建配置文件:在
~/.codex/
目录下创建或编辑 config.json
文件,添加 Ollama 提供商的配置信息:{ "model":"deepseek-r1:7b" "provider": "ollama", "providers": { "ollama": { "name": "Ollama", "baseURL": "http://localhost:11434/v1", "envKey": "OLLAMA_API_KEY" } }}
设置环境变量:在终端运行以下命令设置 Ollama 的 API 密钥(虽然 Ollama 默认不使用 API 密钥,但需要设置一个占位符):export OLLAMA_API_KEY="ollama"
(四)使用 Ollama 模型
在终端运行以下命令,使用 Ollama 模型:
codex --provider ollama "Explain this codebase to me"
或者在全自动模式下运行:
codex --provider ollama --approval-mode full-auto "Create a simple to-do list app in Python"
三、小结
通过以上步骤,你可以在 OpenAI Codex CLI 中成功集成 Ollama,享受本地高性能的 AI 编程辅助体验。