跳转到主要内容

概述

Codex CLI 是 OpenAI 开源的命令行编程代理。它可以读取你的代码库、提出修改建议、执行命令,并根据反馈进行迭代——全部在终端中完成。 通过将 Codex CLI 指向 FoxAPI,你可以使用 FoxAPI 提供的任意 OpenAI 兼容模型。
Codex CLI 支持通过 config.toml 配置文件定义自定义模型提供商,无需修改 Base URL 环境变量即可轻松连接 FoxAPI。

前置条件

FoxAPI API Key

一个有效的 FoxAPI API Key,并确保有权限访问 OpenAI 兼容模型。

Node.js 22+

Codex CLI 需要 Node.js 22 或更高版本。

安装与配置

1

安装 Codex CLI

npm install -g @openai/codex
验证安装:
codex --version
2

设置 API Key

Codex CLI 通过 OPENAI_API_KEY 环境变量读取认证信息,将其设置为你的 FoxAPI API Key:
在你的 Shell 配置文件(~/.bashrc~/.zshrc 等)中添加以下内容:
export OPENAI_API_KEY="sk-your-foxapi-api-key"
然后重新加载配置:
source ~/.zshrc  # 或 source ~/.bashrc
3

配置 FoxAPI 为模型提供商

创建或编辑 Codex CLI 配置文件:
编辑 ~/.codex/config.toml
model = "gpt-4.1"
model_reasoning_effort = "medium"
model_provider = "foxapi"

[model_providers.foxapi]
name = "FoxAPI"
base_url = "https://api.foxapi.cc/v1"
env_key = "OPENAI_API_KEY"
wire_api = "responses"
wire_api 字段必须设置为 "responses""chat" 选项已弃用,可能导致意外行为。
配置字段说明:
字段说明
model默认使用的模型(可通过 --model 参数覆盖)
model_reasoning_effort推理努力程度:"low""medium""high"
model_provider自定义提供商名称(必须与 [model_providers.xxx] 部分名称一致)
base_urlFoxAPI 的 API 端点
env_key存储 API Key 的环境变量名称
wire_api使用的 API 协议(必须为 "responses"
4

开始使用

进入你的项目目录并启动 Codex:
cd /path/to/your/project
codex
或直接运行单次命令:
codex "为注册表单添加输入验证"

验证连接

使用简单的提示测试连接:
codex "请说你好,并确认你正在正常工作"
如果配置正确,Codex 将通过 FoxAPI 的 API 返回回复。

推荐模型

模型适用场景
gpt-4.1复杂的多步骤编程任务(推荐默认选择)
gpt-4o通用编程任务,速度与质量平衡
o4-mini快速、经济的编程辅助
你可以在启动时通过参数覆盖 config.toml 中的默认模型:
codex --model gpt-4o "重构认证模块"

常见问题

  • 确认 OPENAI_API_KEY 是有效的 FoxAPI Key。
  • 确认 Key 未过期且账户余额充足。
  • 如果使用 config.toml,确认 env_key 字段与你设置的环境变量名称一致(默认为 OPENAI_API_KEY)。
  • 检查 config.toml 中的 base_url 是否设置为 https://api.foxapi.cc/v1(需包含 /v1)。
  • 确认你的网络能够访问 api.foxapi.cc
  • 确认模型名称正确且在 FoxAPI 上可用。
  • 检查你的 FoxAPI 账户是否有该模型的访问权限。
  • 确认文件位于 ~/.codex/config.toml(macOS/Linux)或 C:\Users\{username}\.codex\config.toml(Windows)。
  • 检查 TOML 语法——确保字符串使用引号包裹,section 标题使用方括号。
  • 确认 model_provider 的值与 [model_providers.xxx] 的 section 名称完全一致。