现在位置: 首页 > Codex 教程 > 正文

Codex 配置文件

配置文件位置

Codex CLI 的全局配置文件位于用户主目录下的 .codex 文件夹:

~/.codex/
├── config.toml      # 主配置文件(模型、提供商等)
├── auth.json        # 认证信息(API Key 或 ChatGPT Token)
├── instructions.md  # 全局系统提示词(对所有对话生效)
└── token            # ChatGPT 登录 Token

config.toml 详解

config.toml 是 Codex CLI 的核心配置文件,使用 TOML 格式编写:

基础配置

# ~/.codex/config.toml

# 使用的模型(默认 gpt-5)
model = "gpt-5"

# 推理质量:low / medium / high(影响速度和准确性)
model_reasoning_effort = "high"

# 模型提供商
model_provider = "openai"

# 默认审批模式
approval_mode = "auto-edit"

# 是否禁用响应存储(隐私保护)
disable_response_storage = false

自定义模型提供商

# 接入 OpenAI 官方(Chat Completions API)
model = "gpt-5"
model_provider = "openai-chat"

[model_providers.openai-chat]
name = "OpenAI Chat Completions"
base_url = "https://api.openai.com/v1"
env_key = "OPENAI_API_KEY"
wire_api = "chat"

# 接入 OpenRouter(支持多种模型)
model = "openai/gpt-5"
model_provider = "openrouter"

[model_providers.openrouter]
name = "Open Router"
base_url = "https://openrouter.ai/api/v1"
env_key = "OPENROUTER_API_KEY"
wire_api = "chat"

# 接入本地 Ollama 模型
model = "llama3"
model_provider = "ollama"

[model_providers.ollama]
name = "Ollama (本地)"
base_url = "http://localhost:11434/v1"
# Ollama 不需要 API Key

多 Profile 配置(快速切换模型)

# 默认使用 gpt3 profile
profile = "gpt3"

[profiles.gpt5-high]
model = "gpt-5"
model_reasoning_effort = "high"
model_provider = "openai"

[profiles.gpt3]
model = "gpt-3.5-turbo"
model_provider = "openai-chat"

[profiles.local]
model = "mistral"
model_provider = "ollama"

# 使用指定 profile 启动:
# codex --profile gpt5-high
# codex --profile local

网络重试配置

[model_providers.openai]
# 失败请求重试次数
request_max_retries = 4
# SSE 流式响应重试次数
stream_max_retries = 10
# 空闲超时(毫秒)5分钟
stream_idle_timeout_ms = 300000

instructions.md - 全局提示词

你可以在 ~/.codex/instructions.md 中写入全局系统提示词,这些指令会对所有对话生效,相当于给 Codex 设定固定的「行为规则」:

# ~/.codex/instructions.md

## 我的编码规范
- 始终使用 TypeScript,不使用 any 类型
- 函数必须添加 JSDoc 注释
- 使用 async/await 而非回调函数
- 错误处理必须完整

## 项目规范
- 遵循 Git 提交信息规范(feat/fix/docs/...)
- 单元测试覆盖率不低于 80%
- 使用 eslint + prettier 格式化

## 交互规范
- 回复时先说明你的方案,再执行
- 重要操作前必须告知风险

MCP 服务器配置

通过 MCP(Model Context Protocol)协议,Codex 可以接入外部工具和服务:

# ~/.codex/config.toml

[mcp_servers]

# 接入 GitHub(需要 GITHUB_TOKEN 环境变量)
[mcp_servers.github]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-github"]

# 接入 PostgreSQL 数据库
[mcp_servers.postgres]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-postgres"]
env = { DATABASE_URL = "postgresql://user:pass@localhost/db" }

# 接入文件系统
[mcp_servers.filesystem]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/workspace"]