Codex 配置文件
配置文件位置
Codex CLI 的全局配置文件位于用户主目录下的 .codex 文件夹:
~/.codex/ ├── config.toml # 主配置文件(模型、提供商等) ├── auth.json # 认证信息(API Key 或 ChatGPT Token) ├── instructions.md # 全局系统提示词(对所有对话生效) └── token # ChatGPT 登录 Token
config.toml 详解
config.toml 是 Codex CLI 的核心配置文件,使用 TOML 格式编写:
基础配置
# ~/.codex/config.toml # 使用的模型(默认 gpt-5) model = "gpt-5" # 推理质量:low / medium / high(影响速度和准确性) model_reasoning_effort = "high" # 模型提供商 model_provider = "openai" # 默认审批模式 approval_mode = "auto-edit" # 是否禁用响应存储(隐私保护) disable_response_storage = false
自定义模型提供商
# 接入 OpenAI 官方(Chat Completions API) model = "gpt-5" model_provider = "openai-chat" [model_providers.openai-chat] name = "OpenAI Chat Completions" base_url = "https://api.openai.com/v1" env_key = "OPENAI_API_KEY" wire_api = "chat" # 接入 OpenRouter(支持多种模型) model = "openai/gpt-5" model_provider = "openrouter" [model_providers.openrouter] name = "Open Router" base_url = "https://openrouter.ai/api/v1" env_key = "OPENROUTER_API_KEY" wire_api = "chat" # 接入本地 Ollama 模型 model = "llama3" model_provider = "ollama" [model_providers.ollama] name = "Ollama (本地)" base_url = "http://localhost:11434/v1" # Ollama 不需要 API Key
多 Profile 配置(快速切换模型)
# 默认使用 gpt3 profile profile = "gpt3" [profiles.gpt5-high] model = "gpt-5" model_reasoning_effort = "high" model_provider = "openai" [profiles.gpt3] model = "gpt-3.5-turbo" model_provider = "openai-chat" [profiles.local] model = "mistral" model_provider = "ollama" # 使用指定 profile 启动: # codex --profile gpt5-high # codex --profile local
网络重试配置
[model_providers.openai] # 失败请求重试次数 request_max_retries = 4 # SSE 流式响应重试次数 stream_max_retries = 10 # 空闲超时(毫秒)5分钟 stream_idle_timeout_ms = 300000
instructions.md - 全局提示词
你可以在 ~/.codex/instructions.md 中写入全局系统提示词,这些指令会对所有对话生效,相当于给 Codex 设定固定的「行为规则」:
# ~/.codex/instructions.md ## 我的编码规范 - 始终使用 TypeScript,不使用 any 类型 - 函数必须添加 JSDoc 注释 - 使用 async/await 而非回调函数 - 错误处理必须完整 ## 项目规范 - 遵循 Git 提交信息规范(feat/fix/docs/...) - 单元测试覆盖率不低于 80% - 使用 eslint + prettier 格式化 ## 交互规范 - 回复时先说明你的方案,再执行 - 重要操作前必须告知风险
MCP 服务器配置
通过 MCP(Model Context Protocol)协议,Codex 可以接入外部工具和服务:
# ~/.codex/config.toml
[mcp_servers]
# 接入 GitHub(需要 GITHUB_TOKEN 环境变量)
[mcp_servers.github]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-github"]
# 接入 PostgreSQL 数据库
[mcp_servers.postgres]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-postgres"]
env = { DATABASE_URL = "postgresql://user:pass@localhost/db" }
# 接入文件系统
[mcp_servers.filesystem]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-filesystem", "/path/to/workspace"]
