当你需要更细粒度地控制提供方、策略和集成时,请使用这些配置项。若你只需要快速入门,先看 配置基础。
如果你想了解项目指导、可复用能力、自定义斜杠命令、子智能体工作流和集成能力的背景概念,参见 自定义。如果你想查具体键名,参见 配置参考。
配置档案(Profiles)
配置档案允许你保存一组带名字的配置值,并在 CLI 中按名称切换。
在 config.toml 中通过 [profiles.<name>] 定义配置档案,然后运行 codex --profile <name>:
model = "gpt-5.4"
approval_policy = "on-request"
model_catalog_json = "/Users/me/.codex/model-catalogs/default.json"
[profiles.deep-review]
model = "gpt-5-pro"
model_reasoning_effort = "high"
approval_policy = "never"
model_catalog_json = "/Users/me/.codex/model-catalogs/deep-review.json"
[profiles.lightweight]
model = "gpt-4.1"
approval_policy = "untrusted"如果你想让某个配置档案成为默认值,可以在 config.toml 顶层加上 profile = "deep-review"。这样除非你在命令行里显式覆盖,Codex 启动时就会自动加载该配置档案。
配置档案也可以覆盖 model_catalog_json。如果顶层和所选配置档案同时设置了 model_catalog_json,Codex 会优先使用配置档案中的值。
通过 CLI 做一次性覆盖
除了直接编辑 ~/.codex/config.toml 之外,你还可以在 CLI 中只对单次运行做配置覆盖:
- 优先使用专用 flag,例如
--model - 当你需要覆盖任意配置键时,使用
-c/--config
示例:
# 专用 flag
codex --model gpt-5.4
# 通用键值覆盖(这里的值是 TOML,不是 JSON)
codex --config model='"gpt-5.4"'
codex --config sandbox_workspace_write.network_access=true
codex --config 'shell_environment_policy.include_only=["PATH","HOME"]'补充说明:
--config里的值使用的是 TOML 语法,而不是 JSON。- 你可以覆盖嵌套键,例如
mcp_servers.context7.enabled=false。 - 如果拿不准,请给值加上引号,避免 shell 因为空格把它拆开。
- 如果某个值无法被解析成 TOML,Codex 会把它当作普通字符串处理。
配置与状态文件位置
Codex 会把本地状态保存在 CODEX_HOME 下,默认路径是 ~/.codex。
你在其中最常见到的文件包括:
config.toml(你的本地配置)auth.json(如果你使用基于文件的凭据存储;否则会使用操作系统的 keychain / keyring)history.jsonl(如果启用了历史记录持久化)- 其他按用户保存的状态,例如日志与缓存文件
关于认证细节,包括凭据存储模式,参见 认证。关于完整配置键列表,参见 配置参考。
关于被提交到仓库或系统路径中的共享默认配置、规则和技能,参见 团队配置。
如果你只是想让内建的 OpenAI 提供方指向某个 LLM 代理、路由器,或启用了数据驻留的项目,可以直接在 config.toml 中设置 openai_base_url,而不必定义一个新的提供方。这样会修改内建 openai 提供方的基础 URL,而不需要额外创建 model_providers.<id> 条目。
openai_base_url = "https://us.api.openai.com/v1"项目配置文件(.codex/config.toml)
除了用户级配置外,Codex 还会读取仓库内 .codex/config.toml 里的项目级覆盖配置。Codex 会从项目根目录一路向下遍历到当前工作目录,并加载沿途找到的所有 .codex/config.toml。如果多个文件定义了同一个键,则离当前工作目录最近的文件生效。
出于安全考虑,Codex 只会在项目被标记为可信时加载这些项目级配置文件。如果项目不可信,Codex 会忽略项目中的 .codex/config.toml。
项目配置中的相对路径,例如 model_instructions_file,会相对于包含该 config.toml 的 .codex/ 目录来解析。
生命周期钩子(实验性)
Codex 还可以加载位于活动配置层旁边的 hooks.json 生命周期钩子。
实践中最常用的两个位置是:
~/.codex/hooks.json<repo>/.codex/hooks.json
通过下面的配置开启钩子:
[features]
codex_hooks = true关于当前支持的事件列表、输入字段、输出行为和限制,请参见 Hooks。
智能体角色(config.toml 中的 [agents])
关于子智能体角色配置,也就是 config.toml 中的 [agents],参见 子智能体。
项目根目录检测
Codex 会从当前工作目录向上查找项目根,从而发现项目配置,例如 .codex/ 配置层和 AGENTS.md。
默认情况下,Codex 会把包含 .git 的目录视为项目根。若要自定义这一行为,可以在 config.toml 中设置 project_root_markers:
# 当目录中包含以下任一标记时,将其视为项目根目录。
project_root_markers = [".git", ".hg", ".sl"]如果你设置 project_root_markers = [],Codex 就不会再向父目录搜索,而是直接把当前工作目录视为项目根。
自定义模型提供方
模型提供方定义了 Codex 如何连接到某个模型,例如基础 URL、wire_api 协议、认证方式,以及可选的 HTTP 请求头。自定义提供方不能复用内建的保留 ID:openai、ollama 和 lmstudio。
你可以定义额外的提供方,并让 model_provider 指向它们:
model = "gpt-5.4"
model_provider = "proxy"
[model_providers.proxy]
name = "OpenAI using LLM proxy"
base_url = "http://proxy.example.com"
env_key = "OPENAI_API_KEY"
[model_providers.local_ollama]
name = "Ollama"
base_url = "http://localhost:11434/v1"
[model_providers.mistral]
name = "Mistral"
base_url = "https://api.mistral.ai/v1"
env_key = "MISTRAL_API_KEY"如有需要,也可以添加请求头:
[model_providers.example]
http_headers = { "X-Example-Header" = "example-value" }
env_http_headers = { "X-Example-Features" = "EXAMPLE_FEATURES" }如果某个提供方需要 Codex 通过外部凭据助手拉取 bearer token,可以使用命令式认证:
[model_providers.proxy]
name = "OpenAI using LLM proxy"
base_url = "https://proxy.example.com/v1"
wire_api = "responses"
[model_providers.proxy.auth]
command = "/usr/local/bin/fetch-codex-token"
args = ["--audience", "codex"]
timeout_ms = 5000
refresh_interval_ms = 300000认证命令不会收到 stdin,并且必须把 token 输出到 stdout。Codex 会去掉首尾空白,把空 token 视为错误,并按 refresh_interval_ms 主动刷新;如果设为 0,则只会在认证重试后刷新。不要把 [model_providers.<id>.auth] 与 env_key、experimental_bearer_token 或 requires_openai_auth 混用。
OSS 模式(本地提供方)
当你传入 --oss 时,Codex 可以运行在本地“开源”提供方上,例如 Ollama 或 LM Studio。如果你传了 --oss 但没有指定提供方,Codex 会把 oss_provider 作为默认值。
# `--oss` 默认使用的本地提供方
oss_provider = "ollama" # 或 "lmstudio"Azure 提供方与按提供方微调
[model_providers.azure]
name = "Azure"
base_url = "https://YOUR_PROJECT_NAME.openai.azure.com/openai"
env_key = "AZURE_OPENAI_API_KEY"
query_params = { api-version = "2025-04-01-preview" }
wire_api = "responses"
request_max_retries = 4
stream_max_retries = 10
stream_idle_timeout_ms = 300000如果你只是想修改内建 OpenAI 提供方的 base URL,请使用 openai_base_url,不要创建 [model_providers.openai],因为内建 provider ID 不能被覆盖。
启用了数据驻留的 ChatGPT 客户
如果你的项目启用了 数据驻留,可以创建一个模型提供方,把 base_url 换成正确前缀。
model_provider = "openaidr"
[model_providers.openaidr]
name = "OpenAI Data Residency"
base_url = "https://us.api.openai.com/v1" # 将 us 替换为对应地域前缀模型推理、输出详细程度与限制
model_reasoning_summary = "none" # 关闭摘要
model_verbosity = "low" # 缩短回答
model_supports_reasoning_summaries = true # 强制开启推理摘要
model_context_window = 128000 # 上下文窗口大小model_verbosity 只对使用 Responses API 的提供方生效。基于 Chat Completions 的提供方会忽略这个设置。
审批策略与沙箱模式
你可以同时配置审批严格程度(控制 Codex 何时暂停)和沙箱级别(控制文件 / 网络访问范围)。
在编辑 config.toml 时,和这些设置相关的运行时行为细节可参考 常见的沙箱与审批组合、可写根目录中的受保护路径 和 网络访问。
你也可以使用细粒度审批策略,也就是 approval_policy = { granular = { ... } },按类别允许或自动拒绝单独的提示。这适合你希望某些情形仍保留交互式批准,而另一些情形,例如 request_permissions 或技能脚本提示,则默认直接拒绝的场景。
approval_policy = "untrusted" # 其他可选值:on-request、never 或 { granular = { ... } }
sandbox_mode = "workspace-write"
allow_login_shell = false # 可选加固项:禁止 shell 工具使用 login shell
# 细粒度审批策略示例:
# approval_policy = { granular = {
# sandbox_approval = true,
# rules = true,
# mcp_elicitations = true,
# request_permissions = false,
# skill_approval = false
# } }
[sandbox_workspace_write]
exclude_tmpdir_env_var = false # 允许使用 $TMPDIR
exclude_slash_tmp = false # 允许使用 /tmp
writable_roots = ["/Users/YOU/.pyenv/shims"]
network_access = false # 如需出站网络访问,请显式开启如果你需要完整键列表,包括配置档案级覆盖值和 requirements 强制规则,参见 配置参考 与 托管配置。
如果你想彻底关闭沙箱(仅当你的运行环境本身已经提供进程隔离时才建议这样做):
sandbox_mode = "danger-full-access"Shell 环境策略
shell_environment_policy 用于控制 Codex 会把哪些环境变量传给它启动的每个子进程,例如模型提出要运行的工具命令。你可以从一个“纯净环境”开始(inherit = "none"),或者先继承一组收缩过的变量(inherit = "core"),然后再叠加排除项、包含项和覆盖值,在避免泄露敏感变量的同时,保留任务所需的路径、凭据或标志。
[shell_environment_policy]
inherit = "none"
set = { PATH = "/usr/bin", MY_FLAG = "1" }
ignore_default_excludes = false
exclude = ["AWS_*", "AZURE_*"]
include_only = ["PATH", "HOME"]这里的匹配模式使用不区分大小写的 glob(例如 *、?、[A-Z])。当 ignore_default_excludes = false 时,系统内建的 KEY / SECRET / TOKEN 自动过滤会先于你自己的包含 / 排除规则生效。
MCP 服务端
关于 MCP server 的配置细节,参见独立的 MCP 文档。
可观测性与遥测
你可以启用 OpenTelemetry(OTel)日志导出,用来追踪 Codex 运行过程,包括 API 请求、SSE 事件、提示词、工具审批和工具结果。该功能默认关闭;如需启用,请在 [otel] 中配置:
[otel]
environment = "staging" # 默认为 "dev"
exporter = "none" # 设为 otlp-http 或 otlp-grpc 以发送事件
log_user_prompt = false # 默认脱敏用户提示词,除非显式开启你可以选择导出器:
[otel]
exporter = { otlp-http = {
endpoint = "https://otel.example.com/v1/logs",
protocol = "binary",
headers = { "x-otlp-api-key" = "${OTLP_TOKEN}" }
}}[otel]
exporter = { otlp-grpc = {
endpoint = "https://otel.example.com:4317",
headers = { "x-otlp-meta" = "abc123" }
}}如果 exporter = "none",Codex 仍会记录事件,但不会发送出去。导出器会异步批量发送,并在退出时刷新。事件元数据中会包含服务名、CLI 版本、环境标签、会话 ID、模型、沙箱 / 审批设置,以及按事件不同而扩展的字段,详见 配置参考。
会发出哪些事件
Codex 会发出结构化日志事件,用于描述运行过程和工具调用。代表性的事件类型包括:
codex.conversation_starts:记录模型、推理设置以及沙箱 / 审批策略codex.api_request:记录请求次数、状态 / 是否成功、耗时和错误详情codex.sse_event:记录流式事件类型、成功 / 失败、耗时,以及在response.completed时附带的 token 统计codex.websocket_request和codex.websocket_event:记录请求耗时,以及每条消息的类型 / 是否成功 / 错误信息codex.user_prompt:记录长度;除非显式开启,否则内容会被脱敏codex.tool_decision:记录是批准还是拒绝,以及决定来自配置还是来自用户codex.tool_result:记录耗时、是否成功和输出片段
OTel 发出的指标
当 OTel 指标流水线启用后,Codex 会为 API、流式响应和工具活动发出计数器与耗时直方图。
下面每个指标还会带上默认元数据标签:auth_mode、originator、session_source、model、app.version。
| 指标 | 类型 | 字段 | 说明 |
|---|---|---|---|
codex.api_request |
counter | status, success | 按 HTTP 状态码和成功 / 失败统计 API 请求数量。 |
codex.api_request.duration_ms |
histogram | status, success | API 请求耗时(毫秒)。 |
codex.sse_event |
counter | kind, success | 按事件类型与成功 / 失败统计 SSE 事件数量。 |
codex.sse_event.duration_ms |
histogram | kind, success | SSE 事件处理耗时(毫秒)。 |
codex.websocket.request |
counter | success | 按成功 / 失败统计 WebSocket 请求数量。 |
codex.websocket.request.duration_ms |
histogram | success | WebSocket 请求耗时(毫秒)。 |
codex.websocket.event |
counter | kind, success | 按消息 / 事件类型与成功 / 失败统计 WebSocket 事件数量。 |
codex.websocket.event.duration_ms |
histogram | kind, success | WebSocket 消息 / 事件处理耗时(毫秒)。 |
codex.tool.call |
counter | tool, success | 按工具名和成功 / 失败统计工具调用次数。 |
codex.tool.call.duration_ms |
histogram | tool, success | 按工具名和结果统计工具执行耗时(毫秒)。 |
关于遥测相关的安全与隐私建议,参见 监控与遥测。
匿名指标上报
默认情况下,Codex 会定期向 OpenAI 回传一小部分匿名使用与健康状态数据。这些数据帮助识别 Codex 何时工作不正常,也帮助团队了解哪些功能和配置正在被实际使用,从而把精力投入到最重要的问题上。这些指标不包含任何个人身份信息(PII)。需要注意的是,指标收集与 OTel 日志 / trace 导出是独立的。
如果你想在某台机器上的所有 Codex 界面里彻底关闭指标收集,可在配置中设置分析数据上报开关 analytics:
[analytics]
enabled = false每个指标除自身字段外,还会带上下面这些默认上下文字段。
默认上下文字段(适用于每个事件 / 指标)
auth_mode:swic|api|unknownmodel:当前使用的模型名称。app.version:Codex 版本。
指标目录
每个指标都会带上其必需字段以及上面的默认上下文字段。所有指标名称都以 codex. 开头。如果某个指标带有 tool 字段,它表示内部工具名,例如 apply_patch 或 shell,不会包含实际的 shell 命令或补丁内容。
| 指标 | 类型 | 字段 | 说明 |
|---|---|---|---|
feature.state |
counter | feature, value | 与默认值不同的 feature 状态(每个非默认值发一条)。 |
thread.started |
counter | is_git |
新线程创建。 |
thread.fork |
counter | 通过 fork 现有线程创建新线程。 | |
thread.rename |
counter | 线程被重命名。 | |
task.compact |
counter | type | 按类型统计的压缩次数(remote 或 local),包含手动与自动触发。 |
task.user_shell |
counter | 用户 shell 动作次数,例如 TUI 中的 !。 |
|
task.review |
counter | 触发 review 的次数。 | |
task.undo |
counter | undo 被触发的次数。 | |
approval.requested |
counter | tool, approved | 工具审批请求结果,例如 approved、approved_with_amendment、approved_for_session、denied、abort。 |
conversation.turn.count |
counter | 每个线程中的 user / assistant 轮次数,在线程结束时记录。 | |
turn.e2e_duration_ms |
histogram | 完整一轮的端到端耗时。 | |
mcp.call |
counter | status | MCP 工具调用结果,值为 ok 或错误字符串。 |
model_warning |
counter | 发给模型的警告次数。 | |
tool.call |
counter | tool, success | 工具调用结果,success 为 true 或 false。 |
tool.call.duration_ms |
histogram | tool, success | 工具执行时间。 |
remote_models.fetch_update.duration_ms |
histogram | 拉取远程模型定义耗时。 | |
remote_models.load_cache.duration_ms |
histogram | 加载远程模型缓存耗时。 | |
shell_snapshot |
counter | success | 获取 shell 快照是否成功。 |
shell_snapshot.duration_ms |
histogram | success | 获取 shell 快照的耗时。 |
db.init |
counter | status | 状态数据库初始化结果,例如 opened、created、open_error、init_error。 |
db.backfill |
counter | status | 初始状态数据库回填结果,例如 upserted、failed。 |
db.backfill.duration_ms |
histogram | status | 初始状态数据库回填耗时,并带有 success、failed 或 partial_failure 标签。 |
db.error |
counter | stage | 状态数据库操作期间的错误,例如 extract_metadata_from_rollout、backfill_sessions、apply_rollout_items。 |
db.compare_error |
counter | stage, reason | 对账过程中检测到的状态数据库不一致。 |
反馈控制
默认情况下,Codex 允许用户通过 /feedback 发送反馈。如果你想在一台机器上的所有 Codex 界面里关闭反馈提交,可更新配置:
[feedback]
enabled = false关闭后,/feedback 会显示不可用提示,并且 Codex 会拒绝反馈提交。
隐藏或显示推理事件
如果你想减少“推理”输出带来的噪音,例如出现在 CI 日志中,可以压制它:
hide_agent_reasoning = true如果你想在模型有输出时显示原始推理内容:
show_raw_agent_reasoning = true只有当你的工作流能够接受原始推理内容暴露时才建议开启。某些模型 / 提供方,例如 gpt-oss,并不会输出原始推理内容,这种情况下该设置不会产生可见效果。
通知
你可以使用 notify,在 Codex 发出受支持事件时触发一个外部程序(目前仅支持 agent-turn-complete)。这很适合接入桌面通知、聊天 webhook、CI 状态更新,或任何内建 TUI 通知没有覆盖到的旁路提醒。
notify = ["python3", "/path/to/notify.py"]下面是一个会响应 agent-turn-complete 的 notify.py 示例(节选):
#!/usr/bin/env python3
import json, subprocess, sys
def main() -> int:
notification = json.loads(sys.argv[1])
if notification.get("type") != "agent-turn-complete":
return 0
title = f"Codex: {notification.get('last-assistant-message', 'Turn Complete!')}"
message = " ".join(notification.get("input-messages", []))
subprocess.check_output([
"terminal-notifier",
"-title", title,
"-message", message,
"-group", "codex-" + notification.get("thread-id", ""),
"-activate", "com.googlecode.iterm2",
])
return 0
if __name__ == "__main__":
sys.exit(main())该脚本会收到一个单独的 JSON 参数。常见字段包括:
type:当前为agent-turn-completethread-id:会话标识符turn-id:当前轮次的标识符cwd:工作目录input-messages:触发这一轮的用户消息last-assistant-message:assistant 最近一条消息的文本内容
把脚本放到磁盘上的任意位置,然后让 notify 指向它即可。
notify 与 tui.notifications
notify用于运行外部程序,适合接 webhook、桌面通知程序或 CI hook。tui.notifications是 TUI 内建的通知机制,也可以按事件类型过滤,例如agent-turn-complete或approval-requested。tui.notification_method用于控制 TUI 发送终端通知的方式,可选值为auto、osc9或bel。
在 auto 模式下,Codex 会优先使用 OSC 9 通知。它是一种终端转义序列,某些终端会把它解释为桌面通知;如果不可用,则会退回到 BEL(\x07)。
具体键名见 配置参考。
历史记录持久化
默认情况下,Codex 会把本地会话记录保存到 CODEX_HOME 下,例如 ~/.codex/history.jsonl。如果你要关闭本地历史记录持久化:
[history]
persistence = "none"如果你想限制历史文件大小,可设置 history.max_bytes。当文件超过上限后,Codex 会丢弃最旧条目,并在保留最新记录的前提下压缩文件。
[history]
max_bytes = 104857600 # 100 MiB可点击引用
如果你的终端 / 编辑器集成支持,Codex 可以把文件引用渲染为可点击链接。通过配置 file_opener,可指定 Codex 使用哪种 URI 方案:
file_opener = "vscode" # or cursor, windsurf, vscode-insiders, none例如,像 /home/user/project/main.py:42 这样的引用,就可以被改写成可点击的 vscode://file/...:42 链接。
项目指令发现
Codex 会读取 AGENTS.md 以及相关文件,并在会话的第一轮里纳入一定量的项目指导。控制这一行为的两个主要配置项是:
project_doc_max_bytes:控制从AGENTS.md中最多读取多少字节project_doc_fallback_filenames:当AGENTS.md不存在时,按顺序尝试哪些替代文件名
更详细说明参见 使用 AGENTS.md 编写自定义说明。
TUI 选项
直接运行 codex 而不带子命令时,会启动交互式终端界面(TUI)。Codex 在 [tui] 下提供了一些 TUI 专属配置项,包括:
tui.notifications:启用或关闭通知,也可以限制只接收特定类型的通知tui.notification_method:选择终端通知方式,可用值为auto、osc9或beltui.animations:启用或关闭 ASCII 动画与闪光效果tui.alternate_screen:控制是否使用备用屏幕(alternate screen);设为never时会保留终端滚动历史tui.show_tooltips:控制欢迎页是否显示引导提示
tui.notification_method 默认值为 auto。在 auto 模式下,如果 Codex 判断当前终端支持,它会优先使用 OSC 9 通知。OSC 9 是一种终端转义序列,有些终端会把它解释为桌面通知;如果不可用,则会退回到 BEL(\x07)。
完整键列表请参见 配置参考。