Codex 正在推动开源 AI 模型训练与发布,这是否意味着在AI领域将迎来新机遇?
摘要:继我们使用 Claude Code 训练开源模型的项目之后,现在我们更进一步,将 Codex 引入这一流程。这里的重点不是“Codex 自己开源模型”,而是让 Codex 作为编码代理,参与并自动化开源模型的训练、评估与发布全流程。为此,我
继我们使用 Claude Code 训练开源模型的项目之后,现在我们更进一步,将 Codex 引入这一流程。这里的重点不是“Codex 自己开源模型”,而是让 Codex 作为编码代理,参与并自动化开源模型的训练、评估与发布全流程。为此,我们为 Codex 接入了 Hugging Face Skills 仓库,该仓库包含了许多与机器学习和 AI 相关的“技能”,比如模型训练与评估等任务。通过 HF Skills,Codex 这样的编码代理可以实现:
对语言模型进行微调和强化学习(RL)对齐训练
查看、解释并基于 Trackio 的实时训练指标做出操作
评估模型检查点并根据评估结果作出决策
生成实验报告
将模型导出为 GGUF 格式,方便本地部署
将模型发布到 Hugging Face Hub
本教程将更深入地介绍它的工作原理,并手把手教你如何使用。我们开始吧!
Codex 使用 AGENTS.md 文件来完成特定任务,而 Claude Code 使用的是 “Skills”。幸运的是,“HF Skills” 兼容这两种方式,并可与 Claude Code、Codex 或 Gemini CLI 等主要编码代理配合使用。
例如,使用 HF Skills,你可以对 Codex 下达如下指令:
Fine-tune Qwen3-0.6B on the dataset open-r1/codeforces-cots
Codex 将自动执行以下步骤:
验证数据集格式
选择合适的硬件(比如 0.6B 模型使用 t4-small)
使用并更新带有 Trackio 监控的训练脚本
将任务提交到 Hugging Face Jobs
返回任务 ID 和预估费用
根据请求查看训练进度
如遇问题,协助你进行调试
模型会在 Hugging Face 提供的 GPU 上训练,你可以同时做其他事情。训练完成后,你的微调模型将自动发布到 Hub,可立即使用。
这不仅仅是一个演示工具。这套扩展系统支持生产级的训练方法,有监督微调(SFT)、直接偏好优化(DPO)和带有可验证奖励的强化学习(RL)。你可以训练 0.5B 到 7B 参数规模的模型,将它们转换为 GGUF 格式便于本地运行,还可以通过多阶段流程结合不同方法。
目标:端到端的机器学习实验
我们在 Claude Code 教程中探索过单条指令的方式。而现在,我们可以让 OpenAI Codex 实现完整的端到端机器学习实验。Codex 能够:
实时监控进度
评估模型效果
维护最新训练报告
工程师可以将实验任务交由 Codex 自动执行,而自己只需查看最终报告即可。同时,Codex 还能根据训练与评估结果自动做出更多决策。
我们开始动手吧!
环境准备与安装
在开始之前,你需要:
一个 Hugging Face 账户,并开通 Pro 或 Team / Enterprise 付费计划(Jobs 需付费)
一个拥有写权限的 token(在 huggingface.co/settings/tokens 生成)
安装并配置好 Codex
安装 Codex
Codex 是 OpenAI 推出的 AI 编码代理,包含在 ChatGPT Plus、Pro、Business、Edu 和 Enterprise 等计划中。它可以将 AI 能力直接融入你的开发流程。
参见 Codex 官方文档 获取安装与配置说明。
安装 Hugging Face Skills
Hugging Face Skills 仓库中包含 AGENTS.md 文件,Codex 会自动识别并使用它。
克隆仓库:
git clone https://github.com/huggingface/skills.git
cd skills
Codex 会自动检测到 AGENTS.md 文件,并加载相应的技能。你可以通过以下指令确认技能已加载:
codex --ask-for-approval never "Summarize the current instructions."
详细信息请参考 Codex AGENTS 指南。
连接 Hugging Face
使用以下命令并输入写权限 token 来进行认证:
hf auth login
Codex 支持 MCP(模型上下文协议),你可以在配置文件中添加 Hugging Face 的 MCP 服务,提升与 Hub 的集成体验。
