Codex 正在推动开源 AI 模型训练与发布,这是否意味着在AI领域将迎来新机遇?

摘要:继我们使用 Claude Code 训练开源模型的项目之后,现在我们更进一步,将 Codex 引入这一流程。这里的重点不是“Codex 自己开源模型”,而是让 Codex 作为编码代理,参与并自动化开源模型的训练、评估与发布全流程。为此,我
继我们使用 Claude Code 训练开源模型的项目之后,现在我们更进一步,将 Codex 引入这一流程。这里的重点不是“Codex 自己开源模型”,而是让 Codex 作为编码代理,参与并自动化开源模型的训练、评估与发布全流程。为此,我们为 Codex 接入了 Hugging Face Skills 仓库,该仓库包含了许多与机器学习和 AI 相关的“技能”,比如模型训练与评估等任务。通过 HF Skills,Codex 这样的编码代理可以实现: 对语言模型进行微调和强化学习(RL)对齐训练 查看、解释并基于 Trackio 的实时训练指标做出操作 评估模型检查点并根据评估结果作出决策 生成实验报告 将模型导出为 GGUF 格式,方便本地部署 将模型发布到 Hugging Face Hub 本教程将更深入地介绍它的工作原理,并手把手教你如何使用。我们开始吧! Codex 使用 AGENTS.md 文件来完成特定任务,而 Claude Code 使用的是 “Skills”。幸运的是,“HF Skills” 兼容这两种方式,并可与 Claude Code、Codex 或 Gemini CLI 等主要编码代理配合使用。 例如,使用 HF Skills,你可以对 Codex 下达如下指令: Fine-tune Qwen3-0.6B on the dataset open-r1/codeforces-cots Codex 将自动执行以下步骤: 验证数据集格式 选择合适的硬件(比如 0.6B 模型使用 t4-small) 使用并更新带有 Trackio 监控的训练脚本 将任务提交到 Hugging Face Jobs 返回任务 ID 和预估费用 根据请求查看训练进度 如遇问题,协助你进行调试 模型会在 Hugging Face 提供的 GPU 上训练,你可以同时做其他事情。训练完成后,你的微调模型将自动发布到 Hub,可立即使用。 这不仅仅是一个演示工具。这套扩展系统支持生产级的训练方法,有监督微调(SFT)、直接偏好优化(DPO)和带有可验证奖励的强化学习(RL)。你可以训练 0.5B 到 7B 参数规模的模型,将它们转换为 GGUF 格式便于本地运行,还可以通过多阶段流程结合不同方法。 目标:端到端的机器学习实验 我们在 Claude Code 教程中探索过单条指令的方式。而现在,我们可以让 OpenAI Codex 实现完整的端到端机器学习实验。Codex 能够: 实时监控进度 评估模型效果 维护最新训练报告 工程师可以将实验任务交由 Codex 自动执行,而自己只需查看最终报告即可。同时,Codex 还能根据训练与评估结果自动做出更多决策。 我们开始动手吧! 环境准备与安装 在开始之前,你需要: 一个 Hugging Face 账户,并开通 Pro 或 Team / Enterprise 付费计划(Jobs 需付费) 一个拥有写权限的 token(在 huggingface.co/settings/tokens 生成) 安装并配置好 Codex 安装 Codex Codex 是 OpenAI 推出的 AI 编码代理,包含在 ChatGPT Plus、Pro、Business、Edu 和 Enterprise 等计划中。它可以将 AI 能力直接融入你的开发流程。 参见 Codex 官方文档 获取安装与配置说明。 安装 Hugging Face Skills Hugging Face Skills 仓库中包含 AGENTS.md 文件,Codex 会自动识别并使用它。 克隆仓库: git clone https://github.com/huggingface/skills.git cd skills Codex 会自动检测到 AGENTS.md 文件,并加载相应的技能。你可以通过以下指令确认技能已加载: codex --ask-for-approval never "Summarize the current instructions." 详细信息请参考 Codex AGENTS 指南。 连接 Hugging Face 使用以下命令并输入写权限 token 来进行认证: hf auth login Codex 支持 MCP(模型上下文协议),你可以在配置文件中添加 Hugging Face 的 MCP 服务,提升与 Hub 的集成体验。
阅读全文