今年9月OpenAI推出GPT-5-Codex后,11月8日,OpenAI再推“经济高效型”编程模型GPT-5-Codex-Mini。这款模型虽性能稍有降低,但使用额度大幅增加,还伴有用户速率上限提升等一系列利好开发者的更新。
GPT-5-Codex-Mini发布,主打经济高效
今年9月,OpenAI推出为Codex平台“自主编码”任务优化的GPT-5-Codex。11月8日,OpenAI发布其体积更小、成本更低的版本GPT-5-Codex-Mini。相比原版,该版本性能有小幅折损,在SWE-bench Verified测试中,GPT-5 High得分72.8%,GPT-5-Codex得分74.5%,而GPT-5-Codex-Mini得分71.3% 。不过,开发者使用该版本可获得约4倍的使用额度。
适用场景与上线情况
OpenAI建议在处理轻量级工程任务或接近速率上限时使用GPT-5-Codex-Mini,当使用率达到90%时,Codex系统会自动提示用户切换。目前,该Mini版已在CLI和IDE扩展中上线,API支持也即将到位。
ChatGPT用户速率提升与优先调度
借助GPU效率提升,ChatGPT Plus、Business和Edu用户的速率上限能够提高50%,ChatGPT Pro与Enterprise用户则享有优先调度,可获得更快响应。
Codex后台优化,保障稳定体验
OpenAI还对Codex做出后台优化,保证无论何时访问,开发者都能获得稳定且可预测的使用体验,避免了此前因缓存未命中或流量路由问题而造成的波动。
以上文章由 AI 总结生成
