OpenAI 发布 GPT-5.4 mini 与 nano
OpenAI 周二正式推出 GPT-5.4 mini 和 GPT-5.4 nano 两款轻量级模型,旨在进一步降低企业级 AI 应用的成本并提升响应速度。作为 GPT-5.4 旗舰系列的新成员,这两款模型被定位为“迄今为止性能最强的强力小模型”,重点优化了编程(Coding)、计算机辅助操作(Computer Use)以及多模态理解能力。
GPT-5.4 mini 在性能上显著超越了前代 mini 模型,运行速度提升超过 2 倍,且在多项基准测试中已逼近 GPT-5.4 旗舰版水平。与此同时,GPT-5.4 nano 成为 OpenAI 历史上成本最低的模型,主要针对高频、低延迟的简单任务,如数据分类、提取和实时子代理(Sub-agents)协作。
OpenAI 表示,新模型的发布反映了开发者工作流的转变,即从“单一模型处理所有任务”转向“分层协作模式”:由大模型负责逻辑判断和规划,而由 mini 或 nano 模型负责快速、大规模地执行具体子任务。在定价方面,GPT-5.4 mini 每百万输入代币(Input tokens)费用为 0.75 美元,而 nano 版本的起售价仅为 0.20 美元。目前,GPT-5.4 mini 已在 API、ChatGPT 及 Codex 平台同步上线。
Introducing GPT-5.4 mini and nano
OpenAI 周二正式推出 GPT-5.4 mini 和 GPT-5.4 nano 两款轻量级模型,旨在进一步降低企业级 AI 应用的成本并提升响应速度。作为 GPT-5.4 旗舰系列的新成员,这两款模型被定位为“迄今为止性能最强的强力小模型”,重点优化了编程(Coding)、计算机辅助操作(Computer Use)以及多模态理解能力。
GPT-5.4 mini 在性能上显著超越了前代 mini 模型,运行速度提升超过 2 倍,且在多项基准测试中已逼近 GPT-5.4 旗舰版水平。与此同时,GPT-5.4 nano 成为 OpenAI 历史上成本最低的模型,主要针对高频、低延迟的简单任务,如数据分类、提取和实时子代理(Sub-agents)协作。
OpenAI 表示,新模型的发布反映了开发者工作流的转变,即从“单一模型处理所有任务”转向“分层协作模式”:由大模型负责逻辑判断和规划,而由 mini 或 nano 模型负责快速、大规模地执行具体子任务。在定价方面,GPT-5.4 mini 每百万输入代币(Input tokens)费用为 0.75 美元,而 nano 版本的起售价仅为 0.20 美元。目前,GPT-5.4 mini 已在 API、ChatGPT 及 Codex 平台同步上线。
Introducing GPT-5.4 mini and nano