OpenAI 於3月17日正式推出 GPT-5.4 mini 與 GPT-5.4 nano 兩款輕量化語言模型,宣稱這是該公司迄今「最具能力的小型模型」,主要針對需要低延遲、高吞吐量的開發者工作流程所設計。

兩款新模型的定位與差異

GPT-5.4 mini 是本次發布的主力。根據 OpenAI 公布的數據,mini 在程式撰寫、推理、多模態理解以及工具調用等核心任務上,均大幅超越上一代的 GPT-5 mini,且運行速度提升超過兩倍。在業界廣泛使用的 SWE-Bench Pro 程式修復基準測試中,mini 得分達54.4%,與旗艦版 GPT-5.4 的57.7%差距極小。此外,mini 支援高達40萬個 token 的超長上下文視窗,並具備文字與圖像輸入、網路搜尋及函數呼叫等功能。

GPT-5.4 nano 則定位更為基礎,專為分類、資料擷取、排序,以及 AI 代理體系中負責簡單子任務的子代理所設計。nano 目前僅開放 API 存取,不提供 ChatGPT 介面,這一安排清楚顯示 OpenAI 將其視為開發基礎設施,而非面向一般消費者的產品。

價格大幅下調,開發者成本降低

在定價方面,兩款模型均提供具競爭力的價格。GPT-5.4 mini 的輸入費率為每百萬 token 0.75美元,輸出費率為每百萬 token 4.50美元;GPT-5.4 nano 的輸入費率則低至每百萬 token 0.20美元,輸出費率僅1.25美元。有研究人員估算,以 nano 的定價,僅需52美元便可描述多達76,000張圖片,成本效益相當驚人。

目前,GPT-5.4 mini 已整合進 ChatGPT 免費版,讓更廣泛的用戶群體得以體驗;而 API 方面,兩款模型均已透過 Codex 及 OpenAI API 正式上線,開發者可立即調用。

邁向「子代理時代」的戰略布局

業界分析人士指出,此次發布並非單純的技術升級,而是 OpenAI 針對「代理式 AI」浪潮的重要戰略部署。隨著 AI 應用日益走向複雜的多代理架構——由一個主代理統籌調度多個子代理分工協作——開發者迫切需要既能勝任具體任務、又能兼顧成本與速度的輕量模型。GPT-5.4 nano 正是為此場景量身打造。

OpenAI 的這一舉措也對整個行業帶來壓力。Anthropic、Google DeepMind 等競爭對手同樣持續推出更輕、更快的模型系列,輕量 AI 模型市場的競爭已進入白熱化階段。

展望未來

隨著 GPT-5.4 mini 進入 ChatGPT 免費層,預計將有數億用戶得以直接體驗旗艦級模型的近似效能,這對 OpenAI 的用戶增長與商業模式均具有重要意義。分析師預測,GPT-5.4 nano 的超低定價將推動更多企業將 AI 功能嵌入現有產品,加速 AI 代理在各行業的落地應用。