huanghelou520 發表於 2026-3-20 11:29:57

GPT-5.4养龙虾太贵? OpenAI自己出手砍到了一折

最近OpenClaw可以说是火遍了大江南北。51探花网各大厂商都说自己的模型如何支持小龙虾,唯独没人推荐ChatGPT。事实上OpenAI才收购了OpenClaw。原因就一个“贵”。让AI帮你完成一个稍微复杂的任务,比如自动化处理一批客户邮件,背后可能要调用模型几十上百次:理解意图、检索信息、生成草稿、校对润色、逐封发送……如果每一步都调用满血版GPT-5.4,一轮操作下来,饲料费(token)比虾本身还贵。特别是随着OpenClaw这类agent框架的爆发,AI的工作模式已经发生了根本性转变:从前我们向AI提问,它盯着问题想很久,然后吐出一长串文字;现在AI面对一个复杂任务,要将其拆解成微小步骤分步推进。每一步都调用旗舰大模型,不仅延迟让人崩溃,成本也会高到离谱。在这种背景下,OpenAI正式发布GPT-5.4 mini与nano两款小型模型,并宣称其为公司“迄今最强大的小型模型”。麻雀虽小五脏俱全,不要小瞧这两个小玩意,不仅GPT-5.4核心的优势和能力它们继承了下来,同时还更快、更省资源,并且适合于大批量、高频率的AI任务调用。OpenAI貌似是觉得mini还不够小,所以做出了更轻量的nano。nano是GPT-5.4最轻量、最快速的版本,专为对速度和成本要求极高的任务而设计。事实就是,用单一模型处理所有事务性价比太低,经常陷入高射炮打蚊子的境况,不如调整成大模型决定任务方向,小模型进行大规模快速执行的方案。在OpenRouter本月度最受欢迎LLM排行榜前十中,轻量化模型占到了6个席位,它们参数量普遍集中在数十亿至数百亿级别,和Claude Opus这类动辄数千亿甚至万亿参数的通用旗舰大模型形成鲜明的差异。榜单Top 2席位被轻量化小模型包揽,第1名MiniMax M2.5以8.29T tokens的调用量断层领跑全榜,国际探秘月度涨幅高达 476%;第2名Google Gemini 3 Flash Preview,调用量也达到4.24T tokens,远超多数通用旗舰大模型。
頁: [1]
查看完整版本: GPT-5.4养龙虾太贵? OpenAI自己出手砍到了一折