最近OpenClaw可以说是火遍了大江南北。51探花网各大厂商都说自己的模型如何支持小龙虾,唯独没人推荐ChatGPT。 事实上OpenAI才收购了OpenClaw。 原因就一个“贵”。 让AI帮你完成一个稍微复杂的任务,比如自动化处理一批客户邮件,背后可能要调用模型几十上百次:理解意图、检索信息、生成草稿、校对润色、逐封发送……如果每一步都调用满血版GPT-5.4,一轮操作下来,饲料费(token)比虾本身还贵。 特别是随着OpenClaw这类agent框架的爆发,AI的工作模式已经发生了根本性转变:从前我们向AI提问,它盯着问题想很久,然后吐出一长串文字;现在AI面对一个复杂任务,要将其拆解成微小步骤分步推进。每一步都调用旗舰大模型,不仅延迟让人崩溃,成本也会高到离谱。 在这种背景下,OpenAI正式发布GPT-5.4 mini与nano两款小型模型,并宣称其为公司“迄今最强大的小型模型”。 麻雀虽小五脏俱全,不要小瞧这两个小玩意,不仅GPT-5.4核心的优势和能力它们继承了下来,同时还更快、更省资源,并且适合于大批量、高频率的AI任务调用。 OpenAI貌似是觉得mini还不够小,所以做出了更轻量的nano。 nano是GPT-5.4最轻量、最快速的版本,专为对速度和成本要求极高的任务而设计。 事实就是,用单一模型处理所有事务性价比太低,经常陷入高射炮打蚊子的境况,不如调整成大模型决定任务方向,小模型进行大规模快速执行的方案。 在OpenRouter本月度最受欢迎LLM排行榜前十中,轻量化模型占到了6个席位,它们参数量普遍集中在数十亿至数百亿级别,和Claude Opus这类动辄数千亿甚至万亿参数的通用旗舰大模型形成鲜明的差异。 榜单Top 2席位被轻量化小模型包揽,第1名MiniMax M2.5以8.29T tokens的调用量断层领跑全榜,国际探秘月度涨幅高达 476%;第2名Google Gemini 3 Flash Preview,调用量也达到4.24T tokens,远超多数通用旗舰大模型。
|