【美今詩歌集】【作者:童驛采】1999年~2020年 |訪問首頁|
李小璐
   

李小璐

 找回密碼
 立即註冊
搜索
查看: 50|回復: 0

GPT-5.4养龙虾太贵? OpenAI自己出手砍到了一折

[複製鏈接]

29

主題

0

回帖

147

積分

註冊會員

Rank: 2

積分
147
發表於 2026-3-20 11:29:57 | 顯示全部樓層 |閱讀模式
最近OpenClaw可以说是火遍了大江南北。51探花网各大厂商都说自己的模型如何支持小龙虾,唯独没人推荐ChatGPT。
事实上OpenAI才收购了OpenClaw。
原因就一个“贵”。
让AI帮你完成一个稍微复杂的任务,比如自动化处理一批客户邮件,背后可能要调用模型几十上百次:理解意图、检索信息、生成草稿、校对润色、逐封发送……如果每一步都调用满血版GPT-5.4,一轮操作下来,饲料费(token)比虾本身还贵。
特别是随着OpenClaw这类agent框架的爆发,AI的工作模式已经发生了根本性转变:从前我们向AI提问,它盯着问题想很久,然后吐出一长串文字;现在AI面对一个复杂任务,要将其拆解成微小步骤分步推进。每一步都调用旗舰大模型,不仅延迟让人崩溃,成本也会高到离谱。
在这种背景下,OpenAI正式发布GPT-5.4 mini与nano两款小型模型,并宣称其为公司“迄今最强大的小型模型”。
麻雀虽小五脏俱全,不要小瞧这两个小玩意,不仅GPT-5.4核心的优势和能力它们继承了下来,同时还更快、更省资源,并且适合于大批量、高频率的AI任务调用。
OpenAI貌似是觉得mini还不够小,所以做出了更轻量的nano。
nano是GPT-5.4最轻量、最快速的版本,专为对速度和成本要求极高的任务而设计。
事实就是,用单一模型处理所有事务性价比太低,经常陷入高射炮打蚊子的境况,不如调整成大模型决定任务方向,小模型进行大规模快速执行的方案。
在OpenRouter本月度最受欢迎LLM排行榜前十中,轻量化模型占到了6个席位,它们参数量普遍集中在数十亿至数百亿级别,和Claude Opus这类动辄数千亿甚至万亿参数的通用旗舰大模型形成鲜明的差异。
榜单Top 2席位被轻量化小模型包揽,第1名MiniMax M2.5以8.29T tokens的调用量断层领跑全榜,国际探秘月度涨幅高达 476%;第2名Google Gemini 3 Flash Preview,调用量也达到4.24T tokens,远超多数通用旗舰大模型。

回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|小黑屋|李小璐

GMT+8, 2026-4-10 19:40 , Processed in 0.126343 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回復 返回頂部 返回列表