原创 小鹿 2025-09-21 22:02 北京
传送门:https://x.ai/news/grok-4-fast在过去,有一个规则是公认的—模型的性能和它的“思考成本”(即推理消耗的 token)是成正比的。模型越聪明,调用起来就越贵、越慢。但 xAI 通过大规模强化学习(RL)技术,把 Grok 4 Fast 的智能“压缩”到了极致,最终的效果是:新模型 Grok 4 Fast 性能几乎与顶级的 Grok 4 持平,但平均节省了 40% 的推理 Token 消耗。Grok 4 Fast 定价为:输入: $0.2 / 每百万 Tokens(约人民币 1.42)输出: $0.5 / 每百万 Tokens(3.56 )为了让大家有个对比,咱列一下其他家的:DeepSeek:Gemini:更关键的是,Grok 4 Fast 不仅实现了平均 40% 的 Token 节省和极具攻击性的定价,更在各大权威基准测试中取得了“屠榜”级的表现:在推理基准测试中,Grok 4 Fast 在大幅降低 token 成本的同时,全面超越了 Grok 3 Mini:在 LMArena 搜索竞赛中,Grok-4-Fast-Search 以 1163 的 ELO 评分夺得冠军,领先第二名 o3-search 17 分,展现了其在模拟真实世界应用场景中的绝对优势:在 LMArena 的 Text Arena 中, Grok 4 Fast 排名第八,表现与 grok-4-0709 相当,在同重量级中远远优于同行(所有同等规模的模型排名均在第 18 位或以下):在极度考验语义理解与分类推理能力的纽约时报连线谜题(NYT Connections Benchmark)中,Grok 4 Fast Reasoning 以其卓越的“智商”直接登顶,超越了 GPT-5、Gemini 2.5 Pro 等一系列顶级模型。在著名的“Artificial Analysis 智能指数”中,Grok 4 Fast 仅用 Gemini 2.5 Pro 约二十五分之一的成本,就达到了同等级别的智能表现。更夸张的是它的速度,根据 Artificial Analysis 的独立评测,Grok 4 Fast API 非常快,输出速度高达 344 tokens/秒,大约是 OpenAI GPT-5 API 的 2.5 倍,端到端延迟仅 3.8 秒,是当之无愧目前最快的前沿模型:除了出色的性能,Token 效率是 Grok 4 Fast 的另一大亮点—它使用 6100 万 token 完成了智能指数测试(Gemini 2.5 Pro 用了 9300 万,Grok 4 用了 1.2 亿)。Grok 4 Fast 通过端到端的工具使用强化学习(RL)进行训练,成为了一个天生的“工具调用大师”,当你给它一个复杂的搜索任务时,它不再是简单地返回一堆链接。它会像一个真正的人类研究员一样:主动浏览网页和 X 平台。点击链接,深入挖掘信息。解析 X 上的图片和视频内容。整合出一份实时、精准的报告。目前 Grok 的官方已经可以使用 Grok 4 Fast 了!而且,xAI 还送上了一个福利:Grok 4 Fast 的 API 将在 OpenRouter 和 Vercel AI Gateway 上限时免费提供。 感兴趣的开发者家人们,可以冲了!咱们小小的测了下 Grok4 Fast,用了测评大模型的几个经典的考题:首先是草莓和比大小:这个没问题是意料之内,那再试试编程:
请帮我生成一个小球在六边形内模仿物理规律跳动的网页表现一言难尽。。都没有小球在网页中出现。再给你一次机会!
请帮我生成一个网页版本的连连看游戏这个很丝滑,而且游戏的运行也正确无误!再看下 Grok 4 Fast 的文笔:
请帮我生成小说 特朗普与外星人的相遇模型的性能整体看还是可以的,感兴趣的家人们可以再猛猛考验他一下和我们分享 ~但是非常值得震撼的是,Grok 4 Fast 的发布,再次印证了那个非常可怕的趋势:获取顶尖 AI 智能的成本正在雪崩式下降。根据数据统计,在过去一年半里,获取 GPT-4 级别智能的成本已经下降了约 500 倍:
