AI & Big Data 09月22日
xAI发布Grok 4 Fast,性能接近Grok 4,成本大幅降低
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

xAI最新发布的Grok 4 Fast模型,在保持接近旗舰模型Grok 4的性能表现的同时,成本大幅降低了98%。该模型采用了统一架构,能够灵活切换快速响应和长链推理模式,并支持高达200万个Token的上下文长度。在GPQA和AIME等基准测试中,Grok 4 Fast取得了优异的成绩,显示出其强大的跨学科研究和数学推理能力。通过优化智能密度和减少Token使用,Grok 4 Fast为用户提供了更高效、经济的AI服务,普通用户可通过Grok应用访问,开发者则可通过xAI API等途径使用。

💡 **统一架构与灵活切换**:Grok 4 Fast采用了一种创新的统一架构,打破了以往快速响应和长链推理需要不同模型的局限。这意味着同一组模型参数可以同时处理这两种需求,用户可以通过系统提示灵活调整模型行为,从而在响应速度和推理深度之间找到最佳平衡点。

🚀 **卓越性能与成本效益**:尽管成本大幅降低了98%,Grok 4 Fast在多项基准测试中表现出色,其在GPQA基准测试中得分85.7%,在AIME基准测试中得分92%,与旗舰模型Grok 4的性能非常接近。这得益于xAI使用大规模强化学习来最大化其智能密度,平均Token使用量比Grok 4少了40%,使得每百万个输入/输出Token的费用仅为0.2/0.5美元,而Grok 4为3/15美元。

🌐 **广泛的访问渠道**:Grok 4 Fast不仅性能强大且成本低廉,还提供了便捷的访问方式。普通用户可以通过Grok的首页和移动应用程序直接使用,并且对免费用户开放。开发者则可以通过xAI API、第三方平台OpenRouter或Vercel AI Gateway访问其推理端点或快速端点,极大地降低了AI模型的应用门槛。

xAI上周五(9/19)發表了Grok 4 Fast,這是款延伸自Grok 4的新模型,首度採用了統一架構,可於快速回應及長鏈推理之間自由調整,而且支援200萬個Token的脈絡長度。Grok 4 Fast標榜效能接近Grok 4,但成本降低98%。

今年5月推出、延伸自Grok 3的輕量版模型Grok 3 Mini只支援12.8萬個Token的脈絡長度,而今年7月發表的旗艦型模型Grok 4亦支援200萬個Token的脈絡長度。

在衡量跨學科研究所等級問題的GPQA基準測試中,Grok 3 Mini的分數為79%,Grok 4 Fast為85.7%,Grok 4為87.5%;在衡量基於高中數學競賽的AIME基準測試中,Grok 3 Mini的得分為83%,Grok 4 Fast為92%,Grok 4為91.7%。

xAI表示,過去推理模式(長鏈思考)與非推理模式(快速回應)通常需要不同模型,但Grok 4 Fast採用了統一架構,讓同一組模型參數同時處理兩種需求,並能透過系統提示來調整模型行為,降低端對端的延遲,也會減少Token的使用。

由於xAI使用大規模的強化學習以最大化Grok 4 Fast的智慧密度,而讓該模型在基準測試中實現了與Grok 4相當的性能,但平均使用的Token數量少了40%,此外,Grok 4 Fast每百萬個輸入/輸出Token的費用為0.2/0.5美元,Grok 4則是3/15美元,而讓xAI宣稱使用Grok 4 Fast的成本比Grok 4減少了98%。

一般使用者可以透過Grok首頁及行動程式存取Grok 4 Fast,且現已開放免費用戶使用;開發者則可經由xAI API、第三方平臺OpenRouter或是Vercel AI Gateway存取該模型的推理端點或快速端點。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

xAI Grok 4 Fast AI模型 大语言模型 成本效益 LLM AI Generative AI
相关文章