即刻AI圈子 08月05日
这篇文章有意思。 提出在 AI Agent 时代,任何“固定费率+高token消耗”的订阅模式都难以为继。 他分析了一下目前虽然 LLM 不断的在降价,但是综合的 LLM 成本反...
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

在AI Agent时代,传统的“固定费率+高token消耗”订阅模式正面临严峻挑战。尽管LLM推理成本在下降,但用户对最新、最强模型的偏好导致前沿模型价格居高不下,同时AI代理和长时间任务极大地增加了每次任务的token消耗量。这使得单用户每日成本远超传统订阅价格,迫使AI公司亏损加剧。Anthropic等公司的尝试也未能根本解决问题。文章分析了行业陷入价格战的恶性循环,并提出了三种可能的出路:从一开始就按用量计费、制造高切换成本,以及垂直整合基础设施变现。

💡 **AI模型成本悖论:** 尽管旧模型推理成本下降,但用户需求集中于价格高昂的前沿模型(SOTA),同时AI代理和长时间任务导致单次任务token消耗呈指数级增长,使得AI公司面临用户成本失控和亏损加剧的问题。

🚀 **“固定费率+高token消耗”模式难以为继:** 在AI Agent时代,用户的高token消耗量使得固定订阅价格难以覆盖实际成本。Anthropic等公司的高价或模型切换策略,以及取消无限量套餐的举措,都反映了这一模式的脆弱性。

⚖️ **行业陷入价格战困境:** 由于用户倾向于低价无限量套餐,AI公司被迫陷入“价格战—亏损—倒闭”的恶性循环。只有按用量计费才能实现可持续发展,但消费者对计量收费普遍存在抵触心理。

🚪 **应对困境的三种出路:** 文章提出了三种可能的解决方案:一是从一开始就严格执行按用量计费;二是通过深度集成和复杂流程制造高切换成本,锁定企业级用户;三是进行垂直整合,将AI推理作为引流,通过打包托管、数据库等全栈服务实现盈利。

这篇文章有意思。

提出在 AI Agent 时代,任何“固定费率+高token消耗”的订阅模式都难以为继。

他分析了一下目前虽然 LLM 不断的在降价,但是综合的 LLM 成本反而在越来越贵的原因和这种现象会产生的问题。

前段时间的 Cursor 涨价和 Claude Code 涨价都反应了这种囚徒困境。

同时还分析了一下避免这种问题的几个方法。

详细内容:

许多AI公司认为,只要模型推理成本每年下降10倍,先亏损后盈利是可行的。但现实是,虽然如GPT-3.5等旧模型确实变便宜了,但用户需求始终集中在最新、最强的前沿模型(SOTA),而这些模型的价格始终居高不下。

虽然每个token的成本没变高,但AI模型每次任务消耗的token数量却呈指数级增长。AI代理和长时间任务让单用户每日消耗的成本远超传统订阅价格(如$20/月),导致公司亏损加剧。

在AI Agent时代,任何“固定费率+高token消耗”的订阅模式都难以为继。

Anthropic等公司尝试通过高价(如$200/月)、模型自动切换、部分计算卸载到用户本地等方式应对,但依然无法阻止token消耗失控,最终不得不取消无限量套餐。

所有AI公司都明白按用量计费才可持续,但只要有竞争对手提供低价无限量,用户就会流向后者,导致行业陷入“价格战—亏损—倒闭”的恶性循环。

三种可能的出路

从一开始就按用量计费:理论上可行,但消费者普遍讨厌计量收费,实际难以增长。

制造高切换成本:如Devin等企业级AI,通过深度集成和复杂流程锁定大客户,利润率高但市场有限。

垂直整合,基础设施变现:如Replit,将AI代理与托管、数据库、监控等服务打包,AI推理作为引流,真正盈利点在于全栈服务。

文章地址:https://ethanding.substack.com/p/ai-subscriptions-get-short-squeezed

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI订阅模式 LLM成本 AI Agent Token消耗 商业模式
相关文章