cnBeta全文版 10月10日 17:29
Google 月处理千万亿 Token,AI 实力再证
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

Google 月度处理的 Token 量已飙升至 1.3 千万亿,显著证明了其在 AI 领域的强大实力。这一数字远超以往,显示出 Google AI 平台的高效能和广泛应用。与微软等竞争对手相比,Google 在 Token 处理量上已处于领先地位。Token 消耗量已成为衡量大模型能力、应用落地和商业价值的关键指标,Google 的这一成就为其在 AI 领域的持续发展奠定了坚实基础,并为行业树立了新的标杆。

📈 **Token 处理量激增,彰显 Google AI 实力**:Google 每月处理的 Token 量已达到惊人的 1.3 千万亿,这一数字的快速增长(从一年前的 9.7 万亿到如今的千万亿级别)是 Google AI 实力飞跃的直观体现,表明其在 AI 技术研发和应用推广方面取得了显著进展。

🏆 **行业领先地位,超越竞争对手**:与微软等主要科技公司相比,Google 在 Token 处理量这一关键指标上已展现出领先优势。例如,微软虽然也在增长,但其月度处理量尚未达到 Google 的千万亿级别,这使得 Google 在 AI 算力和服务能力方面更具竞争力。

💰 **Token 消耗量成为新衡量标准**:Token 消耗量不仅是衡量模型预训练语料规模、上下文长度和推理能力的重要指标,更是大模型商业价值和行业影响力的体现。它被用作衡量大模型应用落地、推理算力以及 API 定价的关键单位,是评估 AI 业务是否成功的“入门级”标准。

🚀 **AI 应用落地加速,市场潜力巨大**:Google 的千万亿 Token 处理量预示着大模型应用正以前所未有的速度落地,企业对 AI 的拥抱和需求真实存在。日均 10 亿 Token 的消耗量已成为“入门级”门槛,而 Google 则为行业树立了更高的标杆,预示着更广阔的市场潜力和更具创新性的 AI 应用即将涌现。

1300000000000000!1.3千万亿,一个令人咂舌的数字。这就是Google每月处理的Tokens用量。据Google“宣传委员”Logan Kilpatrick透露,这一数据来自谷歌对旗下各平台的内部统计。


假如参考DeepSeek API文档中给出的标准:

那么在中文世界里,1.3千万亿Tokens约2.17千万亿汉字。换算成对话量,一本《红楼梦》的字数在70-80万左右,相当于一个月内所有人和GoogleAI聊了近30亿本《红楼梦》的内容。


更可怕的是,假如按照Google最近几个月的增速来看,这个数字再往下恐怕……

而且需要注意的是,不止Google看重“Tokens消耗量”这一指标,OpenAI最近也首次公布了30家Tokens消耗破万亿的“大金主”。


所以,为什么这个指标重要?它背后又意味着什么?

咱们接着看——

今年已连续暴涨,扛起千万亿大旗

以Google为例,它在这个指标上取得的最新成绩无疑是GoogleAI实力的具象化体现。

根据GoogleCEO皮猜在今年I/O大会上公布的一张图,一年前Google月均处理的Tokens数量才9.7万亿,如今却已突破千万亿级大关。


并且,从大会结束到现在,根据Logan Kilpatrick(真实身份为GoogleAI Studio负责人)提供的内部数据,Google每月处理的Tokens用量还在连续暴涨,且暂未看到任何放缓迹象。


单看Google可能没感觉,那横向对比来看看呢?

根据艾伦AI研究所研究员Nathan Lambert撰写的一篇博客,目前国内外主要大厂的Tokens用量如下:

先说微软。根据微软今年公布的三季度财报,CEO纳德拉曾表示:

    本季度我们处理了超过100万亿个Tokens,同比增长5倍,其中仅上个月就创下了50万亿个Tokens的记录。

据此分析,微软的Tokens处理能力还远够不上千万亿级别。而且你别忘了,微软早期就与OpenAI有过合作(负责托管OpenAI模型),起步比Google更早。

而现在,Google却在这一指标上将微软甩在了身后。

此外,像OpenAI、国内的字节跳动、百度等公司,文章指出目前这些公司均达到了日均万亿Tokens的处理量级。

不过这里要插一句,在刚刚过去的开发者日上,OpenAI公布其API调用量为每分钟60亿Tokens,这串数字换算成月度总量是260万亿Tokens。

当然这还只是API的部分,如果加上Tokens消耗量更大的ChatGPT订阅业务,这一数字还会更大,但具体是多少目前则缺少官方数据。

整体而言,仅按公开可查的确切数据来看,Google在“千万亿”这一级确实是独一档的存在。


当然,Tokens用量还只是GoogleAI实力的冰山一隅。

几乎同一时间,Google云还公布了一组最新数据,里面除了提到1.3千万亿这个数字,还表示:


Anyway,即使抛开数据不谈,想必大家也对GoogleAI今年的崛起之势感受颇为明显。

别的不说,传说中的Gemini 3应该快了(坊间传闻原计划于10月9日上线,截至发稿前未正式官宣)。


Tokens消耗量已成新的竞争指标

说完Google,最后回到“Tokens消耗量”这个指标本身。

为什么要看Tokens消耗量?

实际上,Token作为单位能衡量的东西很多,包括预训练语料规模、上下文长度、推理长度……甚至是商业价值。

模型预训练用了多少Token语料,代表了它的基础知识储备含量。

模型能够理解多少Token的输入和输出,反映了它的理解能力。

此外,Token还是大模型推理算力的计量单位。比如底层芯片厂商如今都会通过“每秒生成Token的数量”来证明自家产品的硬件能力。甚至如果有的模型参数未公开,也能通过它的Token生成速度来倒推模型规模(在相同硬件上即可推算)。

当然更重要的是,Token也成为大模型API的定价单位。一旦使用平台的Token数量越多,厂商能够获得的商业价值以及行业影响力自然也越多。

值得一提的是,今年年初,行业围绕Tokens消耗量还诞生了一条新的价值红线——不看融资估值独角兽,看10亿Tokens日均消耗

作为“入门级”检验标准,10亿Tokens日均消耗背后意味着:

第一,它代表大模型应用落地新趋势,企业拥抱大模型红利,要朝着这一数字前进。

第二,它成为大模型应用落地新阶段的门槛,AI业务真正跑通了吗?需求真实存在吗?都可以此为参考系找回答。

第三,日均10亿Tokens消耗也只是大模型落地“入门级水准”,单客户百万亿、千万亿Tokens消耗是更值得期待的星辰大海。

而如今,远超日均10亿Tokens消耗,Google已经为所有玩家树立了新的标杆。

不知道下一个“千万亿玩家”又会是谁呢?

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Google AI Token AI能力 大模型 AI应用 Google AI Large Language Models Token Consumption AI Performance Technology Trends
相关文章