180K 前天 20:05
微软高管访谈:AI的未来、商业模式与微软的战略
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本次访谈聚焦微软CEO萨提亚·纳德拉与SemiAnalysis创始人Dylan Patel的对话,深入探讨了AI的未来发展、商业模式以及微软在这一领域的战略布局。对话围绕着云计算的未来、AI模型商品化带来的行业利润、微软自研芯片的潜在价值、AI的高边际成本等议题展开。纳德拉分享了微软对未来计算能力的需求预测,强调了数据中心规模和连接性的重要性,并阐述了AI作为“认知放大器”的本质。他还深入分析了SaaS商业模式在AI时代的演变,以及Copilot等产品在激烈的市场竞争中的优势与机遇。此外,访谈还触及了模型公司利润扩张的逻辑,以及微软在模型研发和基础设施建设方面的双重战略。

☁️ **云计算与AI基础设施的演进:** 微软正以前所未有的速度扩展其数据中心能力,旨在支持未来超大规模AI训练和推理需求。其最新的Fairwater数据中心具备极高的网络带宽和连接性,能够聚合算力以应对超大模型的训练。这种基础设施的扩张不仅是为了训练,也为了满足多样化的数据生成和推理工作负载,预示着云计算的未来将超越简单的API调用,深入到长尾负载的利润空间。

💰 **AI商业模式的重塑与利润分配:** 随着AI模型日益商品化,尤其是在中国开源模型蓬勃发展的背景下,行业利润的流向成为焦点。纳德拉认为,AI将成为“认知放大器”和“守护天使”,其效用在于赋能人类。他强调,AI带来的经济增长并非一蹴而就,而是需要技术扩散到改变工作本身。微软通过订阅服务(如Copilot)、按量付费以及设备毛利等多种计费方式,布局AI时代的商业模式,并看到了AI将极大地扩展市场,而非简单地侵蚀现有SaaS利润。

🚀 **微软在AI领域的战略布局:** 面对激烈的市场竞争,微软采取了多项战略举措。首先,通过与OpenAI的深度合作,确保在AI模型研发上的领先地位,并在此基础上进行创新。其次,积极投入自研芯片,掌握关键技术IP。再者,通过GitHub和VS Code等平台,构建AI智能体的“Agent HQ”,提供集成的工具和服务,吸引开发者生态。微软的目标是构建一个能够支持多种模型、具备强大基础设施和灵活应用层面的AI平台,而非仅仅依赖单一模型或垂直整合。

💡 **模型公司与“脚手架”的价值博弈:** 访谈深入探讨了模型公司与提供“脚手架”(即支持AI运行的基础设施和工具)的公司之间的价值分配。纳德拉认为,模型可能趋于商品化,尤其是在开源模型的影响下。然而,掌握数据流动性、提供关键的“脚手架”以及构建垂直整合的应用层,将是赢得竞争的关键。微软通过其在云基础设施、Office系统以及AI Agent开发方面的优势,致力于在模型和应用之间创造价值,并与模型公司形成合作共赢的生态。

🌐 **AI智能体与计算基础设施的未来:** 纳德拉描绘了公司未来可能存在的两种世界:一是用户引导下的工具业务,二是完全自主的AI智能体。他指出,即使是自主AI智能体,也需要底层计算基础设施的支持,例如Windows 365,以及数据存储、归档、电子取证等服务。微软正将自身定位为这一新型基础设施的提供者,其终端用户计算基础设施业务将持续增长,并可能从按用户付费转向按智能体付费,为AI智能体的运行提供高效、安全、身份关联的计算环境。

2025-11-13 08:31 中国香港

A streamlined info flow又是信息量爆炸的一次访问。。

访谈原文放在了本文文末,但是也建议大家有时间听一下原采访;

简单用AI搞几个重点,细节建议大家参考原文。

关于Azure / 云策略

未来的云计算绝非“仅仅向模型发起 API 调用”,而是后面的长尾负载。这些长尾负载,是利润所在

关于行业利润

对模型商品化的观点,呼之欲出...尤其是现在中国开源模型独领风骚。

关于自家模型

从上面的两个思路下来,那么微软对于模型底座的精力/资源,可能不需要倾其所有。

关于自研芯片

OAI搞出自研芯片的话,微软享有对应的芯片IP。(这里Dylan还特别确认了一次,按照我的理解,应该是没错的。错误的话欢迎纠正)

怎么看AI的高边际成本

原访问中也说了很多AI定价策略的细节,大家拉到本篇公众号文末自己看细节

关于光器件

“互连”这里应该有不少信息增量,等老师们自己挖掘了。

最后,

****微软的访谈,全文在本篇公众号文末****

因为这次是配合SemiAnalysis做的访问,所以SA访谈后也搞了个自己的总结+一些数据支持,建议大家也看看。一些细节发到星球了。


其他的一些,欢迎来星球微信群里继续讨论;

星球和微信群继续帮大家筛选“重要且有叙事的信息”+“每天复盘” + “实时微信群讨论”;

星球微信群里有不少机构朋友,欢迎过来坐坐。最近市场各种事件,各种小作文...星友们看到有用的东西都往微信群里扔,反馈速度加倍,辟谣速度也加倍


Dwarkesh Patel 00:00:00

今天我们采访的对象是萨提亚·纳德拉。“我们”指的是我,以及SemiAnalysis的创始人迪伦·帕特尔。萨提亚,欢迎你。

Satya Nadella 00:00:07

谢谢。非常棒。感谢你们来到亚特兰大。

Dwarkesh Patel 00:00:10

感谢您带我们参观这个新设施。能亲眼看到这一切,感觉真的很酷。

Satya Nadella 00:00:13

当然。

Dwarkesh Patel 00:00:15

萨提亚和微软云与AI部门的执行副总裁斯科特·格思里(Scott Guthrie)带我们参观了他们全新的Fairwater 2数据中心,这是目前世界上最强大的数据中心。

Scott Guthrie 00:00:25

我们一直致力于每18到24个月将训练能力提升10倍。所以,这里的能力基本上会是训练GPT-5所用能力的10倍。这么说吧,从光纤网络的角度来看,这座建筑里的网络光纤数量,几乎相当于两年半前整个Azure在全球所有数据中心的光纤总量。

Satya Nadella 00:00:44

这里大概有五百万个网络连接。

Dwarkesh Patel 00:00:47

你们在一个区域内的不同站点之间,以及两个区域之间,都拥有如此巨大的带宽。这是否意味着你们对未来的扩展性下了一个巨大的赌注,预见到未来会出现某个需要跨越两个完整区域进行训练的超大模型?

Satya Nadella 00:00:59

我们的目标是能够为一个大型训练任务聚合这些算力(flops),并将不同站点的资源整合在一起。现实情况是,你将用它来训练,然后你也会用它来生成数据,用于各种形式的推理。它不会永远只用于一种工作负载。

Scott Guthrie 00:01:20

你将在附近看到正在建设中的Fairwater 4,它也将连接到那个1 Petabit(千万亿比特)的网络上,这样我们就能以极高的速率将两者连接起来。然后,我们通过AI广域网(AI WAN)连接到密尔沃基,我们在那里还建了多个其他的Fairwater数据中心。

Satya Nadella 00:01:35

你真的可以直观地看到模型并行和数据并行。这基本上是为训练任务、为这个园区内的超级计算集群(super pods)而构建的。然后通过广域网,你可以连接到威斯康星州的数据中心。你真的可以运行一个将所有这些资源聚合起来的训练任务。

Scott Guthrie 00:02:00

我们现在看到的这个单元(cell)里还没有服务器,也没有机架。

Dylan Patel 00:02:04

一个单元里有多少个机架?

Scott Guthrie 00:02:06

这个我们通常不方便透露,但是……

Dylan Patel 00:02:10

我就是因为这个才问的。

Scott Guthrie 00:02:12

你上楼就看到了。

Dylan Patel 00:02:14

那我开始数了。

Scott Guthrie 00:02:15

你可以开始数。我们让你数。

Dylan Patel 00:02:16

这栋楼里有多少个单元?

Scott Guthrie 00:02:17

这个我也不能告诉你。

Dwarkesh Patel 00:02:19

嗯,做个除法很简单,对吧?

Satya Nadella 00:02:24

天哪,这里真有点吵。

Dwarkesh Patel 00:02:27

你看到这些是不是在想:“现在我知道我的钱都花在哪儿了。”

Satya Nadella 00:02:30

感觉就像是:“我经营的是一家软件公司。欢迎来到这家‘软件公司’。”

Dwarkesh Patel 00:02:35

一旦你们决定使用GB200和NVLink,设计空间还有多大?还有多少决策需要做?

Satya Nadella 00:02:41

从模型架构到最优化的物理布局,这之间是相互耦合的。从这个意义上说,这也挺吓人的,因为总会有新的芯片问世。就拿Vera Rubin Ultra来说,它的功率密度将会截然不同,冷却要求也会大相径庭。所以你其实不想把所有东西都按照一个规格来建造。这又回到了我们稍后会讨论的话题,那就是你希望能够随着时间的推移进行扩展,而不是一次性扩展到位,然后就被困住了。

00:03:20 - AGI的商业模式

Dylan Patel 00:03:20

纵观过去所有的技术转型——无论是铁路、互联网、可替换零件、工业化,还是云计算——每一次革命从技术被发现到大规模普及并渗透到整个经济体的时间都变得越来越快。许多上过Dwarkesh播客的嘉宾都认为,这是最后一次技术革命或转型,而且这一次与以往截然不同。

至少从市场来看,在三年内,超大规模云服务商明年的资本支出已经飙升至5000亿美元,这个速度是以往任何革命都无法比拟的。最终的形态似乎会非常不同。你对这个问题的看法,和我所说的那些“AI兄弟”(AI bro)——就是那些高喊“AGI(通用人工智能)要来了”的人——的看法似乎很不一样。我想更深入地了解一下。

Satya Nadella 00:04:17

我首先也和大家一样,对“这可能是工业革命以来最重大的事件”这个想法感到兴奋。我从这个前提出发。但与此同时,我也比较务实,认识到我们仍处于早期阶段。我们已经构建了一些非常有用的东西,我们看到了模型展现出一些很棒的特性,这些规模法则(scaling laws)似乎也在起作用。我乐观地认为它们会继续有效。其中一些确实需要真正的科学突破,但也有大量的工程工作等等。

话虽如此,我也倾向于认为,即使是过去70年计算领域所发生的一切,也一直在推动我们前进。我喜欢拉吉·雷迪(Raj Reddy)对AI的一个比喻。他是卡内基梅隆大学的图灵奖得主。他甚至在AGI概念出现之前就有这个比喻。他认为AI应该要么是“守护天使”,要么是“认知放大器”。我非常喜欢这个说法。它简单地概括了AI的本质。归根结底,它对人类的效用是什么?它将成为一个认知放大器和一个守护天使。如果我这样看待它,我就把它看作一个工具。

但你也可以对此进行非常神秘化的解读,说它不仅仅是一个工具。它能做所有这些迄今为止只有人类才能做的事情。但过去许多技术也是如此。曾经有很多事情只有人类能做,然后我们有了能做这些事的工具。

Dwarkesh Patel 00:05:56

我们不必在这里纠结于定义,但可以这样想:也许需要五年、十年、二十年。在某个时间点,最终会有一台机器能产出“萨提亚token”,而微软董事会认为这些“萨提亚token”非常有价值。

Dylan Patel 00:06:10

你采访萨提亚,到底浪费了多少这种经济价值?

Dwarkesh Patel 00:06:15

我可付不起“萨提亚token”的API费用。不管你怎么称呼它,是工具还是智能体(agent)。现在,模型的成本大约是每百万token几美元或几美分,这里存在巨大的利润扩张空间,因为一百万个“萨提亚token”的价值要高得多。我的问题是,这部分利润流向何方?微软在其中能分到多大比例?

Satya Nadella 00:06:45

在某种程度上,这又回到了一个根本问题:经济增长的图景究竟会是什么样子?公司的形态会是什么样子?生产力会是什么样子?对我来说,这才是关键所在。如果我们回顾工业革命,它是在技术扩散了70年之后才开始看到经济增长的。这是另一件需要记住的事情。即使这次技术扩散得很快,要实现真正的经济增长,它必须扩散到足以改变工作本身、工作产物和工作流程的程度。所以我认为,企业要真正实现变革所需的变革管理,其难度不应被低估。

展望未来,人类和他们产生的token是否会获得更高的杠杆效应,无论是未来的“Dwarkesh token”还是“Dylan token”?想想你现在使用的技术量。如果没有技术,你们能运营SemiAnalysis或者这个播客吗?绝无可能,以你们已经达到的规模来看,绝无可能。

所以问题是,未来的规模会是怎样?它会不会因为新技术的出现而被放大10倍?绝对会。因此,无论你的收入增长到某个数字,还是你的听众数量增长到某个数字,我认为这都会发生。关键在于,工业革命花了70年,甚至150年才实现的事情,这次可能在20年、25年内发生。如果幸运的话,我希望将工业革命200年里发生的事情压缩到20年内完成。

Dylan Patel 00:08:28

微软在历史上可以说是最伟大的软件公司,最大的软件即服务(SaaS)公司。你们过去经历了一次转型,从销售Windows许可证和Windows或Microsoft的光盘,到现在销售Office 365的订阅服务。

当我们从那个转型过渡到你们今天的业务时,之后又在发生另一次转型。软件即服务的增量用户成本极低。它有大量的研发投入和客户获取成本。这在某种程度上解释了为什么(不是微软,而是)那些SaaS公司在市场上表现得非常糟糕,因为AI的销货成本(COGS)太高了,这完全打破了这些商业模式的运作方式。

作为可以说是最伟大的SaaS公司,您如何带领微软过渡到这个销货成本至关重要、增量用户成本截然不同的新时代?因为现在你们的收费方式是,“嘿,Copilot每月20美元。”

Satya Nadella 00:09:29

这是一个很好的问题,因为在某种程度上,商业模式本身的杠杆作用将保持相似。如果你看一看从消费者到企业的各种模式,总会有某种广告单元,某种交易费,对于制造AI设备的人来说会有设备毛利。还会有消费者和企业的订阅服务,然后是按使用量付费。所以我仍然认为这些都是计费方式。

关于你的观点,什么是订阅?到目前为止,人们喜欢订阅是因为他们可以做预算。订阅本质上是赋予用户某些消费权利,这些权利被封装在订阅中。所以我认为这在某种程度上变成了一个定价决策。你被赋予多少消费权利,如果你看看所有编程工具的订阅,基本上就是这样,对吧?然后你有专业版、标准版等等。所以我认为定价和利润结构会这样分层。

有趣的是,对微软来说,好消息是我们身处这个行业,并且涵盖了所有这些计费方式。在我们的产品组合层面,我们几乎拥有从按量付费、订阅到所有其他消费者杠杆的全部模式。我认为时间会告诉我们,哪些模式在哪些类别中更有意义。

关于SaaS方面,既然你提到了,我思考了很多。以Office 365或Microsoft 365为例。拥有较低的每用户平均收入(ARPU)是件好事,因为这里有个有趣的现象。在从服务器到云的转型期间,我们曾经问自己一个问题:“天哪,如果我们所做的只是把那些使用我们Office许可证和当时Office服务器的相同用户转移到云上,而我们还要承担销货成本,这不仅会压缩我们的利润率,还会使我们从根本上成为一个盈利能力较差的公司。”

但实际发生的是,向云的迁移极大地扩展了市场。我们在印度只卖了很少的服务器,销量不大。然而在云时代,突然之间,印度的每个人也都能负担得起零散地购买服务器,也就是IT成本。事实上,我之前没有意识到的最大的一点是,人们在SharePoint下面购买存储所花费的巨额资金。实际上,EMC最大的业务板块可能就是为SharePoint提供存储服务器。所有这些在云时代都消失了,因为没有人需要去购买。事实上,这曾是营运资本,意味着是现金流出。所以云极大地扩展了市场。

所以这次的AI也会是这样。以编程为例,我们用GitHub和VS Code几十年建立起来的东西,突然之间,编程助手在一年内就变得如此庞大。我认为这也将发生,即市场会极大地扩展。

00:12:48 - Copilot

Dwarkesh Patel 00:12:48

有一个问题是,市场会扩张,但是触及微软的那部分收入会扩张吗?Copilot就是一个例子。如果你看今年早些时候,根据Dylan的数据,GitHub Copilot的收入大约是5亿美元,而且当时没有势均力敌的竞争对手。而现在,你有Claude Code、Cursor和Copilot,它们的收入大致相当,都在10亿美元左右。Codex也在追赶,大约在7亿到8亿美元。所以问题是,在微软所能触及的所有产品界面上,微软版的Copilot们有什么优势?

Satya Nadella 00:13:25

顺便说一句,我喜欢这张图表。

我喜欢这张图表有很多原因。第一,我们仍然排在首位。第二,这里列出的所有公司都是在过去四五年里诞生的。对我来说,这是最好的迹象。你有新的竞争对手,新的生存危机。当你说,现在是谁?是Claude要干掉你,还是Cursor要干掉你,而不是Borland(一家老牌软件公司)。谢天谢地。这意味着我们走在正确的方向上。

就是这样。我们从无到有发展到这个规模,本身就是市场的扩张。这就像云计算那样。从根本上说,编程和AI这个类别可能会成为最大的类别之一。它是软件工厂的类别。事实上,它可能比知识工作还要大。我想对此保持开放的心态。

我们将面临激烈的竞争。这是你的观点,一个很棒的观点。但我很高兴我们已经将我们所拥有的成功地转化为现在的局面,现在我们必须去竞争。在竞争方面,即使在我们刚刚结束的上个季度,我们发布了季度财报,我认为我们的订阅用户从2000万增长到了2600万。我对我们的订阅用户增长和发展方向感觉良好。

但更有趣的事情是,猜猜所有那些生成大量代码的其他公司的代码库都放在哪里?它们都放在GitHub上。GitHub在代码库创建、拉取请求(PRs)等所有方面都达到了历史新高。顺便说一句,我们希望保持这种开放性。这意味着我们希望拥有这个生态。我们不想把它和我们自身的增长混为一谈。有趣的是,我们大概每秒钟就有一个开发者加入GitHub,我想统计数据是这样的。其中80%的人会自然而然地进入某种GitHub Copilot的工作流程。顺便说一句,很多这些工具甚至会使用我们的一些代码审查智能体,这些智能体是默认开启的,因为你可以直接使用。我们将有很多很多结构性的机会来抓住这个市场。我们还将做的事情,就像我们对Git所做的那样。GitHub的核心元素,从Git开始,到Issues(问题追踪),到Actions(自动化工作流),这些都是强大而美好的东西,因为它们都围绕着你的代码库构建。我们希望扩展这一点。

上周在GitHub Universe大会上,我们所做的就是这个。我们说Agent HQ(智能体总部)是我们计划构建的概念性东西。在这里,举个例子,你有一个叫做Mission Control(任务控制中心)的东西。你进入任务控制中心,现在我就可以分派任务。我有时把它描述成所有这些AI智能体的“有线电视”,因为我基本上会在一个订阅包里拥有Codex、Claude、Cognition的东西,任何人的智能体,Grok,所有这些都会在里面。所以我得到一个软件包,然后我就可以发布一个任务并引导它们,让它们在各自独立的分支中工作。我可以监控它们。我认为这将是创新的最大领域之一,因为现在我希望能够使用多个智能体。我希望能够消化多个智能体的输出。我希望能够掌控我的代码库。

如果需要构建某种平视显示器(heads-up display),让我能够快速引导和分类这些编程智能体生成的内容,对我来说,在VS Code、GitHub以及我们作为任务控制中心将要构建的所有这些新功能之间,加上一个控制平面……还有可观察性……想想每个将要部署所有这些东西的人。这将需要一整套关于哪个智能体在什么时间对哪个代码库做了什么的可观察性。我觉得这就是机会所在。

归根结底,你的观点很有道理,那就是我们最好保持竞争力并不断创新。如果我们不这样做,我们就会被颠覆。但我喜欢这张图表,至少只要我们还排在榜首,即使有竞争。

Dylan Patel 00:17:26

这里的关键点在于,无论谁的编程智能体胜出,GitHub都会持续增长。但那个市场的增长率可能只有10%、15%、20%,这远高于GDP增长率。它是一个很棒的复利增长机器。但是这些AI编程智能体已经从去年年底大约5亿美元的年化收入——当时只有GitHub Copilot——增长到现在,GitHub Copilot、Claude Code、Cursor、Cognition、Windsurf、Replit、OpenAI Codex……所有这些加起来,在今年第四季度的年化收入已经达到了50到60亿美元。这是10倍的增长。

当你审视软件智能体的潜在市场规模(TAM)时,它究竟是人们付给员工的2万亿美元工资,还是一个更大的数字?因为世界上每家公司现在都能更高效地开发软件了?毫无疑问,微软会从中分一杯羹。但你们的市场份额在短短一年内就从接近100%,或者肯定远高于50%,下降到了不足25%。人们凭什么能相信微软会继续赢下去?

Satya Nadella 00:18:30

Dylan,这又回到了那个观点,这里没有什么“特权”,我们不应该有任何信心,唯一能做的就是去创新。我们所拥有的幸运之处在于,这个类别的市场规模将比我们曾经拥有高份额的任何市场都要大得多。让我这么说吧。你可以说我们在VS Code中有高份额,我们在GitHub的代码库中有高份额,那是一个不错的市场。但关键是,即使在一个规模大得多的市场中拥有一个不错的份额……

你可以说我们在客户端-服务器计算时代拥有高份额。我们在超大规模云计算领域的份额远低于那个时代。但它是不是一个大得多的业务?是数量级上的大。所以至少这证明了,即使我们的市场份额不如以前那么强势,只要我们竞争的市场能创造更多价值,微软也能过得很好。而且市场中可以有多个赢家。就是这样。

但我理解你的观点,归根结底,这一切都意味着你必须有竞争力。我每个季度都在关注这一点。这就是为什么我对我们即将用Agent HQ做的事情非常乐观,把GitHub变成一个所有这些智能体汇集的地方。正如我所说,我们将在那里有多次射门得分的机会。它不一定非得……我们的一些竞争对手可以和我们一起成功,所以不一定非得只有一个赢家和一个订阅服务。

00:20:02 - 谁的利润率会扩张得最多?

Dwarkesh Patel 00:20:02

我想,之所以要关注这个问题,是因为它不仅关乎GitHub,更从根本上关乎Office和微软提供的所有其他软件。对于AI如何发展,一种设想是,模型将继续存在缺陷(hobbled),你需要一直进行直接、可见的监控。

另一种设想是,随着时间的推移,这些现在执行需要两分钟任务的模型,未来将能执行需要10分钟、30分钟的任务。再往后,它们或许能自主完成数天的工作。到那时,模型公司可能会为提供一个真正的“同事”而收取数千美元的费用,这个“同事”可以使用任何用户界面与人类沟通,并在不同平台之间迁移。

如果我们越来越接近那种情况,为什么不是那些利润越来越高的模型公司拿走了所有的利润?为什么那些提供“脚手架”(scaffolding)的地方——随着AI能力越来越强,这些脚手架变得越来越不重要——会那么重要呢?这涉及到现有的Office与那些直接从事知识工作的“同事”之间的关系。

Satya Nadella 00:21:07

这是一个很好的观点。所有的价值是都迁移到模型本身,还是会在“脚手架”和模型之间分配?我认为时间会给出答案。但我的基本观点是,激励结构会变得清晰。以信息工作为例,甚至以编程为例。实际上,我在GitHub Copilot中最喜欢的一个设置叫做“自动”(auto),它会自动进行优化。我买一个订阅,然后“自动”模式就会开始为我要求它做的事情选择和优化。它甚至可以是完全自主的。它可以在多个模型之间对可用的token进行套利,以完成一项任务。

如果你接受这个论点,那么模型将成为商品。尤其是在开源模型的情况下,你可以选择一个检查点(checkpoint),拿一些你的数据,然后你就能看到效果。我认为我们所有人,无论是Cursor还是微软,都会开始看到一些内部自研的模型。然后你会把大部分任务卸载给它。

所以一种论点是,如果你赢得了“脚手架”——今天它需要处理所有这些智能问题的缺陷或不平滑之处,你必须这样做——如果你赢得了它,那么你就会垂直整合到模型中,因为你将拥有数据的流动性和其他优势。而且将会有足够多的可用检查点。这是另一回事。

从结构上讲,我认为世界上总会有一个相当强大的开源模型,你可以使用它,只要你有一些东西可以与之配合,那就是数据和“脚手架”。我可以提出这样的论点:如果你是一家模型公司,你可能会有“赢家的诅咒”。你可能做了所有艰苦的工作,取得了令人难以置信的创新,但它离被商品化只有一步之遥。然后,拥有数据用于基础 grounding 和上下文工程以及数据流动性的人,就可以拿那个检查点去训练它。所以我认为这个论点可以从两方面来看。

Dylan Patel 00:23:36

解读一下您说的话,这里有两种世界观。一种是,市面上有很多不同的模型。开源模型也存在。模型之间会有差异,这在一定程度上决定了谁赢谁输。但是“脚手架”才是让你获胜的关键。

另一种观点是,实际上,模型才是关键的知识产权。每个人都在进行激烈的竞争,并且存在着某种,“嘿,我可以用Anthropic或者OpenAI”的情况。你可以从收入图表中看到这一点。OpenAI的收入在他们最终推出一个与Anthropic能力相似(尽管方式不同)的代码模型后开始飙升。

有一种观点认为,模型公司是攫取所有利润的一方。因为如果你看今年,至少在Anthropic,他们的推理业务毛利率从远低于40%上升到年底超过60%。尽管有比以往任何时候都多的中国开源模型,OpenAI很有竞争力,谷歌也很有竞争力,X/Grok现在也很有竞争力,所有这些公司现在都很有竞争力,但尽管如此,模型层的利润率还是显著扩张了。您怎么看?

Satya Nadella 00:24:43

这是一个很好的问题。也许几年前人们会说:“哦,我只要包装一个模型就能建立一家成功的公司。”这种想法可能已经被证伪了,就是因为模型能力本身以及所使用的工具,特别是工具。

但有趣的是,当我看到Office 365时,就拿我们构建的这个叫做Excel Agent的小东西来说。它很有趣。Excel Agent不是一个UI层面的包装。它实际上是位于中间层的一个模型。在这种情况下,因为我们拥有GPT家族的所有知识产权,我们正在把它放到Office系统的核心中间层,去教它如何原生理解Excel,以及其中的一切。这不仅仅是,“嘿,我只有一个像素层面的理解。”我拥有对Excel所有原生构件的完全理解。因为你想想,如果我要给它一些推理任务,我甚至需要修复我犯的推理错误。这意味着我不仅需要看到像素,我还需要能够看到,“哦,我那个公式搞错了”,我需要理解这一点。

在某种程度上,所有这些都不是在UI包装层通过一些提示词完成的,而是在中间层通过教它所有Excel的工具来完成的。我基本上是给它一个Markdown文档来教它成为一个高级Excel用户所需的技能。这有点奇怪,它又回到了AI大脑的概念。你不仅仅是在构建传统意义上的Excel业务逻辑。你是在拿传统意义上的Excel业务逻辑,并用这个懂得如何使用工具的模型为它包裹上一层认知层。在某种意义上,未来的Excel会捆绑一个分析师和所有使用的工具。这是每个人都会去构建的那种东西。

所以即使对于模型公司,他们也必须竞争。如果他们定价过高,猜猜会发生什么,如果我是一个像这样的工具的构建者,我就会替换掉你。我可能会用你一段时间。所以只要有竞争……总有一种赢家通吃的可能性。如果有一个模型比其他所有模型都好,而且差距巨大,是的,那就是赢家通吃。但只要存在竞争,有多个模型,就像超大规模云服务商之间的竞争一样,并且有开源模型作为制衡,那么在模型之上构建价值的空间就足够大。

在微软,我看待这个问题的方式是,我们将从事超大规模云业务,它将支持多种模型。我们将在未来七年内拥有OpenAI模型的访问权,我们将在其基础上进行创新。基本上,我把我们自己看作是拥有一个前沿级别的模型,我们可以用它来进行创新,并且有完全的灵活性。我们也会用MAI(Microsoft AI)来构建我们自己的模型。所以我们总会有一个模型层。然后我们会在安全、知识工作、编程或科学领域,构建我们自己的应用“脚手架”,这将是模型优先的。它不会是一个模型的包装,而是模型将被包装到应用程序中。

Dwarkesh Patel 00:28:04

关于您提到的其他事情,我有很多问题。但在我们转向那些话题之前,我仍然想知道,这是否没有前瞻性地看待AI的能力,您想象中的模型仍然像今天这样。它截取你屏幕的截图,但无法查看每个单元格内部的公式是什么。我认为更好的心智模型是,想象这些模型将能够像人类一样使用电脑。一个使用Excel的人类知识工作者可以查看公式,可以使用替代软件,可以在必要时将数据从Office 365迁移到另一个软件,等等。

Satya Nadella 00:28:43

这正是我说的意思。

Dwarkesh Patel 00:28:45

但如果是这样的话,那么与Excel的集成就不那么重要了。

Satya Nadella 00:28:48

不,不,别担心与Excel的集成。毕竟,Excel是作为分析师的工具而构建的。很好。所以,无论这个作为分析师的AI是谁,它都应该有可以使用的工具。

Dwarkesh Patel 00:29:03

他们有电脑。就像人类可以使用电脑一样。那是他们的工具。

Satya Nadella 00:29:05

工具就是电脑。所以我说的就是,我正在构建一个作为AI智能体的分析师,它恰好天生就具备如何使用所有这些分析工具的知识。

Dwarkesh Patel 00:29:20

为了确保我们谈论的是同一件事,这是否是像我这样的人类使用Excel……

Satya Nadella 00:29:30

不,它是完全自主的。所以我们现在或许应该阐述一下我认为公司的未来是什么样的。公司的未来将是工具业务,在这个业务中,我有一台电脑,我使用Excel。事实上,未来我甚至会有一个Copilot,那个Copilot也会有智能体。但仍然是我在引导一切,一切都反馈给我。这是一种世界。

第二种世界是,公司直接为一个AI智能体配置计算资源,而这个智能体完全自主地工作。那个完全自主的智能体将拥有一套本质上是实体化的、可供其使用的相同工具。所以这个AI工具进来时,它拥有的不仅仅是一台裸机,因为使用工具来完成任务会更节省token。

事实上,我有时会这样看,我们今天的业务,一个最终用户工具业务,将变成一个支持智能体工作的,本质上的基础设施业务。这是另一种思考方式。事实上,我们为M365构建的所有底层东西仍然会非常重要。你需要一个地方来存储它,一个地方来做归档,一个地方来做电子取证(discovery),一个地方来管理所有这些活动,即使你是一个AI智能体。这是一种新的基础设施。

Dwarkesh Patel 00:31:00

为了确保我理解了,您是说理论上,未来一个真正能使用电脑的AI——所有这些模型公司现在都在研究这个——即使它没有与微软合作或在我们的保护伞下,也可以使用微软的软件。但您是说,如果你使用我们的基础设施,我们会给它们更底层的访问权限,这使得你做同样的事情时效率更高,而这些事情你本来也可以做?

Satya Nadella 00:31:24

百分之百正确。发生的事情是,我们曾经有服务器,然后有了虚拟化,然后我们有了更多的服务器。这是思考这个问题的另一种方式。不要把工具看作是最终的东西。人类使用的那个工具下面的整个底层基板(substrate)是什么?那个完整的基板也是AI智能体的启动基础,因为AI智能体需要一台电脑。

事实上,我们看到显著增长的一个非常有趣的领域是,所有那些做Office文档处理等的自主智能体,他们都希望配置Windows 365。他们真的希望能够为这些智能体配置一台电脑。绝对是这样。这就是为什么我们将拥有一个本质上的终端用户计算基础设施业务,它将持续增长,因为它将比用户数量增长得更快。

这是人们问我的另一个问题,“嘿,按用户付费的业务会怎么样?”至少从早期的迹象来看,思考按用户付费业务的方式可能不仅仅是按用户,而是按智能体。如果你说是按用户和按智能体,关键是为每个智能体配置什么东西?一台电脑,一套围绕它的安全措施,一个与之关联的身份。所有这些东西,可观察性等等,都是管理层。所有这些都将被融入其中。

Dylan Patel 00:32:54

我的理解框架是——至少我目前是这么想的,我很想听听您的看法——这些模型公司都在构建环境,来训练它们的模型使用Excel、在亚马逊上购物或者预订航班等等。但与此同时,它们也在训练这些模型进行迁移。因为这可能是最直接有价值的事情:将基于大型机的系统转换为标准的云系统,将Excel数据库转换为带有SQL的真实数据库,或者将Word和Excel中完成的工作转换为更程序化、更高效的方式,这种方式人类也能做,只是对于软件开发者来说成本效益不高。

这似乎是未来几年每个人都将用AI来做的事情,以极大地创造价值。如果模型可以利用工具本身迁移到别的东西上,微软如何融入其中?是的,微软在数据库、存储和所有这些其他类别中都处于领先地位,但Office生态系统的使用将会显著减少,就像大型机生态系统的使用可能会减少一样。不过,大型机在过去二十年里实际上一直在增长,尽管现在没人再谈论它们了。它们仍在增长。

Satya Nadella 00:34:16

百分之百同意。

Dylan Patel 00:34:17

这个流程是怎样的?

Satya Nadella 00:34:18

归根结底,在相当长的一段时间里,世界将是混合的,因为人们将使用工具,这些工具将与必须使用工具的智能体一起工作,它们之间需要相互沟通。我生成的产物是什么,然后人类需要看到它?所有这些在任何地方都是需要真实考虑的,包括输入和输出。我不认为这仅仅是关于“哦,我迁移掉了”。底线是,我必须生活在这个混合的世界里。

但这并没有完全回答你的问题,因为可能会出现一个全新的、高效的前沿,那里只有智能体与智能体一起工作,并且完全优化。即使是智能体与智能体一起工作,需要的基本元素(primitives)是什么?你需要一个存储系统吗?那个存储系统需要有电子取证功能吗?你需要可观察性吗?你需要一个身份系统,它将使用多个模型但都共享一个身份系统吗?这些都是我们今天为Office系统等提供的核心底层轨道。未来我们也会有这些。

你提到了数据库。天哪,我真希望所有的Excel都有一个数据库后端。我希望所有这一切能立刻发生。而且那个数据库是一个好的数据库。事实上,数据库将是一个会大幅增长的重要领域。如果我想到所有的Office产物都能被更好地结构化,由于智能体世界的存在,结构化和非结构化数据之间的连接能力会变得更好,这将促进底层基础设施业务的增长。而这一切的消耗恰好是由智能体驱动的。

你可以说所有这些都是由模型公司即时生成的软件。那也可能是真的。我们自己也会成为这样的一家模型公司。我们会内置……竞争可能是这样的:我们将构建一个模型加上所有的基础设施并提供它,然后会有一群能做到这一点的人之间展开竞争。

00:36:17 - MAI(微软AI)

Dwarkesh Patel 00:36:17

说到模型公司,您说你们不仅会有基础设施,还会有模型本身。目前,微软AI两个月前发布的最新模型在Chatbot Arena(聊天机器人竞技场)上排名第36位。你们显然拥有OpenAI的知识产权。在您同意这个排名的前提下,它似乎是落后的。为什么会这样,特别是考虑到理论上你们有权fork(分叉)OpenAI的单一代码库(monorepo)或蒸馏他们的模型,尤其是如果拥有一个领先的模型公司是你们战略的重要组成部分?

Satya Nadella 00:36:51

首先,我们绝对会在我们所有的产品中最大限度地使用OpenAI的模型。这是我们在未来七年里将继续做的核心事情,不仅是使用它,还要为它增值。这就是分析师和这个Excel Agent的用武之地,这些都是我们将要做的事情,我们将在其中进行强化学习微调(RL fine-tuning)。我们将在GPT家族的基础上进行一些中期训练,利用我们独特的数据资产来构建能力。

对于MAI模型,我认为我们的思考方式是,新协议的好消息是我们现在可以非常非常清楚地表明,我们将建立一个世界级的超级智能团队,并以雄心壮志去追求它。但与此同时,我们也将利用这段时间来明智地使用这两者。这意味着我们一方面将非常注重产品,另一方面将非常注重研究。因为我们可以访问GPT家族,我最不想做的事情就是把我的算力用在那些只是重复且没有太多附加值的地方。

我希望能够把我用来生成GPT家族的算力价值最大化,而我的MAI算力则被用于……比如说我们发布的图像模型,我认为它在图像竞技场上排名第九。我们用它来优化成本,它已经用在了Copilot和Bing上,我们将继续使用它。我们在Copilot中有一个音频模型。它有个性之类的。我们为我们的产品优化了它。所以我们会做这些。

即使在LMArena(大语言模型竞技场)上,我们从文本模型开始,它首次亮相时排名大概在13位。顺便说一句,那次训练只用了大约15000个H100。它是一个非常小的模型。所以,这再次证明了我们的核心能力、指令遵循能力以及其他一切。我们想确保我们能达到当时最先进的水平。这向我们展示了,根据规模法则,如果我们给它更多的算力,我们能做到什么。我们下一步要做的是一个全能模型(omni-model),我们将把我们在音频、图像和文本方面所做的工作结合起来。这将是MAI方面的下一个里程碑。

所以当我思考MAI的路线图时,我们将建立一个一流的超级智能团队。我们将继续发布,并以开放的方式发布其中一些模型。它们要么会因为对延迟友好、成本友好或其他原因而被用于我们的产品,要么它们会拥有一些特殊的能力。我们将进行真正的研究,以便为未来五、六、七、八年内在通往超级智能的道路上所需的所有突破做好准备——同时充分利用我们拥有GPT家族的优势,我们可以在其基础上进行工作。

Dylan Patel 00:39:45

假设我们快进七年,你们不再能使用OpenAI的模型了。微软会做什么来确保自己是领先的,或者拥有一个领先的AI实验室?今天,许多突破都是由OpenAI开发的,无论是规模化还是推理能力。或者是由谷歌开发的,比如Transformer。

但这也是一场巨大的人才争夺战。你看到Meta在人才上花费了超过200亿美元。你看到Anthropic去年从谷歌挖走了整个Blueshift推理团队。你看到Meta最近又从谷歌挖走了一个大型的推理和后训练团队。这类人才战争资本密集度非常高。可以说,如果你在基础设施上花费1000亿美元,你也应该在那些使用基础设施的人身上花费X金额,这样他们才能更有效地做出这些新突破。

人们凭什么能相信微软会拥有一支世界级的团队,能够做出这些突破?一旦你们决定打开资金的水龙头——你们现在在资本效率上做得比较聪明,这似乎是为了不浪费钱做重复的工作——但一旦你们决定需要这么做,人们怎么能说,“哦是的,现在你们可以冲到前五名模型了”?

Satya Nadella 00:41:00

归根结底,我们将建立一支世界级的团队,而且我们已经开始组建一支世界级的团队了。我们有Mustafa(Suleyman)加入,我们有Karen(Simonyan)。我们有Amar Subramanya,他在Gemini 2.5做了很多后训练工作,现在在微软。Nando(de Freitas),他在DeepMind做了很多多媒体工作,也在这里。我们将建立一支世界级的团队。事实上,甚至在本周晚些时候,Mustafa就会发布一些东西,更清晰地说明我们的实验室将要做什么。

我或许想让世界知道的是,我们将构建能够支持多种模型的基础设施。因为从超大规模云服务商的角度来看,我们希望构建最具规模化的基础设施集群,能够支持世界所需的所有模型,无论是来自开源社区,还是显然来自OpenAI和其他公司。这是一项工作。

其次,在我们自己的模型能力方面,我们绝对会在我们的产品中使用OpenAI的模型,并且我们将开始构建我们自己的模型。而且我们可能会——就像在GitHub Copilot中使用了Anthropic的模型一样——甚至在我们的产品中包装其他前沿模型。我认为这就是每一次……归根结底,产品在满足特定任务或工作时的评估结果才是最重要的。我们将从那里开始反向推导所需的垂直整合,因为我们知道,只要你的产品能很好地服务于市场,你总能进行成本优化。

Dwarkesh Patel 00:42:31

有一个未来的问题。现在,我们的模型在训练和推理之间有区别。有人可能会说,不同模型之间的差异越来越小。展望未来,如果你真的期待像人类水平的智能,人类是在工作中学习的。如果你想想你过去的30年,是什么让“萨提亚token”如此有价值?是你在微软获得的过去30年的智慧和经验。

如果模型达到人类水平,我们最终会拥有能够在工作中持续学习的模型。在我看来,这将为领先的模型公司带来巨大的价值,因为你将拥有一个模型的多个副本,广泛部署在整个经济体中,学习如何做每一项工作。而且与人类不同,它们可以将其学习成果汇总到那个模型中。所以这是一种持续学习的指数级反馈循环,几乎看起来像是一种智能爆炸。

如果这种情况发生,而微软到那时还不是领先的模型公司……您说我们可以用一个模型替换另一个模型等等。到那时,这还重要吗?因为就好像有一个模型知道如何做经济中的每一项工作,而其他的长尾模型则不知道。

Satya Nadella 00:43:39

你的观点是,如果有一个模型是世界上部署最广泛的唯一模型,它能看到所有数据并进行持续学习,那基本上就是大局已定,游戏结束了。但至少我看到的现实是,在当今世界,尽管任何一个模型都可能占据主导地位,但情况并非如此。以编程为例,有多种模型。事实上,这种情况每天都在减少。没有一个模型被广泛部署。有多个模型正在被部署。这就像数据库一样。总有人说,“一个数据库能成为到处都在使用的那个吗?”但事实并非如此。有多种类型的数据库被部署用于不同的用例。

我认为,持续学习——我称之为数据流动性——会带来一些网络效应,任何一个模型都会有。但这会在所有领域都发生吗?我不这么认为。会在所有地区都发生吗?我不这么认为。会在所有细分市场都发生吗?我不这么认为。会同时在所有类别中发生吗?我也不这么认为。因此,我觉得设计空间如此之大,以至于有大量的机会。

但你的基本观点是,拥有一个在基础设施层、模型层和“脚手架”层都具备的能力,然后能够组合这些东西,不仅仅是作为一个垂直堆栈,而是能够根据其目的来组合每一件东西。你不能构建一个只为一个模型优化的基础设施。如果你那样做,万一你落后了怎么办?事实上,你构建的所有基础设施都将是浪费。你需要构建一个能够支持多种模型家族和谱系的基础设施。否则你投入的、为一个模型架构优化的资本,意味着你离被淘汰只有一个调整的距离,比如某个像MoE(混合专家模型)那样的突破发生了,你的整个网络拓扑就作废了。这是件可怕的事情。

因此,你希望基础设施能够支持你自己的模型家族和其他模型家族中可能出现的任何东西。你必须保持开放。如果你对超大规模云业务是认真的,你就必须对这一点是认真的。如果你对成为一家模型公司是认真的,你必须基本上说,“人们可以在模型之上做些什么,这样我才能有一个ISV(独立软件开发商)生态系统?”除非我打算拥有每一个类别,那是不可能的。那样你就不会有API业务,而根据定义,这意味着你永远不会成为一个成功部署在各处的平台公司。因此,行业结构本身会迫使人们进行专业化。在这种专业化中,像微软这样的公司应该在每一层都凭实力竞争,而不是认为这一切都是通往大局已定的道路,我只要垂直整合所有这些层就行了。那种事是不会发生的。

00:47:47 - 超大规模云业务

Dylan Patel 00:47:47

所以去年,微软本有望成为迄今为止最大的基础设施提供商。你们在2023年是最早行动的,你们出动了,获取了所有资源,包括租赁数据中心、开始建设、确保电力供应等等。你们本有望在2026年或2027年超越亚马逊。当然,到2028年你们肯定会超过他们。

从那以后,我们称之为去年下半年,微软进行了一次大的暂停,他们放弃了许多本打算租赁的场地,而这些场地后来被谷歌、Meta、亚马逊,在某些情况下还有甲骨文接手了。

我们现在正坐在世界上最大的数据中心之一,所以显然这并非全部,你们仍在疯狂扩张。但确实有一些你们停止了工作的项目。你们为什么这么做?

Satya Nadella 00:48:32

这又回到了一个问题,超大规模云业务到底是什么?我们做出的一个关键决定是,如果我们要把Azure打造成对AI所有阶段——从训练到中期训练,再到数据生成和推理——都非常出色的平台,我们就需要集群的可替代性(fungibility)。所以这整个事情导致我们基本上没有去用某一代特定的技术来建设大量的容量。

因为你必须意识到的另一件事是,到目前为止,我们每18个月为各种OpenAI模型提供10倍的训练能力,我们意识到关键是保持在这个路径上。但更重要的是要有一个平衡,不仅是训练,还要能够在世界各地为这些模型提供服务。因为归根结底,是商业化的速度决定了我们能否持续投入。然后,基础设施需要我们支持多种模型。

所以一旦我们确定了这一点,我们就对我们正在走的道路进行了路线修正。如果我看看我们现在的道路,我们现在正在启动更多的项目。我们也在尽可能多地购买托管容量,无论是自建、租赁,甚至是GPU即服务。但我们是根据我们看到的需求、服务需求和我们的训练需求来建设的。我们不想仅仅成为一家公司的托管商,只与一个客户有大量的业务。那不是一个业务,你应该与那家公司进行垂直整合。

鉴于OpenAI将成为一家成功的独立公司,这太棒了。这很有道理。即使Meta可能会使用第三方容量,但最终他们都会成为第一方。对于任何有大规模需求的公司来说,他们自己就会成为一个超大规模云服务商。对我来说,目标是建立一个超大规模的集群和我们自己的研究计算能力。这就是调整所在。所以我感觉非常好。

顺便说句,另一件事是,我不想被某一代技术的大规模部署所困住。我们刚刚看到了GB200,GB300也快来了。等到Vera Rubin、Vera Rubin Ultra问世时,数据中心的样子将会非常不同,因为每个机架、每排的功耗会大不相同。冷却要求也会大不相同。这意味着我不想仅仅去建设数千兆瓦的、只适用于一代、一个家族技术的容量。所以我认为节奏很重要,可替代性和地理位置很重要,工作负载的多样性很重要,客户的多样性也很重要,而这正是我们正在努力构建的。

我们学到的另一件事是,每个AI工作负载不仅需要AI加速器,还需要很多其他东西。事实上,我们的大部分利润结构将来自那些其他东西。因此,我们希望将Azure打造成对长尾工作负载非常出色的平台,因为那才是超大规模云业务,同时我们知道,我们必须从裸金属开始,在最高端的训练上保持极强的竞争力。

但这不能挤占其他业务,因为我们的业务不是仅仅与五家客户签订五份合同,成为他们的裸金属服务商。那不是微软的业务。那可能是别人的业务,这也是一件好事。我们已经说过,我们从事的是超大规模云业务,归根结底,这是一个针对AI工作负载的长尾业务。为了做到这一点,我们将为包括我们自己在内的一系列模型提供一些领先的裸金属即服务能力。我认为这就是你看到的平衡。

Dylan Patel 00:52:41

另一个关于可替代性这个话题的问题。好吧,它不在你想要的地方,你宁愿它在一个好的人口中心,比如亚特兰大。我们就在这里。还有一个问题是,随着AI任务的时间跨度增长,这有多重要?一个推理提示需要30秒,或者一个深度研究需要30分钟,未来软件智能体可能需要数小时,甚至数天等等,与人类互动的时间。它在A、B还是C地点,又有什么关系呢?

Satya Nadella 00:53:14

这是一个很好的问题。正是如此。事实上,这也是我们为什么要思考Azure区域是什么样子,以及Azure区域之间的网络连接是什么样子的另一个原因。我认为,随着模型能力和这些token使用方式的演变,无论是同步还是异步,你都不想处于不利的位置。

然后,除此之外,还有数据驻留法。整个欧盟的事情,我们真的不得不创建一个欧盟数据边界。这基本上意味着你不能随便把一个调用往返到任何地方,即使是异步的也不行。因此,你可能需要有高密度的区域性设施,然后还有电力成本等等。

但你提出的观点百分之百正确,即我们建设的拓扑结构必须不断演进。第一,为了每美元每瓦特的token产出。经济性是什么?在此之上,叠加使用模式是什么?同步、异步的使用模式。但还有计算和存储是什么?因为延迟对于某些事情可能很重要。存储最好就在附近。如果我有一个Cosmos DB靠近这里,用于会话数据,甚至用于自主任务,那么它也必须在附近,等等。所有这些考虑都将塑造超大规模云业务。

Dylan Patel 00:54:38

在暂停之前,我们对你们的预测是,到2028年你们将达到12-13吉瓦。现在我们大概在9.5吉瓦左右。

但更相关的是——我只是想让您更具体地说明这不是您想做的业务——甲骨文正在从你们规模的1/5增长到2027年底比你们还大。

虽然它的投资回报率达不到微软的水平,但他们仍然有35%的毛利率。所以问题是,也许做这个不是微软的业务,但你们通过拒绝这项业务,通过放弃优先承购权等方式,现在创造了一个超大规模云服务商。

Satya Nadella 00:55:23

首先,我不想贬低甲骨文在建立其业务方面取得的成功,我祝他们一切顺利。我认为我已经回答了你的问题,那就是,对我们来说,去为一个模型公司做托管商,而且这个合作的RPO(恢复点目标,这里引申为合作承诺)时间有限,是没有意义的。我们就这么说吧。

你必须思考的不是未来五年做什么,而是未来五十年做什么。我们做出了我们的一系列决定。我对我们与OpenAI的合作以及我们正在做的事情感觉非常好。我们有一笔可观的业务。我们祝他们取得巨大成功。事实上,我们自己也是甲骨文容量的购买者。我们祝他们成功。

但在这一点上,我认为我们试图做的事情背后的产业逻辑非常清晰,那就是,我们不是在追逐……首先,我确实关注你发布的关于AWS、谷歌和我们自己的数据,我认为这非常有用。但这并不意味着我必须去追逐那些数字。我追逐它们,不仅仅是为了它们在某个时期可能代表的毛利率。微软独特地能够完成的、对我们来说有意义的业务是什么?这才是我们要做的事情。

Dwarkesh Patel 00:56:40

我有一个更宏观的问题,我理解您的观点,即在其他条件相同的情况下,拥有一个可以获得更高利润的长尾客户群,比为少数几个实验室提供裸金属服务是更好的业务。但接下来的问题是,行业正在朝哪个方向发展?如果我们相信我们正走在通往越来越聪明的AI的道路上,那么为什么行业的形态不是OpenAI、Anthropic和DeepMind成为平台,而长尾企业实际上是在这个平台上开展业务?他们需要裸金属,但他们才是平台。直接使用Azure的长尾客户是什么?因为你想使用的是通用的认知核心。

Satya Nadella 00:57:22

但那些模型都将在Azure上可用,所以任何工作负载说,“嘿,我想用一些开源模型和一个OpenAI模型”,如果你今天去Azure Foundry,你会有所有这些模型,你可以配置它们,购买PTU(处理时间单元),获得一个Cosmos DB,一个SQL DB,一些存储,一些计算。这才是一个真实的工作负载的样子。一个真实的工作负载不仅仅是对一个模型的API调用。一个真实的工作负载需要所有这些东西来构建一个应用程序或实例化一个应用程序。

事实上,模型公司也需要这些来构建任何东西。这不仅仅是,“我有一个token工厂”。我必须拥有所有这些东西。这才是超大规模云业务。而且它不依赖于任何一个模型,而是所有这些模型。所以如果你想要Grok加上,比如说,OpenAI加上一个开源模型,来Azure Foundry,配置它们,构建你的应用程序。这里有一个数据库。这才是业务的样子。

有一个独立的业务叫做只向模型公司销售原始的裸金属服务。这就是关于你想做多少这种业务,不想做多少,以及它是什么的争论。这是业务中一个非常不同的部分,我们身处其中,但我们也有一个限度,即它会在多大程度上挤占其他业务。但至少我是这么看的。

Dylan Patel 00:58:40

这里有两个问题。一个是,为什么你们不能两者兼得?另一个是,根据我们对你们2028年容量的估计,它减少了3.5吉瓦。当然,你可以把这些容量专门用于OpenAI的训练和推理,但你也可以把它们专门用于运行Azure,运行Microsoft 365,运行GitHub Copilot。我本可以自己建,而不给OpenAI。

Satya Nadella 00:59:08

或者我可能想把它建在不同的地方。我可能想把它建在阿联酋,我可能想把它建在印度,我可能想把它建在欧洲。其中一件事是,正如我所说,考虑到监管需求和数据主权需求,我们现在在某些地方确实存在容量限制,我们必须在世界各地进行建设。首先,美国本土的容量超级重要,我们想建设一切。

但当我展望2030年时,我对微软按第一方和第三方划分的业务形态有一个全球视野。第三方按前沿实验室的需求量,以及我们想为多种模型建设的推理容量,还有我们自己的研究计算需求来划分。所有这些都进入了我的计算。你正确地指出了这次暂停,但这次暂停不是因为我们说,“哦天哪,我们不想建那个了。”我们意识到,我们想以一种稍微不同的方式来建设我们想建设的东西,无论是按工作负载类型,还是按地理类型和时间安排。

我们将继续增加我们的吉瓦数,问题是以什么速度和在什么地点。以及我如何利用摩尔定律,也就是说,我真的想在2027年超额建设3.5吉瓦,还是想把它分散到2027-28年,因为我知道……我们从英伟达那里学到的最大教训之一就是,他们自身技术迭代的速度加快了。

那是一个很大的因素。我不想被一代技术的四五年的折旧期困住。事实上,黄仁勋(Jensen)给我的建议有两点。一是,以光速执行。这就是为什么这个亚特兰大数据中心的执行速度……从我们拿到手到交付给真实工作负载,大概是90天。这在那个方面是真正的光速执行。我想在这方面做得很好。

然后这样我就可以在扩展中建设每一代技术。然后每五年,你就会有一个更平衡的东西。所以它真的变成了一个像这样的大规模工业操作的流程,你突然之间不会变得不平衡,不会在某个时间点建设了大量的东西,然后因为你被困住了,就进入一个漫长的停顿期,就像你指出的,在一个可能非常适合训练,但可能不适合推理的地点,因为我无法提供服务,即使都是异步的,因为欧洲不允许我往返到德克萨斯。所以这些都是需要考虑的事情。

Dylan Patel 01:01:38

我如何将这个说法与您过去几周所做的事情联系起来?您宣布了与Iris Energy、Nebius和Lambda Labs的交易,而且还有几笔交易即将到来。您正在走出去,从这些“新云”(neoclouds)那里租用容量,而不是自己建造。

Satya Nadella 01:01:58

这对我们来说没问题,因为现在当你对需求有了清晰的了解,而这些需求可以在别人正在建设的地方得到满足,这很棒。事实上,我们会接受租赁,我们会接受定制建造,我们甚至会接受GPU即服务,在我们没有容量但需要容量而别人有容量的地方。

顺便说一句,我甚至欢迎每一个“新云”都成为我们市场的一部分。因为猜猜看?如果他们把他们的容量带到我们的市场,那个通过Azure来的客户会使用那个“新云”,这对他们来说是一个巨大的胜利,同时也会使用Azure的计算、存储、数据库和所有其他东西。所以我完全不认为这是,“嘿,我应该自己把所有这些都吞掉。”

01:02:44 - 自研芯片与OpenAI合作

Dwarkesh Patel 01:02:44

您提到这种贬值资产,在五六年内,占了数据中心总拥有成本(TCO)的75%。而黄仁勋(Jensen)在这上面拿了75%的利润。所以所有超大规模云服务商都在尝试开发自己的加速器,以便他们可以减少这项压倒性的设备成本,从而提高他们的利润率。

Dylan Patel 01:03:09

当你看看他们现在所处的位置,谷歌遥遥领先于其他所有人。他们做这个已经最久了。

他们将生产大约五百万到七百万片自己的TPU芯片。你再看亚马逊,他们试图生产三百万到五百万片(终身出货量)。但当我们看微软订购的自研芯片数量时,它远低于那个数字。你们的项目也已经有同样长的时间了。你们的内部芯片项目到底怎么了?

Satya Nadella 01:03:32

这是个好问题。有几点。第一,任何新加速器的最大竞争对手,甚至可以说是英伟达的上一代产品。在一个集群中,我要看的是整体的总拥有成本(TCO)。我设定的标准,即使对我们自己的产品……顺便说一句,我刚看了Maia 200的数据,看起来很棒,但我们在计算方面学到的一件事是……我们曾经有很多英特尔的芯片,然后我们引入了AMD,然后我们引入了Cobalt(微软自研CPU)。我们就是这样扩展的。我们至少在核心计算领域有很好的成功先例,证明了如何构建自己的芯片,然后管理一个三者并存、保持某种平衡的集群。

因为顺便说一句,即使是谷歌也在买英伟达,亚马逊也是。这很合理,因为英伟达在创新,而且它是通用产品。所有模型都在上面运行,客户需求也在那里。因为如果你构建自己的垂直产品,你最好有自己的模型,它要么用它来训练,要么用它来推理,你必须为它创造自己的需求,或者补贴它的需求。因此,你要确保你适当地扩展它。

我们要做的方式是在我们自己的MAI模型和我们的芯片之间建立一个闭环,因为我觉得这给了你做自己芯片的“天赋人权”,你真的根据你正在做的事情设计了微架构,然后你与自己的模型保持同步。在我们的案例中,好消息是OpenAI有一个项目,我们可以访问。因此,认为微软不会有某种东西——

Dylan Patel 01:05:15

你们对那个项目有多大程度的访问权限?

Satya Nadella 01:05:16

全部。

Dylan Patel 01:05:17

你们直接获得了所有的知识产权?所以你们唯一没有的知识产权是消费级硬件?

Satya Nadella 01:05:20

就是这样。

Dylan Patel 01:05:21

哦,好的。有意思。

Satya Nadella 01:05:26

顺便说一句,我们也给了他们一堆知识产权来帮助他们起步。这是他们……的原因之一。因为我们一起建造了所有这些超级计算机。我们为他们建造了它,他们也理所当然地从中受益。现在当他们创新时,即使是在系统层面,我们也能获得所有这些。我们首先想为他们实例化他们构建的东西,但然后我们会扩展它。

所以,如果说有什么的话,我思考你问题的方式是,微软希望成为一个出色的,我称之为,光速执行的英伟达合作伙伴。因为坦白说,那个集群就是生命本身。显然,黄仁勋的利润率做得非常好,但总拥有成本(TCO)有很多维度,我想在那个TCO上做得很好。在此之上,我希望能够真正与OpenAI谱系和MAI谱系以及系统设计合作,因为我们知道我们两端都有知识产权。

Dwarkesh Patel 01:06:32

说到权利,您几天前接受采访时说,在你们与OpenAI签订的新协议中,你们拥有OpenAI进行的无状态API调用的独家权利。我们有点困惑,如果存在任何状态的话。您刚才提到,所有这些即将到来的复杂工作负载都需要内存、数据库和存储等等。如果ChatGPT在会话中存储东西,那现在这不就不是无状态了吗?

Satya Nadella 01:07:03

这就是原因所在。我们做出的战略决定,也是为了适应OpenAI为采购计算资源所需的灵活性……基本上,可以把OpenAI看作同时拥有PaaS(平台即服务)业务和SaaS(软件即服务)业务。SaaS业务是ChatGPT。他们的PaaS业务是他们的API。那个API是Azure独占的。SaaS业务,他们可以在任何地方运行。

Dylan Patel 01:07:31

他们可以和任何他们想合作的人一起构建SaaS产品吗?

Satya Nadella 01:07:34

如果他们想找个合作伙伴,而那个合作伙伴想使用无状态API,那么Azure就是他们可以获得无状态API的地方。

Dylan Patel 01:07:43

听起来他们好像有办法一起构建产品,而且是一个有状态的东西……

Satya Nadella 01:07:47

不,即使是那样,他们也必须来Azure。再次强调,这是本着“我们作为合作伙伴关系的一部分,我们看重的是什么”的精神来做的。我们确保了,在给予OpenAI所需的所有灵活性的同时,我们也是他们的好伙伴。

Dylan Patel 01:08:05

所以举个例子,Salesforce想要集成OpenAI。它不是通过API。他们实际上一起合作,一起训练一个模型,然后部署在,比如说,现在的亚马逊上。这是允许的,还是他们必须使用你们的……

Satya Nadella 01:08:16

对于任何像那样的定制协议,他们都必须来Azure上运行……我们做了一些少数的例外,比如美国政府等等,但除此之外,他们都必须来Azure。

01:09:35 - 资本支出的爆炸式增长

Dwarkesh Patel 01:09:35

退一步说,当我们来回穿梭于这个工厂时,您谈到的一件事是,微软,你可以把它看作一个软件业务,但现在它真的正在变成一个工业业务。有所有这些资本支出,所有这些建设。如果你只看过去两年,你们的资本支出差不多翻了三倍。也许你把这个趋势向前推演,它实际上就变成了一个巨大的工业爆炸。

Dylan Patel 01:10:01

其他超大规模云服务商正在贷款。Meta在路易斯安那州贷了200亿美元。他们还做了公司贷款。似乎很明显,每个人的自由现金流都将归零,我相信如果你敢这么做,艾米(微软CFO)会狠狠教训你的,但到底发生了什么?

Satya Nadella 01:10:19

我认为你提到的结构性变化是巨大的。我把它描述为我们现在既是一个资本密集型业务,也是一个知识密集型业务。事实上,我们必须用我们的知识来提高资本支出的投资回报率(ROIC)。

硬件厂商在营销摩尔定律方面做得非常出色,我认为这令人难以置信,而且很棒。但如果你看看我在财报电话会议上提到的一些统计数据,对于一个给定的GPT家族,我们在每美元每瓦特的token吞吐量方面的软件改进,无论是季度环比还是同比,都是巨大的。在某些情况下可能是5倍、10倍,甚至40倍,仅仅是因为你如何进行优化。这就是知识密集度带来的资本效率。在某种程度上,这是我们必须掌握的。

有人问我,传统的托管商和超大规模云服务商有什么区别?是软件。是的,它是资本密集型的,但只要你有系统知识、软件能力来按工作负载、按集群进行优化……这就是为什么我们说可替代性时,里面有那么多的软件。这不仅仅是关于集群本身。

这是驱逐一个工作负载然后调度另一个工作负载的能力。我能管理好那个调度算法吗?这就是我们必须做到世界级的那种东西。所以是的,我认为我们仍将是一家软件公司,但是,这是一种不同的业务,我们将去管理它。归根结底,微软拥有的现金流使我们能够让这两只手臂都火力全开。

Dwarkesh Patel 01:12:18

看起来在短期内,您更相信事情需要时间,会更加坎坷。但也许从长远来看,您认为那些谈论AGI和ASI(超级智能)的人是正确的。萨姆(奥特曼)最终会是对的。

我有一个更广泛的问题,关于一个超大规模云服务商做什么才是合理的,考虑到你们必须大规模投资于这种五年内就会贬值的东西。所以,如果你对萨姆那种人预期在三年内发生的事情有2040年的时间表,那么在那个世界里,你做什么才是合理的?

Satya Nadella 01:12:52

需要有一部分资源分配给,我称之为,研究计算。这需要像你做研发一样来做。坦白说,这甚至是最好的会计处理方式。我们应该把它看作就是研发费用,你应该说,“研究计算的规模是多少,你想如何扩展它?”我们甚至可以说它在某个时期内有一个数量级的扩展。选择你的时间,是两年?是16个月?随便什么。这是一部分,这是基本投入,是研发费用。

其余的都由需求驱动。最终,你被允许在需求之前进行建设,但你最好有一个不会完全偏离轨道的需求计划。

Dwarkesh Patel 01:13:39

您相信吗……这些实验室现在预测在2027-28年收入将达到1000亿美元,他们预测收入将继续以每年3倍、2倍的速度增长……

Satya Nadella 01:13:50

在市场上,现在有各种各样的激励,而且理应如此。你期望一个正在试图筹集资金的独立实验室做什么?他们必须公布一些数字,这样他们才能真正筹集到资金,以便支付他们的计算费用等等。

这是一件好事。总会有人去冒一些风险并投入其中,而且他们已经显示出了吸引力。这不像是在没有看到他们表现出色的情况下就承担所有风险,无论是OpenAI,还是Anthropic。所以我对他们所做的一切感觉很棒,而且我们和这些家伙有大量的业务往来。所以这一切都很好。

但总的来说,最终有两件简单的事情。一是你必须为研发分配资源。你提到了人才。AI人才是有溢价的。你必须在那里花钱。你必须在计算上花钱。所以在某种意义上,研究员与GPU的比率必须很高。这就是在这个世界上成为一个领先的研发公司所需要的。这需要扩展,而且你必须有一个资产负债表,让你能够在它成为普遍共识之前很久就扩展它。这是一件事。但另一件则完全是关于如何进行预测。

01:15:07 - 世界会信任美国公司来领导AI吗?

Dylan Patel 01:15:07

纵观全球,美国主导了许多技术栈。美国通过微软拥有Windows,它甚至部署在中国,是主要的操作系统。当然,有开源的Linux,但Windows在中国的个人电脑上无处不在。你再看Word,它也无处不在。你看看所有这些各种各样的技术,它们都部署在世界各地。微软和其他公司也在其他地方发展。他们在欧洲、印度和所有这些其他地方,在东南亚、拉美和非洲建设数据中心。在所有这些不同的地方,你们都在建设容量。

但这似乎非常不同。今天,技术的政治层面,计算的政治层面……美国政府并不关心互联网泡沫。但似乎美国政府,以及世界上所有其他政府,都非常关心AI。问题是,我们有点处于一个两极世界,至少是美国和中国,但欧洲、印度和所有其他国家都在说,“不,我们也要有主权AI。”

微软如何驾驭与90年代的不同——那时世界上只有一个重要的国家,那就是美国,我们的公司向世界各地销售产品,因此微软获得了巨大的利益——到一个两极化的世界?在这个世界里,微软不能理所当然地拥有赢得整个欧洲、印度或新加坡的权利。实际上存在着主权AI的努力。您的思考过程是怎样的,您如何看待这个问题?

Satya Nadella 01:16:36

这是一个极其关键的部分。我认为,美国科技行业和美国政府的关键、关键优先事项是确保我们不仅做出领先的创新工作,而且我们还要共同在世界范围内建立对我们技术栈的信任。因为我总是说,美国是一个令人难以置信的地方。它在历史上是独一无二的。它拥有世界4%的人口,25%的GDP,和50%的市值。我认为你应该思考一下这些比例并反思它。

那50%的市值之所以存在,坦白说,是因为世界对美国的信任,无论是对其资本市场,还是对其技术,以及其在任何特定时期对领先行业的管理。如果这种信任被打破,那对美国来说就不是好日子。我们从这一点出发,我认为特朗普总统、白宫、大卫·萨克斯(David Sacks),每个人,我真的认为,都明白这一点。

因此,我赞赏美国政府和科技行业共同做的任何事情,例如,作为一个行业集体,将我们自己的资本投向世界各地去冒险。我希望美国政府能够为美国公司在世界各地的外国直接投资邀功。这是最少被谈论,但却是美国应该做的最好的营销,那就是,不仅仅是所有外国直接投资都流向美国,而是最领先的行业,也就是这些AI工厂,正在世界各地被创建。被谁创建?被美国和美国公司。

所以你从那里开始,然后你甚至可以围绕它建立其他协议,这些协议关乎它们的连续性,它们合法的、关于数据驻留等主权关切,让他们在隐私等方面拥有真正的自主权和保障。事实上,我们对欧洲的承诺值得一读。我们对欧洲做出了一系列承诺,关于我们将如何管理我们在那里的超大规模投资,以使欧盟和欧洲国家拥有主权。

我们还在法国和德国建设主权云。我们有一个叫做“Azure主权服务”的东西,它实际上为人们提供了密钥管理服务以及机密计算,包括GPU中的机密计算,我们在这方面与英伟达做了很棒的创新工作。所以我对能够通过技术和政策,建立对美国技术栈的这种信任感觉非常好。

Dwarkesh Patel 01:19:42

您如何看待随着模型层面出现持续学习和网络效应,事情会如何发展?也许在超大规模云服务商层面也有类似的东西。您是期望各国会说,“看,很明显一个或几个模型是最好的,所以我们将使用它们,但我们会制定一些法律,规定权重必须托管在我们的国家”?还是您期望会有这样一种推动,即它必须是在我们国家训练的模型?

也许一个类比是,半导体对经济非常重要,人们希望拥有自己的主权半导体,但台积电就是更好。而且半导体对经济如此重要,以至于你就是会去台湾购买半导体。你必须这样做。AI会是这样吗?

Satya Nadella 01:20:26

归根结底,重要的是在他们的经济中使用AI来创造经济价值。这就是扩散理论,最终,重要的不是领先的行业,而是利用领先技术来创造自己比较优势的能力。所以我认为这将从根本上成为核心驱动力。

但话虽如此,他们会希望这种能力具有连续性。所以在某种意义上,我相信,这就是为什么总会有一种制衡力量来对抗“嘿,这个模型能拥有所有失控的部署吗?”这就是为什么开源将永远存在。根据定义,将会有多个模型。这将是一种方式。这是人们要求连续性、避免集中风险的另一种方式,换句话说就是这样。

所以你说,“嘿,我想要多个模型,然后我想要一个开源的。”我觉得只要有这些,每个国家都会觉得,“好吧,我不用担心部署最好的模型并广泛扩散,因为我总能把我自己的数据和流动性转移到另一个模型上,无论是开源的,还是来自另一个国家的,等等。”集中风险和主权——也就是真正的自主权——这两件事将驱动市场结构。

Dylan Patel 01:21:49

关于这一点,半导体领域并不存在这种情况。所有的冰箱、汽车都使用台湾制造的芯片。

Satya Nadella 01:21:56

直到现在才不存在。

Dylan Patel 01:22:00

即便如此,如果台湾被切断,就不会再有汽车或冰箱了。台积电亚利桑那工厂也无法替代任何真正比例的产量。这种主权,如果你愿意这么说的话,有点像个骗局。拥有它是值得的,拥有它很重要,但它不是真正的主权。我们是一个全球经济体。

Satya Nadella 01:22:21

我认为这有点像在说,“嘿,到目前为止,我们对于韧性意味着什么以及需要做什么一无所知。”任何民族国家,包括美国,在这一点上都会采取必要措施,在一些关键供应链上变得更加自给自足。

所以我,作为一家跨国公司,必须把这看作是一个首要要求。如果我不这样做,那么我就是不尊重那个国家长期的政策利益。我不是说他们在短期内不会做出实际的决定。绝对的,全球化不可能就这么倒退回去。所有这些资本投资不可能以……的速度完成。但与此同时,想想看,如果有人出现在华盛顿说,“嘿,我们不打算建任何半导体工厂”,他们会被赶出美国。同样的事情也将在其他每个国家发生。

因此,我们作为公司,必须尊重我们学到的教训,无论是疫情唤醒了我们还是什么。但无论如何,人们都在说,“看,全球化太棒了。它帮助供应链全球化并变得超级高效。但有一种东西叫做韧性,我们想要韧性。”所以这个特性将会被构建出来。

以什么速度,我认为,是你的观点所在。你不能打个响指就说所有台积电的工厂现在都在亚利桑那州,并且拥有他们所有的能力。它们不会是。但是否有一个计划?会有一个计划。我们应该尊重那个计划吗?绝对应该。所以我感觉世界就是这样。我想去适应世界本身以及它未来想做的事情,而不是说,“嘿,我们有一个不尊重你观点的观点。”

Dwarkesh Patel 01:24:24

只是为了确保我理解了,这里的想法是,每个国家都想要某种数据驻留、隐私等。而微软在这里特别有优势,因为你们与这些国家有关系,你们在建立这类主权数据中心方面有专业知识。因此,微软特别适合一个有更多主权要求的世界。

Satya Nadella 01:24:48

我不想把它描述成我们有什么独特的特权。我只想说,我认为这是一个我们几十年来一直在努力做的业务要求,而且我们计划继续这样做。

所以我对Dylan之前问题的回答是,我认真对待——无论是在美国,还是当白宫和美国政府说,“我们希望你把更多的晶圆产能分配给美国的晶圆厂”——我们都认真对待。或者无论是数据中心和欧盟边界,我们都认真对待。所以对我来说,尊重各国关心主权的合法理由,并为此构建软件和物理设施,是我们要做的事情。

Dylan Patel 01:25:40

当我们走向两极世界——美国、中国——竞争不仅仅是你对亚马逊,或你对Anthropic,或你对谷歌。有一大堆的竞争。美国如何重建信任?你们做什么来重建信任?去说,“实际上,不,美国公司将成为你们的主要提供商。”您如何看待与新兴的中国公司的竞争,无论是字节跳动和阿里巴巴,还是Deepseek和Moonshot?

Dwarkesh Patel 01:26:13

补充一下这个问题,一个担忧是,我们正在谈论AI如何变成一场工业资本支出竞赛,你必须在所有供应链上快速建设。当你听到这个,至少到目前为止,你只会想到中国。这是他们的比较优势。特别是如果我们明年不会一步登天到ASI,而是需要几十年的建设和基础设施,你如何应对中国的竞争?他们在那个世界里有优势吗?

Satya Nadella 01:26:43

这是一个很好的问题。事实上,你刚才指出了为什么对美国技术的信任可能是最重要的特性。它甚至可能不是模型的能力。而是,“我能信任你这家公司吗?我能信任你的国家及其机构成为一个长期的供应商吗?”这可能才是赢得世界的关键。

Dwarkesh Patel 01:27:10

这是一个很好的结束语。萨提亚,感谢您接受这次采访。

Satya Nadella 01:27:14

非常感谢。

Dylan Patel 01:27:16

谢谢。

Satya Nadella 01:27:18

太棒了。你们俩真是个很棒的团队。

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

微软 AI 人工智能 云计算 商业模式 Satya Nadella Azure Copilot 模型 基础设施 Microsoft Artificial Intelligence Cloud Computing Business Model AI Strategy
相关文章