虎嗅 10小时前
谷歌启动数据中心登月计划,探索太空算力
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

谷歌正式启动Project Suncatcher,一项旨在太空中建立太阳能驱动、可扩展AI基础设施的登月计划。此举旨在应对地球资源日益枯竭和数据中心能源瓶颈的挑战。OpenAI和微软CEO曾指出,AI的未来更依赖能源突破,现有数据中心和电力难以支撑大量AI芯片。数据显示,到2030年全球数据中心耗电量将与日本全国相当,用水量也十分惊人。谷歌计划发射搭载自研TPU芯片的太阳能卫星星座,构建“轨道AI数据中心”,以期获得更高的能源效率、不间断供电和零资源消耗的优势。尽管面临太空环境、数据传输等技术难题和高昂的发射成本,谷歌仍看好SpaceX等公司降低发射成本的潜力,认为太空有望成为更具成本效益的数据中心选址。

🚀 **谷歌“太阳捕手计划”**:谷歌正式启动数据中心登月计划,名为Project Suncatcher,旨在太空中建立由太阳能驱动的可扩展AI基础设施,以解决地球资源和能源瓶颈问题。

💡 **太空数据中心的优势**:相较于地球,太空环境拥有8倍的太阳能效率,可实现7*24小时不间断供电,并且无需消耗地球的土地和水资源进行冷却,有望突破地面数据中心的能源限制。

🛰️ **技术挑战与应对方案**:谷歌面临太空“局域网”(卫星间高速互联)、宇宙辐射对芯片的威胁以及数据高速回传地球的难题。针对前两者,谷歌提出编队飞行+激光通信以及使用抗辐射的TPU v6e芯片的方案。数据回传仍是待解决的重大挑战。

💰 **发射成本是关键**:高昂的太空发射成本是制约太空数据中心发展的根本障碍。谷歌的经济模型依赖于SpaceX等公司大幅降低发射成本,当单位发射成本降至一定水平时,太空数据中心的单位功率成本有望与地面持平甚至更低。

🌌 **太空算力新格局**:随着英伟达H100 GPU首次被送入太空,以及Starcloud等初创公司致力于在轨实时数据处理,太空算力时代正在来临。SpaceX有望成为太空算力基础设施的关键供应商,如同英伟达在地球算力领域的地位。

刚刚,Google正式启动数据中心登月计划,打算把自己的算力都放到太空。他们还给这个计划起了个很酷的名字,叫做Project Suncatcher,太阳捕手计划。

Google的想法很简单,与其在地球上争抢日渐枯竭的资源,不如去太空中直连太阳能。这个全新的登月计划,目标也只有一个,在太空中建立一个由太阳能驱动的、可扩展的AI基础设施。

前些天,OpenAI的CEO奥特曼和微软CEO Satya Nadella纳德拉,在播客节目上表示,我今天的问题不是芯片供应问题;事实是,我没有足够的暖壳来插入它们。

听着相当凡尔赛,毕竟在这场AI浪潮之前,我们一直以为算力就是一切。

但就像奥特曼在节目里面说,AI的未来,更多地需要能源上的突破,订购的AI芯片太多,配套的数据中心和电力跟不上也是白搭。

AI耗电有多离谱,根据国际能源署的数据,到2030年,全球数据基础设施的耗电量,预计将与整个日本的国家耗电量相当。

不只是电,还有水。世界经济论坛的数据显示,一个1兆瓦的数据中心,每天消耗的水量,与大约1000名发达国家居民的用水量相同。

而就在最近五年,数据中心的需求开始狂飙,但增长速度已经远远超过了,规划新发电能力的速度。

Google为了解决同样的能源问题,他们的计划,是发射一个由太阳能驱动、搭载Google自研TPU芯片的卫星星座,在太空中组建一个“轨道AI数据中心”  。

太空一定比地球更便宜、更高效吗?

为什么是太空?Google的理由简单粗暴。

8倍效率:如果搭载芯片的卫星,在正确的轨道上,太阳能板的效率是地球的8倍。

7*24不间断供电:太空没有黑夜和云层,对比地球上的太阳能板,可以持续产生电力。

零资源消耗:在太空,数据中心不需要消耗地球有限的土地,也无需消耗大量水资源做冷却工作。

目前地球上的数据中心,越来越接近能源瓶颈,建在冰岛、挪威,是为了冷;建在内华达沙漠,是为了电。像在国内,多数大厂的数据中心都放在贵州、宁夏中卫等,靠环境来降温。

但是太空的环境,远比地球复杂。Google在自己的研究论文里面,详细提到目前遇到的难点,以及用于应对的方法。

让AI“登天”,Google要解决三大难题

难题一:太空“局域网”?

AI训练需要海量芯片协同作战,彼此间的连接带宽和延迟要求极高。在地球上我们可以用光纤实现数据的高速传输,在太空怎么办?

Google的方案:编队飞行+激光通信。

他们计划让卫星“飞得非常近”,彼此相距仅公里级或更近。

在他们一个81颗卫星的模拟星座中,每颗卫星都配有太阳能阵列、辐射冷却系统,以及高带宽光学通信模块;且卫星间的距离仅在100米~200米之间动态变化

在如此近的距离上,它们可以通过自由空间光通信,实现高速互联。Google在论文中透露,他们的演示已经成功实现了1.6 Tbps的双向传输速率。

难题二:宇宙辐射

太空环境极其恶劣,太阳在提供能源的同时,也喷射出致命的高能粒子,这对尖端芯片直接是毁灭性打击。

Google的方案:硬扛。

他们把自家的Cloud TPU v6e芯片送进了实验室,用67 MeV的质子束轰击它。

结果是“惊人地抗辐射”,TPU最敏感的高带宽内存,在承受了2 krad的剂量后才开始出现异常,这几乎是5年任务预期辐射剂量的近3倍。

这意味着Google的TPU可在低地轨道连续运行5年,无永久损伤。

Google计划在2027年前与Planet公司合作,发射两颗原型卫星,测试实际运行环境。

 难题三:数据回传

在太空上,各个GPU之间的数据传输是做到了快速高效,但是就算在太空算完了,数据怎么高速传回地球?

这是一个Google在论文中承认、尚待解决的重大挑战。

延迟问题:Google选择的“晨昏同步轨道”,虽然太阳能拉满,但论文承认这将会增加到某些地面位置的延迟。

带宽瓶颈:目前的“地-空”光通信的最高纪录,还是NASA在2023年创下的 200 Gbps

200 Gbps听起来很快,但对于一个太空AI数据中心来说,这根水管远远不够用。

然而,在所有这些高难度的技术挑战之上,还压着一个最根本、最致命的障碍,它决定了前面的一切是否值得去解决,上天成本。

这曾是最大的障碍,把一公斤重的东西送上天,曾经比同等重量的黄金还贵。

一系列低地轨道卫星的发射费用对比

Google在论文中计算过一笔账,如果SpaceX的发射成本能降到$200/kg,则太空数据中心的单位功率成本,能与地面数据中心持平,约$810/kW/年,与美国本土数据中心的$570~3000/kW/年区间完全重叠。

换句话说,当火箭便宜到一定程度,太空就会比地球更适合建数据中心。

然而,现实是目前的发射价格,是这个理想价格的十倍以上。

谁能让这件事发生?SpaceX

Google在他们的论文里,明确采用了SpaceX的学习曲线假设:每当总发射质量翻倍,单位发射成本下降20%

自首次成功发射猎鹰Falcon 1号以来,按最低实现价格计算的SpaceX有效载荷质量,针对不同类别火箭逐步变化

从Falcon 1到Falcon Heavy,SpaceX已把发射成本从$30000/kg降到$1800/kg;而Starship的目标,是10×可重复使用率下的$60/kg,极限情况下可降到$15/kg。

这意味着,SpaceX很有可能成为支撑Google太空数据中心经济模型的公司。

如果说英伟达垄断了地球上的GPU,那么SpaceX,将来就可能垄断太空中的算力空间。

在地球上,英伟达卖GPU;在太空里,SpaceX卖轨道。

就在Google发布论文的几天前,11月2日,英伟达强大的H100 GPU已经“首次”被送入太空

这颗H100被搭载在一家名为Starcloud的初创公司的卫星上,其在轨算力比以往任何太空计算机强100倍。

Starcloud创办于2024年,诞生之初就是致力于在太空建立数据中心,获得了英伟达、YC等投资。

它们的任务更直接,在轨实时处理数据。Starcloud的CEO举例:一颗SAR卫星的原始数据极其庞大,与其下载数百GB的原始数据,不如在轨用H100分析,只传回1KB大小的结果,比如“一艘船在某位置,速度多少”。

而当被问到这一切如何实现时,Starcloud的CEO同样指向了马斯克:他们的愿景,完全依赖于“SpaceX Starship带来的成本降低”

 搭载了英伟达H100 GPU的Starcloud-1卫星,正是通过马斯克的SpaceX,Bandwagon 4 Falcon 9航班发射升空的。

过去五年,英伟达一次次刷新最高市值纪录,关键在于它提供了最强的算力单元;它掌控了CUDA生态,形成软件锁定;它成为所有AI公司的算力上游。

而在太空算力时代,这三点都可能都将被重新分配,那个时候,算力空间才是下一个红利。

AI的极限,也许才刚刚开始。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Google 数据中心 太空 太阳能 AI算力 SpaceX 能源
相关文章