OpenAI今日宣布与亚马逊AWS达成一项重要的AI云基础设施合作协议。此前,OpenAI主要依赖微软Azure提供AI及云端服务。此次新协议允许OpenAI在AWS上运行并扩展其核心AI工作负载,为期七年,预计支付约380亿美元。AWS将为OpenAI提供数千块NVIDIA GB200及GB300 GPU,用于ChatGPT的推理及下一代模型的训练。此举标志着OpenAI在算力需求上的多元化布局,也进一步巩固了AWS在AI基础设施领域的领先地位。
🤝 OpenAI与AWS达成重大AI云基础设施合作:此次合作打破了OpenAI此前与微软Azure的专属合作模式,允许其在AWS上运行和扩展核心AI工作负载。这项为期七年的协议,凸显了OpenAI对海量算力的持续需求,以及其在选择云服务提供商上的战略调整。
💻 AWS提供强大算力支持:根据协议,AWS将向OpenAI租赁数千块NVIDIA GB200及GB300 GPU,并通过Amazon EC2 UltraServers提供服务。这些先进的计算资源不仅将支持ChatGPT的推理需求,还将用于训练OpenAI下一代更强大的AI模型,预计到2027年将实现算力的进一步扩容。
💰 巨额投资与长期承诺:OpenAI将在未来七年内向AWS支付约380亿美元,这表明了其对AI研发和模型迭代的长期坚定投入。同时,AWS方面预计OpenAI将在2026年底前用尽所有规划的算力,显示了双方对此次合作前景的乐观预期。
🚀 AI模型服务拓展:此次合作也意味着AWS能够通过Amazon Bedrock为客户提供OpenAI的模型服务。OpenAI的gpt-oss系列模型已成为Amazon Bedrock上的热门公有模型之一,吸引了Comscore、Peloton、Thomson Reuters等众多知名客户的采用,进一步拓展了AI技术的商业应用场景。
OpenAI今日宣布与亚马逊AWS达成一项重磅AI云基础设施合作协议。此前,OpenAI与微软Azure有专属合作,为其提供AI及云端基础设施服务。由于OpenAI对于算力的需求巨大,微软此前放宽了合作条款,允许OpenAI主要用于研究和模型训练的基础设施自行搭建,但微软仍保留优先拒绝权(ROFR)。
上月,微软在与OpenAI扩大合作后宣布关键变化,允许OpenAI将非API产品(如ChatGPT和Sora)托管在任何云提供商上。

在最新条款下,OpenAI今日宣布与AWS达成多年合作,将自即日起在AWS上运行并扩展其核心AI工作负载。根据协议,OpenAI将在未来七年内向AWS支付约380亿美元。AWS实际上将通过Amazon EC2 UltraServers向OpenAI租赁数千块NVIDIA GB200及GB300 GPU。

AWS方面表示,预计OpenAI将在2026年底前用尽所有规划算力,2027年有望进一步扩容。AWS还强调,这些基础设施不仅可用于ChatGPT的推理,也可用于训练下一代模型。

AWS首席执行官Matt Garman表示:“随着OpenAI不断突破AI可能性的边界,AWS业界领先的基础设施将成为其AI雄心的支柱。广泛且即时可用的算力优化,彰显AWS在支持OpenAI大规模AI工作负载方面的独特优势。”
此前,OpenAI的AI模型仅可在微软Azure平台提供。近期,OpenAI发布了首个可公开调用的权重模型,使AWS能通过Amazon Bedrock为客户提供服务。亚马逊今日指出,OpenAI的gpt-oss系列模型,已成为Amazon Bedrock最受欢迎的公有模型之一,包括Comscore、Peloton、Thomson Reuters等众多客户正在使用。