36氪 - AI相关文章 08月12日
技术摸高+工程落地:新华三双轨突围,重构AI算力开放生态
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

中国大模型产业正经历从“技术奇景”到“产业刚需”的转变,但算力供给与实际应用之间仍存在显著差距。新华三集团在2025世界人工智能大会上提出“聚合·智跃迁”战略,通过发布H3C UniPoD S80000超节点和LinSeer Cube大模型一体机,旨在解决算力密度、效率以及工程落地难题。超节点通过高密度GPU集成和液冷技术提升训练效率,而一体机则将部署周期从数月缩短至数小时,并以20万元以内的价格面向中小企业,致力于打通AI落地的“最后一公里”,并强调开放生态,将选择权和风险控制交给客户,以推动国产算力的可持续发展。

💡 **算力供给与应用脱节成行业痛点:** 尽管中国大模型备案数量众多,但能稳定服务于真实生产环境的模型不足15%,核心问题在于如何高效、低成本地运行模型。训练侧算力利用率待提升,推理侧则因部署复杂性,企业倾向公有云,埋下数据合规隐患。

🚀 **新华三“双轮驱动”破局算力难题:** 新华三提出“技术摸高”与“工程落地”并行的策略。通过H3C UniPoD S80000超节点,实现单机柜64张GPU的高密度部署和高效互联,提升训练效率。而LinSeer Cube大模型一体机则将部署周期大幅缩短,并以亲民价格,面向中小企业提供“开箱即用”的AI解决方案。

💰 **AI普惠化与成本效益是关键:** 大模型一体机的入门款定价控制在20万元以内,旨在打破大企业对AI部署的垄断,使中小企业也能负担得起。通过预集成硬件、框架、模型和应用,以及简化的操作界面,大幅降低了企业引入和使用大模型的门槛与试错成本。

🤝 **开放生态与客户选择权:** 新华三强调不构建封闭生态,而是通过标准化接口和联合设计,支持超过80款GPU,并与多家芯片厂商合作,将算力选择权交还给客户,使其能根据技术迭代灵活升级。同时,LinSeer ICT智能体将向全行业开放API,赋能ISV开发行业专属运维插件。

📈 **推动国产算力螺旋式上升:** 新华三认为,国产算力需要从“堆出来”转向“好用”。通过开放生态,填平算力鸿沟,让算力像水电煤一样触手可及,从而将大模型从“技术炫技”真正转化为“生产力工具”,并持续收窄“技术摸高”与“工程落地”之间的差距。

过去十二个月,大模型在中国完成了从“技术奇景”到“产业刚需”的惊险一跃。

据网信办2025年1月通报,截至2024年底全国共有超300款生成式大模型完成备案;然而,中国信通院《2024大模型落地应用案例集》指出,能稳定运行于真实生产环境,且对外提供持续服务的模型不足15%,多数仍停留在内部测试或PoC阶段。

核心矛盾不再是“有没有模型”,而是“能不能把模型稳定、高效、低成本地跑起来”。训练侧,千卡集群的有效算力利用率仍待提升;推理侧,大量企业因部署周期长、运维复杂而被迫转向公有云,短期成本虽低,长期却埋下数据合规与业务连续性的隐患。

在这一背景下,2025世界人工智能大会(WAIC)把“智能时代,同球共济”定为主题,意在呼吁产业链共同解决算力普惠与工程落地难题。

新华三集团以“聚合·智跃迁”为主题参展,并集中发布超节点等重磅产品。面对行业算力供需失衡的困局,新华三集团高级副总裁、云与计算存储产品线总裁徐润安向36氪阐释了破题逻辑:“AI产业需要技术摸高与工程落地双轨并行”。在其勾勒的蓝图中,超节点代表算力密度的极限突破,而大模型一体机则化身AI普惠落地的工程载体——两者通过开放生态形成闭环,为不同规模企业提供可裁剪的算力解决方案。

技术摸高:把64张GPU装进一个柜子,算力效率如何再上层楼

在WAIC现场首次亮相的H3C UniPoD S80000超节点,是新华三对打破“单机算力天花板”的最新回答。单机柜最多可容纳64张GPU,同时,通过以太互联协议的Scale-up南向互联架构实现GPU高速互联。这一密度并非简单堆叠,而是围绕通信效率、能耗、交付三个维度重新设计整机架构。

通信效率方面,新华三采用自研的液冷级高速背板,单机柜即可高密度部署64张GPU,并实现卡间高速互联。实测显示,在256卡集群上运行相同大模型时,推理效率可提升约15%–20%,且“无需额外调优即可获得性能增益”。整机液冷将PUE控制在1.1以下,官方测算在现行工业电价下可带来显著的能耗节省。

“技术摸高解决‘能不能算’,工程落地解决‘敢不敢用’。”徐润安强调,新华三正以“算力×联接”的乘数效应重构产业范式,这为千卡级以上的集群规模带来训练效率的跃升。他透露,目前某智算中心已完成4机柜256卡的小规模验证,下一阶段将扩容至千卡级别,主要支撑自动驾驶大模型等场景的迭代训练;客户最关心的两个指标——有效算力利用率和单位算力成本——在实测中均优于传统方案。目前,新华三已与多家国产GPU厂商建立联合实验室,持续推进算力生态繁荣,打造可用、好用的国产算力。

工程落地:大模型一体机把AI部署周期从“月”压缩到“小时”

当训练算力向高密度集中,推理算力却需要“广而散”。大量高校、制造、医疗客户不具备自建智算中心的条件,又希望把大模型能力快速嵌入业务。针对这一痛点,新华三推出LinSeer Cube大模型一体机,预集成硬件、框架、模型、应用四层能力,实现“开箱即用”。徐润安向36氪透露部署困境,“即使是知名高校中能独立部署大模型的人也在极少数,而企业招揽相关人才的成本超百万。”而一体机将彻底改变这一局面——硬件覆盖三档规格,满足从7B到671B的多种使用场景;模型侧预装DeepSeek、Qwen等主流模型,通过LinSeer Hub平台按周更新模型库。用户借助可视化界面,30分钟内即可完成模型切换与API发布,平台内嵌20+可编排组件更支撑分钟级应用构建,大幅降低企业试错成本。

定价策略同样经过精打细算。入门款控制在20万元以内,相当于一辆商务车的采购预算。该定价精准锚定中小企业年度IT预算阈值,使AI部署不再是大企业专属。新华三集团云与计算存储产品线副总裁、产品支持与解决方案部总经理武家春用“打通最后一公里”形容一体机的定位——客户不再需要拼凑服务器、网络、存储、软件,也不再需要招聘稀缺的AI架构师,只需关注业务逻辑。目前该产品已纳入全国渠道销售体系,率先面向教育、医疗、制造行业推广。

值得注意的是,一体机并非“低配版”超节点,而是把工程经验产品化的结果:同样的AI加速卡、同样的管理平台,只是规模缩小到单机或半柜,从而把算力从数据中心延伸到楼宇机房、实验室甚至车间。徐润安强调,“普惠不仅仅是低价,更是要把使用门槛降到小时级”。

开放与生态:把选择权还给客户,也要把风险降到最低

面对GPU品牌多元、技术路线快速迭代的现实,新华三在WAIC上明确表态:不做封闭生态,而是通过标准化接口和联合设计把“选择权”交回客户。截至目前,新华三已适配超过80款GPU,并与10余家芯片厂商联合设计OAM模组;在硬件协同层面,新华三提前12个月介入多家芯片厂商的规格定义,确保整机架构与芯片设计同步。

硬件接口标准化是开放的前提。新华三集团云与计算存储产品线智慧计算产品市场部总监汤涛对36氪透露,已完成基于PCIe的互联协议扩展,确保不同品牌GPU可以在同一机柜内替换;下一代产品将支持以太互联,届时客户可根据GPU迭代节奏灵活升级,无需更换整机。

生态的另一端是运维。LinSeer ICT智能体把新华三20余年运维经验产品化,网络故障实现“秒级诊断、分钟级修复”,光模块劣化场景实测预测准确率超过90%。

算力供需错配仍是2025年中国AI产业的最大变量。新华三给出的答案是“双轮驱动”:依托自身“算力×联接”能力提高训练效率、降低推理门槛;用开放架构和生态策略让客户在不同技术路线之间自由切换。

同时,LinSeer ICT智能体将向全行业开放API,允许ISV在平台上开发行业专属运维插件。徐润安对36氪强调,“国产算力处于螺旋上升期——堆出来的算力很多,好用的算力不够。唯有开放生态才能填平这道鸿沟。”

当算力真正像水电煤一样触手可及,大模型才有可能从“技术炫技”变成“生产力工具”。新华三接下来要做的,是把“技术摸高”与“工程落地”之间的缝隙继续收窄——既让千卡、万卡集群跑得更稳,也让20万预算的客户敢买、敢用、敢迭代。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大模型 算力 新华三 AI落地 算力普惠
相关文章