最新-新浪科技科学探索 08月14日
华为发布AI推理技术UCM:降低HBM依赖 计划9月正式开源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

华为在2025金融AI推理应用落地与发展论坛上发布了其创新的AI推理技术——UCM(推理记忆数据管理器)。该技术核心在于其先进的KV Cache系统,通过融合多种加速算法和精细分级管理策略,高效处理推理过程中的记忆数据。UCM技术能够有效扩大上下文窗口,提升推理吞吐量和降低延迟,并显著降低每个Token的推理成本。尤为重要的是,UCM有望缓解因HBM资源短缺带来的任务停滞和响应延迟问题,减少行业对HBM的过度依赖,为AI应用提供更流畅的体验。华为计划于2025年9月开源UCM技术,并逐步贡献给主流推理引擎社区,与生态伙伴共享。

🚀 UCM技术核心是先进的KV Cache系统,通过融合多种缓存加速算法和精细分级管理策略,能够高效处理AI推理过程中产生的大量记忆数据,从而实现推理过程的高吞吐量和低延迟。

💡 该技术能够有效扩大AI模型的上下文窗口,这意味着模型可以处理更长的输入信息,提升理解和生成能力,同时显著降低每个Token的推理成本,提高效率。

🔋 UCM技术旨在缓解当前AI领域因HBM(高带宽内存)资源短缺而导致的任务停滞和响应延迟问题,减少行业对HBM的过度依赖,为AI应用提供更流畅、更经济的运行体验。

🌐 华为计划于2025年9月正式开源UCM技术,首发平台为魔擎社区,并将逐步贡献给业界主流的推理引擎社区,向所有采用“共享一切”架构的存储厂商及生态伙伴开放共享,推动AI推理技术的广泛应用和发展。

快科技8月13日消息,据媒体报道,在2025金融AI推理应用落地与发展论坛上,华为重磅发布了其AI推理创新技术——UCM(推理记忆数据管理器)。这项技术被业内视为有望重塑国内AI推理格局的关键突破。

UCM技术的核心在于其先进的KV Cache系统,通过融合多种缓存加速算法工具与精细的分级管理策略,高效处理推理过程中产生的大量记忆数据。这带来了多重显著优势:有效扩大上下文窗口,确保推理过程的高吞吐量与低延迟,并显著降低每个Token的推理成本。

尤为关键的是,UCM技术有望缓解当前因HBM(高带宽内存)资源短缺导致的任务停滞与响应延迟问题,为AI应用提供更流畅的体验,从而减少行业对HBM的过度依赖。

此次论坛不仅是UCM技术的首次亮相,华为还宣布将携手中国银联,共同发布双方在AI推理领域的最新应用成果。论坛还邀请了来自信通院、清华大学、科大讯飞等机构的专家,分享他们在优化大模型推理速度及提升用户体验方面的前沿经验。

华为数据存储产品线副总裁樊杰在演讲中强调了高质量行业数据与高性能存储对AI发展的重要性。他指出,未来的AI飞跃将极大依赖于此,高性能AI存储系统能将数据加载时间从数小时压缩至几分钟,同时使算力集群的效率实现倍增。

华为计划于2025年9月正式开源UCM技术,首发平台为魔擎社区。后续,华为将逐步将该技术贡献给业界主流的推理引擎社区,并向所有采用 “共享一切”(Share Everything) 架构的存储厂商及生态伙伴开放共享。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:鹿角

文章内容举报

]article_adlist-->

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

华为 AI推理 UCM KV Cache HBM
相关文章