掘金 人工智能 09月12日
大语言模型输出不确定性难题已解决
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

前OpenAI首席技术官Mira Murati创办的Thinking Machines Lab发布研究报告,成功解决了大语言模型输出的不确定性问题。过去,即使温度参数设为0,大型语言模型(LLM)在相同输入下仍会产生不同输出。该研究揭示了浮点数加法的非结合性和GPU并行计算策略变化是导致不确定性的核心原因。通过提出batch-invariant解决方案,并优化关键计算模块,实验模型在1000次重复测试中实现了100%的输出一致性。这项突破为AI在金融、医疗、法律等对准确性和一致性要求极高的关键场景应用铺平了道路,标志着AI技术向生产工具转型的重要一步。

💡 **LLM输出不确定性被克服:** Thinking Machines Lab的研究成功解决了困扰AI领域已久的大语言模型输出不确定性问题。此前,即使在固定参数下,模型对相同输入也可能产生不同结果,这极大地限制了其在需要高可靠性场景的应用。新研究通过深入分析,发现了导致这一现象的根本原因。

🔬 **核心技术原因揭示:** 研究团队指出,导致LLM推理引擎不确定性的两个核心技术原因是:1. 浮点数加法的非结合性问题在GPU并行计算中会累积细微计算差异;2. 并行计算策略会因批量大小、序列长度和KV缓存状态等因素变化,导致计算执行顺序改变。这改变了以往的“并发+浮点数”假设,提供了更精确的解释。

🚀 **batch-invariant解决方案实现100%一致性:** 针对发现的问题,研究团队提出了名为“batch-invariant”的解决方案。该方案确保关键计算核在处理不同批量大小或序列分割时,能够保持相同的计算顺序和结果。通过对RMSNorm、矩阵乘法和注意力机制等模块进行优化,实验模型在Qwen3-235B-A22B-Instruct-2507模型上实现了100%的输出一致性,这是LLM发展史上的首次。

📈 **赋能关键行业应用:** 这一技术突破对于金融风控、医疗诊断、法律文书审核等对准确性和一致性要求极高的行业具有重大意义。确定性的AI输出能够显著提高决策的可靠性,减少误诊和错误风险,提升AI系统的实用性和可信度,加速AI从实验工具向生产工具的转型。

🌟 **AI技术成熟度的重要标志:** 解决LLM输出不确定性问题,标志着AI技术在可预测性和可靠性方面迈上了新台阶,是整个AI行业技术成熟度提升的一个重要体现。这为未来更复杂、更关键的AI应用奠定了坚实的技术基础。

在AI领域,有一个存在已久的问题,那便是模型输出的不确定性。例如,当我们多次向 ChatGPT 询问相同的问题时,会产生不同的结果。这导致从大型语言模型中获得可重复的结果非常困难。

即使在温度参数设为 0 的情况下,传统大语言模型仍会对相同输入产生不同输出。

但今天,这一难题被攻克了。

近日,前 OpenAI 首席技术官 Mira Murati 创办的 Thinking Machines Lab 发布最新万字研究报告,成功解决了大语言模型输出不确定性问题。这项突破意味着 AI 生成将首次实现 100% 一致性输出,为 AI 技术在企业关键场景的应用铺平道路。

Thinking Machines Lab 成立仅 7 个月,专注于 AI 基础技术研究。该实验室此前已获得 20 亿美元种子轮融资,并计划在未来几个月推出首款产品。

回到这项研究。对于 LLM 推理引擎的不确定性,过去常见的假设是,浮点非结合性和并发执行的某种组合导致了非确定性。研究团队称之为「并发+浮点数」假设。

然而,团队深度研究后发现这种假设并没有完全揭示全貌,并发现了导致 LLM 推理引擎不确定性的两个核心技术原因。

首先,浮点数加法的非结合性问题在GPU并行计算环境中会导致细微计算差异,例如,(a+b)+ c 与 a + (b+c) 的计算结果可能存在细微差异,这些差异在复杂的神经网络中会被逐层放大。

更关键的是,并行计算策略的变化会因不同批量大小、序列长度和KV缓存状态影响GPU内核选择策略,从而改变计算执行顺序。这也是输出不确定性的根本原因。

针对这一挑战,研究团队提出了 batch-invariant 解决方案。该方案要求所有关键计算核在处理不同批量大小或序列分割时,都能保持相同的计算顺序和结果。团队还针对 RMSNorm、矩阵乘法和注意力机制等具体计算模块提供了详细优化方法。

为验证方案有效性,研究团队选用拥有 2350 亿参数的 Qwen3-235B-A22B-Instruct-2507 模型进行实验。经过 1000 次重复测试,该模型在相同输入条件下实现了 100% 的输出一致性,这在大语言模型发展史上尚属首次。

这项技术突破的重要意义在于,在一些对准确性和一致性要求极高的应用场景,例如金融风控、医疗诊断、法律文书审核等,确定性的结果能提高决策可靠性、减少误诊风险以及准确性。AI 系统的可靠性和实用性也会获得显著提升。
该研究不仅解决了模型输出的可预测性问题,也为 AI 系统从实验工具向生产工具的转型提供了技术基础。

对整个 AI 行业来说,这代表着技术成熟度的重要提升。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

大语言模型 LLM 输出不确定性 Thinking Machines Lab Mira Murati batch-invariant AI一致性 GPU并行计算 AI技术突破 AI应用 Large Language Models Output Inconsistency AI Consistency GPU Parallel Computing AI Breakthrough AI Applications
相关文章