机器之心 前天 15:28
大语言模型解码新架构 AutoDeco:迈向真正端到端生成
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

腾讯AI Lab与香港中文大学(深圳)联合推出AutoDeco新架构,旨在解决大语言模型(LLM)手动调整解码超参数(如temperature和top-p)的难题。AutoDeco通过在标准Transformer架构中引入轻量级预测头,使模型能够动态预测并控制自身的解码参数,实现端到端语言生成。其核心突破在于提出一种创新的可微分“软性top-p”机制,无需额外标注数据,即可通过优化最终生成结果来训练模型学会动态调整解码策略。实验表明,AutoDeco在性能、效率和易用性上均表现出色,甚至涌现出通过自然语言控制解码的开创性能力,为LLM的研究和应用开辟了新方向。

💡 AutoDeco架构革新了解码流程,通过引入轻量级预测头,使大语言模型在生成每个token时能根据上下文动态预测并控制temperature和top-p值,从而实现真正的端到端语言生成,摆脱了手动调参的繁琐。

🚀 AutoDeco的核心技术突破在于其创新的可微分“软性top-p”机制,该机制巧妙地替代了传统top-p采样中不可微的“硬截断”操作,使得模型能够通过优化最终的“下一个词预测”损失来训练解码参数预测头,无需任何额外的标注数据。

📈 实验结果显示,AutoDeco在Llama、Qwen、Deepseek等主流模型上表现卓越,不仅稳定超越了传统基线方法,性能甚至可媲美甚至超越了经过精细调优的“神谕”基线,同时其额外的推理延迟极低,易于集成。

🗣️ AutoDeco展现出令人兴奋的“自然语言控制解码”能力,用户可以通过自然语言指令(如“答案更有创意”)来影响模型的解码策略,实现对生成结果的初步引导,尽管精细控制仍是未来研究方向。


大语言模型(LLM)的「炼丹师」们,或许都曾面临一个共同的困扰:为不同任务、不同模型手动调整解码超参数(如 temperature 和 top-p)。这个过程不仅耗时耗力,而且一旦模型或任务发生变化,历史经验便瞬间失效,一切又得从头再来。


这种繁琐的试错过程,在许多研发团队的日常沟通中屡见不鲜,正如下图所展示的那样:


图 1:研发人员手动调整解码参数的日常。


一个灵魂拷问随之而来:为何不能让模型自己学会如何解码,从而实现真正的「端到端」?


事实上,各大模型厂商的 API 文档也印证了这一难题。以 DeepSeek 为例,其官方文档明确建议针对不同场景设置截然不同的 temperature 值,这使得单一的静态参数设置显得捉襟见肘。


图 2:不同任务需要不同的解码参数,这使得静态设置难以应对复杂多变的现实需求。


近日,由腾讯 AI Lab 的王琰研究员及其团队领衔,联合香港中文大学(深圳)唐晓莹教授及其博士生王志超给出了一个优雅的答案。他们推出了名为 AutoDeco 的全新架构,旨在彻底终结手动解码的「手工作坊」时代。这项研究《The End of Manual Decoding: Towards Truly End-to-End Language Models》,通过让模型动态预测并控制自身的解码参数,向着真正端到端的语言生成迈出了关键一步。



论文链接: https://huggingface.co/papers/2510.26697

代码链接: https://github.com/Zacks917/AutoDeco

模型链接: https://huggingface.co/collections/Jadeislaw/autodeco


图 3AutoDeco 位居 Hugging Face Daily Papers 榜首


当前,尽管 LLM 本身已高度集成,但其生成过程的「最后一公里」—— 解码,仍然是一个独立于模型之外的、不可微的僵硬环节。研究团队形象地将其比作「手动挡变速箱」:无论引擎(LLM)多么强大,换挡(调参)依然依赖人工操作。


AutoDeco 的核心思想,就是为 LLM 装上「自动挡」。它通过在标准 Transformer 架构中引入两个超轻量的预测头,让模型在生成每一个 token 时,都能根据当前的上下文信息,动态地预测出最适合下一步生成的 temperature 和 top-p 值。其架构如下图所示:


图 4:AutoDeco(上)与传统手动解码(下)的对比。AutoDeco 将解码参数的预测无缝集成到模型的前向传播中,实现了动态自调节。


核心挑战与技术突破:如何训练一个没有「标准答案」的任务?


设想很美好,然而,一个关键的挑战摆在研究团队面前:如何训练这些预测头?在训练数据中,并不存在每一时刻「正确」的温度和 top-p 标签,这使得监督学习无从谈起。


为此,团队提出了一种创新的、完全端到端的训练策略。他们设计了一种新颖的可微分「软性 top-p」(soft top-p)机制,巧妙地替代了传统 top-p 采样中不可微的「硬截断」操作。该方法分为三步:


(一)温度缩放:首先,使用模型预测的温度对原始 logits l 进行缩放,得到初始概率分布 p。



(二)掩码生成:接着,计算概率的累积分布 c,并使用模型预测的 top-p 值

生成一个平滑的、可微分的掩码 m。其核心思想是,对于累积概率小于的 token,掩码值为 1;对于超出部分的 token,掩码值通过一个指数衰减函数平滑地趋近于 0。



其中 α 是控制衰减陡峭程度的超参数。


(三) 最终概率分布:最后,将掩码应用到初始概率上并重新归一化,得到最终的可微分概率分布 p。



图 5:可微分的 soft top-p(橙色线)与传统的 hard top-p (绿色线)对比。Soft top-p 的平滑特性打通了从最终损失到解码参数预测头的梯度路径。


这一设计的巧妙之处在于,它使得从最终的「下一个词预测」损失到解码参数预测头的梯度能够顺畅回传。如此一来,模型便可以在标准的 Next Token Prediction 任务中,通过优化最终生成结果来「倒逼」自己学会如何动态调整解码策略,整个过程无需任何额外的标注数据。


AutoDeco 的惊人表现:三大亮点


通过在 Llama、Qwen、Deepseek 等多个主流模型家族上的广泛实验,AutoDeco 展现了其强大的能力:


卓越的性能与泛化能力

实验结果表明,AutoDeco 不仅稳定超越了传统的 Greedy Search 和 Default Sampling 等基线方法,其性能甚至能媲美、乃至超越了利用测试集进行精细调优的「神谕」基线(oracle-tuned baseline)。


图 6:AutoDeco 在多个数学和通用任务 benchmark 上均取得了 SOTA 性能,展现了其强大的泛化能力。


极致的效率与易用性

AutoDeco 的预测头设计极为轻量,其带来的额外推理延迟通常仅为 1.7%,内存开销也几乎可以忽略不计。对于开发者而言,接入 AutoDeco 模型仅需修改几行代码,即可享受「免费」的性能提升。


「言出法随」:开创性的自然语言控制能力

研究中最令人兴奋的发现之一,是 AutoDeco 涌现出的一种「通过自然语言控制解码」的能力。用户可以直接在 prompt 中通过自然语言下达指令,如「我希望答案更有创意」,模型便能「听懂」并自主地调高其预测的 temperature 和 top-p 值,整个过程清晰可见。


图 7:在不同指令下,AutoDeco 预测的 T/P 值变化。从左至右分别为:基线、高创造力指令(T/P 值自发升高)、高确定性指令(T/P 值自发降低)。


当然,作者坦言这种能力还不够完善,还做不到非常精准的控制。他们猜测实现细粒度、高精度的自然语言控制解码无法仅仅能通过微调 AutoDeco 模块做到,而是需要全参微调模型,这也被他们列为了 Future work 的重点。因此,作者没有放出带有自然语言控制能力的 AutoDeco heads 权重。


AutoDeco 在发布后迅速吸引全球 AI 社区的关注,在 Twitter 等社交平台上引发了顶尖学者、开发者和企业家的广泛热议和高度评价。


图 8:大模型社区对 AutoDeco 的广泛热议和高度评价。


目前,该团队已将论文、代码以及在多个主流模型上训练好的 AutoDeco heads 全面开源,包含适配于 Deepseek V3.1、Qwen3-235B、GPT-OSS-120B 等生产级大模型的版本。正如研究人员在分享中所说,这项工作旨在将研究者和开发者从繁琐的调参工作中解放出来,共同迈向一个更智能、更自动化的 AGI 新时代。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com


文章原文

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AutoDeco 大语言模型 LLM 解码 端到端生成 AI 自然语言处理 腾讯AI Lab 香港中文大学(深圳)
相关文章