index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
Meta推出一项名为“自由Transformer”(Free Transformer)的新AI架构,打破了Transformer模型自2017年以来的核心生成方式。该模型在生成文本前引入潜在随机变量Z,使其能进行“预先思考”和内部规划,相当于增加了一层“潜意识”。这一创新在显著提升模型推理和结构化生成能力的同时,计算开销仅增加约3%,并在多项基准测试中超越了更大规模的模型,预示着AI模型可能正迈向“有内在意图”的生成时代。
💡 **架构创新:引入“潜意识层”**
Meta的“自由Transformer”在模型解码器中引入了潜在随机变量Z,充当生成文本前的“潜意识层”。这使得模型在输出序列前能够进行内部采样与规划,实现“预先思考”,而非传统的逐token式盲猜。这种设计借鉴了条件变分自编码器(VAE)的原理,但通过优化将计算开销控制在仅增加约3%,大幅降低了额外成本。
🚀 **性能飞跃:推理与结构化生成显著提升**
通过引入“潜意识层”,自由Transformer在推理和结构化生成任务上表现出显著提升。在GSM8K(数学推理)、MMLU(多任务语言理解)和HumanEval(代码生成)等基准测试中,该模型超越了规模更大的模型。例如,1.5B参数的自由Transformer在HumanEval+上的得分提升了44%,MBPP提升了35%,GSM8K提升了30%,证明了其在复杂任务上的有效性。
🧠 **“有内在意图”的Transformer**
Meta的研究者认为,自由Transformer可能是第一种“有内在意图”的Transformer。通过潜在随机变量Z,模型能够早期做出全局决策,引导整个序列的风格或结构,从而产生更一致、稳定的输出。这种从“预测下一个词”到“思考如何表达”的转变,标志着Transformer架构在思维方式上的一个重要演进,可能预示着后自回归时代的到来。
【新智元导读】AI最底层规则要被改写,当模型先打腹稿再开口,AI还只是一只概率鹦鹉吗?Transformer可以说整个LLM的基石,但这个基石要松动了!
8年了!持续了8年的Transformer底层架构似乎要被Meta打破了。
Meta推出「
自由Transformer」(Free Transformer)新模型在AI架构领域引发社交媒体热议。首次打破自2017年以来所有GPT模型的核心规则:不再是逐token盲猜式生成,而是在生成前能「预先思考」。
论文地址:https://arxiv.org/pdf/2510.17558研究者在解码器中引入了潜在随机变量Z,让模型在输出前进行内部采样与规划,相当于为Transformer增加了一层「潜意识」。
这一创新仅增加约3%的计算开销,却显著提升了模型在推理与结构化生成上的表现,在GSM8K、MMLU、HumanEval等测试中超越更大规模的模型。Meta称,这可能是第一种「有内在意图」的Transformer。用潜在随机变量打造机器「潜意识」Meta在解码器中加入了潜在随机变量(Z)。可以将其视为生成文本前的「潜意识层」,模型会采样内部选择来引导整个序列的风格或结构。从技术上讲,这是通过内置在Transformer内部的条件变分自编码器(VAE)实现的。Meta将其命名为Free Transformer。
不同Transformer架构如何处理名为Z的随机隐藏状态。
图中第一个展示的是标准Transformer,仅根据前序token预测下一个token。
第二个架构增加了随机状态Z,并在训练时使用额外的编码器网络来推断每个样本对应的隐藏状态。
第三种架构名为Free Transformer,简化了这一过程。它直接在模型中间层注入随机状态,而非使用独立的全编码器。在训练过程中,编码器仍被使用一次,以帮助模型学会如何选取良好的隐藏状态,但它仅与网络的一部分协同工作。
在推理过程中,编码器被跳过,随机状态Z被直接采样。
这种设计使模型能够早期做出全局决策,帮助它在没有太多额外计算的情况下产生更一致和稳定的输出。因此,一半模块充当共享编码器,其余模块则基于该潜在上下文进行解码。在常规设置中,若使用随机隐藏状态,每次生成文本时都必须同时使用编码器和解码器。这会使成本翻倍。自由变换器避免了这一点。它在训练过程中学习共享的内部结构,之后便丢弃编码器。在推理时,它直接采样隐藏状态并仅运行解码器。与标准模型相比,这种设计仅增加约3-4%的FLOPs计算开销,大幅降低了计算负担。它采用经典的VAE目标进行训练:交叉熵损失+编码器分布 Q(Z|S)与先验 P(Z)之间的KL散度惩罚项。Meta使用自由比特阈值(κ)来防止崩溃,仅在散度>κ时添加KL损失。这使得Z能够编码有用结构(如主题、情感或模式位置)而不会过拟合。采用KL散度惩罚结合自由比特方法,防止隐状态记忆整个序列。该架构在堆叠层中部注入隐状态:将学习得到的向量添加到键值中,随后正常继续解码过程。每个token对应的隐状态从65536种可能性中选取,由16个独立比特构建而成。关键突破在于——它保留了条件变分自编码器的优势(有助于模型更好地规划),同时消除了通常使其不切实际的额外成本。这样你就能获得一个更稳定、具有全局感知能力的Transformer,而成本几乎与普通Transformer相同。它仅在训练期间增加约 3%的计算量就能实现这一点。普通解码器仅依据已生成的标记来选择下一个标记,这导致它们较晚才能推测全局选择。FreeTransformer先采样一个微小的随机状态,然后让每个标记都基于该状态生成。训练时,通过条件变分自编码器将解码器与编码器配对,使模型学会生成有用的隐状态。结果非常好!在推理过程中跳过编码器,由均匀采样器选择状态,生成过程正常进行。这为模型提供了早期的全局决策,减少了在出现小规模标记错误后的脆弱行为。Meta训练了1.5B和8B的模型。
在GSM8K、HumanEval+和 MMLU等重推理基准测试中的表现显著提升。1.5B模型模型增益:HumanEval+得分提升 44%MBPP测试提升 35%GSM8K数学题集提升 30%计算开销仅增加3-4%即实现上述效果。而且模型保持稳定,没有出现训练崩溃或异常波动。自由变换器(The FreeTransformer)在架构中增加了一个随机的「隐藏思维层」。它不只是预测,而是先决策后预测,这可能标志着后自回归时代的开端。一句话总结,一个微小的编码器添加了有益的偏差,使推理和编码更加可靠。会思考的Transformer,不再只是「鹦鹉学舌」。这可能是一个重要节点,Transformer的思维方式被重塑,从「预测下一个词」迈向「思考如何表达」。潜在变量Z到底学到了什么?
以下是论文给出的测试例子。合成序列具有固定长度,包含一个由随机字母重复8次构成、位于随机位置的「目标」,以及由感叹号组成的独立同分布噪声,还有一个提示目标字母的提示语。每条样本以「字母+>」作为提示(如 K>)。主体是一行固定长度的下划线 _,在随机位置嵌入 8 个相同的大写字母组成的「target」(如KKKKKKKK)。另外以1/16的概率把任一字符替换成 !,形成独立同分布的噪声下图则展示了Free Transformer 在该合成任务上、不同K时的生成行为与潜变量Z所承载的信息。每个模型都给出两组方框:蓝色方框:每条序列都独立采样一个Z。绿色方框:整组序列共用同一个Z,便于看出Z是否「锁定」了某些全局属性。随κ变大(信息从少到多)现象依次为:κ=log(2)/64(≈1/64 bit):几乎不从Z编码有用信息,表现像普通无潜变量的解码器;绿色与蓝色差异很小。κ=log(2)/8(≈1/8 bit):Z先学会只编码target的位置;绿色方框中target位置在多条样本里保持一致,但噪声 ! 仍随机。κ=log(2)(1 bit):Z进一步同时编码target位置与噪声模式;因此绿色方框的多条样本连 ! 的分布也很相似。κ=8·log(2)(8 bits):Z承载信息过多,几乎「把整条序列塞进 Z」——导致训练/生成退化(模型过度依赖 Z,输出反而不对)。这张图用分组对比清楚地示范:允许更大的KL配额会让模型把更多「全局决策」搬到潜变量里;太少不够用,太多会塌陷。FAIR实验室是真的搞研究注意到,论文作者François Fleuret,来自Meta的FAIR实验室。François Fleuret是一位机器学习领域的研究科学家与教育工作者。他目前担任 Meta Fundamental AI Research(Meta FAIR)「核心学习与推理」(Core Learning & Reasoning)团队的研究科学家。而众所周知的是,FAIR是Yann LeCun领导的。今天一个重磅新闻就是,小扎的超级智能实验又裁员了600人。Yann LeCun都逼的出来发声明了:「我没有参与任何Llama项目,一直由其他团队负责,我主要是研究超越LLM的下一代人工智能。」上下滑动查看
从这个自由Transformer来看,Yann LeCun所言不虚。虽然他一直反对LLM技术本身,但是这些创新也是拓展AI的边界。希望小扎能好好对待这位图灵奖大佬。https://x.com/rryssf_/status/1980998684801401302https://arxiv.org/abs/2510.17558 文章原文