36kr-科技 10月30日 22:37
智源发布Emu3.5:强大的多模态世界模型
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

北京智源研究院发布了最新的开源原生多模态世界模型Emu3.5,该模型集图、文、视频处理能力于一体。Emu3.5不仅能进行高精度的图像编辑,还能生成图文并茂的教程,并在视频生成方面显著增强了物理真实性。其核心优势在于理解和模拟动态物理世界,实现空间一致性的三维世界漫游和具身操作。模型在多项基准测试中表现优异,媲美甚至超越了Gemini-2.5-Flash-Image。Emu3.5采用Decoder-only Transformer框架,通过海量视频数据预训练和多阶段对齐优化,并引入DiDA技术加速推理,为全球开发者提供了强大的世界模型基础。

✨ **强大的多模态能力:** Emu3.5集成了图像生成与编辑、文本理解与生成、以及视频生成能力,能够处理包括“消除手写痕迹”等精细化图像编辑任务,并生成图文教程,展现了其在多模态任务上的全面性。

🌍 **世界模型基座:** Emu3.5的核心定位是“世界模型基座”,致力于攻克AI理解和模拟动态物理世界的难题。它能够实现空间一致性的三维世界漫游,理解长时序和因果关系,模拟智能体(Agent)的探索与具身操作,如“整理桌面”任务。

🎬 **高保真视频生成:** 在视频生成方面,Emu3.5不仅追求视觉逼真度,更强调物理真实性和逻辑连贯性。它能生成具有空间一致性的第一视角漫游视频,并支持长时序创作,如从草图到最终手办的完整视觉流程,解决了传统AI视频“高级GIF”的问题。

🚀 **技术创新与性能:** Emu3.5采用Decoder-only Transformer框架,通过超过10万亿Token的多模态数据(尤其是互联网视频)预训练,以及多阶段的监督微调和强化学习优化。其独有的离散扩散适配(DiDA)技术将推理速度提升近20倍,性能在多项基准上媲美甚至超越了Gemini-2.5-Flash-Image。

最新最强的开源原生多模态世界模型——

北京智源人工智能研究院(BAAI)的悟界·Emu3.5来炸场了。

图、文、视频任务一网打尽,不仅能画图改图,还能生成图文教程,视频任务更是增加了物理真实性。

先感受一下它的高精度操作:一句话消除手写痕迹。

第一视角漫游动态3D世界:

要知道,现在AI迭代的速度,正在刷新所有人的认知。

尤其是在文生视频这条赛道上,几乎每个月都有新技术出来“搞事情”。

肉眼可见,AI视频一个比一个真,一个比一个长。

but,先别急着鼓掌——

真正的赛点,早已不是“像不像”,而是“懂不懂”。

它知道桌子上的苹果被拿走后,那里应该变空吗?它明白你转身之后,背后的场景依然存在吗?如果答案是否定的,那再逼真的视频,也不过是“高级的GIF”。

现在,致力于攻克这一终极难题的玩家,终于带着悟界·Emu3.5来了。

从官方放出的demo来看,Emu3.5生成的作品展现出极强的连贯性、逻辑性,尤其让AI模拟动态物理世界的能力又双叒增强了。

它能让你以第一人称视角进入它所构建的虚拟世界。你的每一次移动、每一次转身,它都能动态构建出你下一步应该看到的场景,全程保持空间一致性。

除了上面展示的探索3D游戏世界,还能第一视角参观阳光下的客厅:

在火星上开卡丁车也很丝滑:

由于掌握了世界运行的内在规律,它不仅能像专业设计师一样,进行高精度、可控的图像编辑:

还能像拍电影一样,生成图文并茂的视觉故事:

从测评成绩来看,悟界·Emu3.5的表现也极其亮眼——在多项权威基准上,性能媲美甚至超越了Gemini-2.5-Flash-Image,没错,就是那个Nano Banana,在文本渲染和多模态交错生成任务上优势尤其显著。

Emu3.5的命名,就揭示了它的定位:世界模型基座

顾名思义,它要做的是世界模型的基础模型,这等于是在AI领域开辟了一条全新的赛道。

那么,这样一个被寄予厚望的模型究竟有多强?来看更多案例。

像智能体一样理解长时序

核心能力:世界探索与具身操作

这是Emu3.5最核心、最能体现其“世界模型基座”本质的能力。它能像一个智能体(Agent)一样,理解长时序、空间一致的序列,模拟在虚拟世界中的探索和操作。

比如下面这个“整理桌面”的任务,就是通过以下指令一步步实现的:

    先把桌上所有东西清空。 把所有线缆解开并分类。 用扎带把线缆捆好。 用理线槽把线缆隐藏在桌下。 最后把桌面物品摆放整齐。

进阶能力:视觉指导与复杂图像编辑

正因为掌握了动态世界演变规律,Emu3.5尤为擅长提供具有连贯性和指导意义的视觉内容。

当给了Emu3.5一张狐狸的草图,并给出一系列指令“把它变成3D模型、3D打印出来、再上色”后,它直接一步步生成了从草图到最终手办形态的完整视觉流程。整个过程中,狐狸的核心特征和神态都得到了完美保留,扛住了长时程创作的挑战。

这种能力让它还能生成分步教学指南,手把手教你做菜、画画、种菜:

同时,它也支持多图、多轮指令的复杂图像编辑,主体一致性、风格保持能力达到业界顶尖水平。

敲黑板,由于Emu3.5本身就在海量的互联网视频上进行预训练,所以它天生就具备理解时空连续性的能力,能够生成长时序、逻辑一致的序列,而不会出现风格漂移或事实错乱。

为了构建Emu3.5,智源这次在技术方面也是进行了一系列创新和突破。

背后技术原理

Emu3.5参数量仅34B,整个模型以标准的Decoder-only Transformer为框架,单一模型能够同时完成视觉叙事、视觉引导、图像编辑、世界探索、具身操作等多种任务。

它将所有任务都统一为下一State预测(Next-State Prediction)任务,无论是文本还是图像,都被一个强大的多模态分词器(Tokenizer)转换成离散的Token序列。

模型在超过 10万亿 Token的多模态数据上进行训练,其中主力是来自互联网视频的 连续帧和转录文本 。这使得模型从一开始就沉浸式学习时空连续性和因果关系。

视觉分词器(Tokenizer)基于IBQ框架,拥有13万的视觉词汇表,并集成了扩散解码器,能实现高达 2K 分辨率的高保真图像重建。

在预训练之后,模型经过了大规模的 有监督微调(SFT)和大规模多模态强化学习(RL) ,使用一个包含通用指标(如美学、图文对齐)和任务特定指标(如故事连贯性、文本渲染准确率)的复杂奖励系统进行优化。

为了解决自回归模型生成图像慢的问题,团队提出了 离散扩散适配(DiDA)技术 ,它能将逐个Token的生成方式转变为并行的双向预测,在不牺牲性能的前提下,使每张图像的推理速度提升近20倍。

One More Thing

这么强的模型,智源选择——开源

全球的开发者、研究者,不用再从零开始,就能直接上手一个懂物理、有逻辑的世界模型。

从生成更逼真的视频,到构建更聪明的智能体,再到赋能千行百业的实际应用……想象空间拉满了。

对了,如果想要体验科研内测版,可戳下方链接申请~

体验链接:https://jwolpxeehx.feishu.cn/share/base/form/shrcn0dzwo2ZkN2Q0dveDBSfR3b

项目主页:https://zh.emu.world/pages/web/landingPage

技术报告:https://zh.emu.world/Emu35_tech_report.pdf

本文来自微信公众号“量子位”,作者:允中 ,36氪经授权发布。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Emu3.5 世界模型 多模态AI 视频生成 智源 开源 AI World Model Multimodal AI Video Generation BAAI Open Source
相关文章