1.开源模型百度百科

最新最强的开源原生多模态世界模型——北京智源人工智能研究院(BAAI)的悟界·Emu3.5来炸场了图、文、视频任务一网打尽,不仅能画图改图,还能生成图文教程,视频任务更是增加了物理真实性先感受一下它的高精度操作:一句话消除手写痕迹。

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图

2.开源mod

第一视角漫游动态3D世界:

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图1

3.开源模型训练平台

要知道,现在AI迭代的速度,正在刷新所有人的认知尤其是在文生视频这条赛道上,几乎每个月都有新技术出来“搞事情”肉眼可见,AI视频一个比一个真,一个比一个长but,先别急着鼓掌——真正的赛点,早已不是“像不像”,而是“懂不懂”。

4.开源模型是什么

它知道桌子上的苹果被拿走后,那里应该变空吗?它明白你转身之后,背后的场景依然存在吗?如果答案是否定的,那再逼真的视频,也不过是“高级的GIF”现在,致力于攻克这一终极难题的玩家,终于带着悟界·Emu3.5来了。

5.开源基站

从官方放出的demo来看,Emu3.5生成的作品展现出极强的连贯性、逻辑性,尤其让AI模拟动态物理世界的能力又双叒增强了它能让你以第一人称视角进入它所构建的虚拟世界你的每一次移动、每一次转身,它都能动态构建出你下一步应该看到的场景,全程保持空间一致性。

6.模型开源是啥意思

除了上面展示的探索3D游戏世界,还能第一视角参观阳光下的客厅:

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图2

7.开源模型库

在火星上开卡丁车也很丝滑:

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图3

由于掌握了世界运行的内在规律,它不仅能像专业设计师一样,进行高精度、可控的图像编辑:

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图4

还能像拍电影一样,生成图文并茂的视觉故事:

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图5

从测评成绩来看,悟界·Emu3.5的表现也极其亮眼——在多项权威基准上,性能媲美甚至超越了Gemini-2.5-Flash-Image,没错,就是那个Nano Banana,在文本渲染和多模态交错生成任务上优势尤其显著。

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图6

Emu3.5的命名,就揭示了它的定位:世界模型基座顾名思义,它要做的是世界模型的基础模型,这等于是在AI领域开辟了一条全新的赛道那么,这样一个被寄予厚望的模型究竟有多强?来看更多案例像智能体一样理解长时序。

核心能力:世界探索与具身操作这是Emu3.5最核心、最能体现其“世界模型基座”本质的能力它能像一个智能体(Agent)一样,理解长时序、空间一致的序列,模拟在虚拟世界中的探索和操作比如下面这个“整理桌面”的任务,就是通过以下指令一步步实现的:。

先把桌上所有东西清空。把所有线缆解开并分类。用扎带把线缆捆好。用理线槽把线缆隐藏在桌下。最后把桌面物品摆放整齐。

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图7

进阶能力:视觉指导与复杂图像编辑正因为掌握了动态世界演变规律,Emu3.5尤为擅长提供具有连贯性和指导意义的视觉内容当给了Emu3.5一张狐狸的草图,并给出一系列指令“把它变成3D模型、3D打印出来、再上色”后,它直接一步步生成了从草图到最终手办形态的完整视觉流程。

整个过程中,狐狸的核心特征和神态都得到了完美保留,扛住了长时程创作的挑战

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图8

这种能力让它还能生成分步教学指南,手把手教你做菜、画画、种菜:

世界模型有了开源基座Emu3.5!拿下多模态SOTA,性能超越Nano Banana(插图9

同时,它也支持多图、多轮指令的复杂图像编辑,主体一致性、风格保持能力达到业界顶尖水平敲黑板,由于Emu3.5本身就在海量的互联网视频上进行预训练,所以它天生就具备理解时空连续性的能力,能够生成长时序、逻辑一致的序列,而不会出现风格漂移或事实错乱。

为了构建Emu3.5,智源这次在技术方面也是进行了一系列创新和突破背后技术原理Emu3.5参数量仅34B,整个模型以标准的Decoder-only Transformer为框架,单一模型能够同时完成视觉叙事、视觉引导、图像编辑、世界探索、具身操作等多种任务。

它将所有任务都统一为下一State预测(Next-State Prediction)任务,无论是文本还是图像,都被一个强大的多模态分词器(Tokenizer)转换成离散的Token序列海量视频数据预训练。

模型在超过10万亿Token的多模态数据上进行训练,其中主力是来自互联网视频的连续帧和转录文本这使得模型从一开始就沉浸式学习时空连续性和因果关系强大的分词器视觉分词器(Tokenizer)基于IBQ框架,拥有13万的视觉词汇表,并集成了扩散解码器,能实现高达。

2K分辨率的高保真图像重建多阶段对齐在预训练之后,模型经过了大规模的有监督微调(SFT)和大规模多模态强化学习(RL),使用一个包含通用指标(如美学、图文对齐)和任务特定指标(如故事连贯性、文本渲染准确率)的复杂奖励系统进行优化。

推理加速黑科技为了解决自回归模型生成图像慢的问题,团队提出了离散扩散适配(DiDA)技术,它能将逐个Token的生成方式转变为并行的双向预测,在不牺牲性能的前提下,使每张图像的推理速度提升近20倍One More Thing。

这么强的模型,智源选择——开源!全球的开发者、研究者,不用再从零开始,就能直接上手一个懂物理、有逻辑的世界模型从生成更逼真的视频,到构建更聪明的智能体,再到赋能千行百业的实际应用……想象空间拉满了对了,如果想要体验科研内测版,可戳下方链接申请~

体验链接:https://jwolpxeehx.feishu.cn/share/base/form/shrcn0dzwo2ZkN2Q0dveDBSfR3b项目主页:https://zh.emu.world/pages/web/landingPage

技术报告:https://zh.emu.world/Emu35_tech_report.pdf

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。