1.图片生成3d模型

一张照片,就能生成可直接用于仿真的3D资产。(没错,下图中几乎所有物体都是AI生成的)

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图

2.照片生成3d模型软件app

随着三维建模从传统的静态视觉效果,逐步迈向可用于仿真与交互的物理可动资产,如何直接生成具备物理属性与关节结构的3D对象,成为推动具身智能(embodied AI)发展的关键然而,现有大多数3D生成方法往往忽视这些核心的物理与运动特性,严重限制了其在机器人等相关领域的应用。

3.图像生成3d软件

为此,来自南洋理工大学与上海人工智能实验室的合作研究团队提出PhysX-Anything——首个面向仿真、具备物理属性的3D生成框架:仅需单张图像,即可生成高质量、可直接用于仿真的3D资产,并同时具备显式几何结构、关节运动以及物理参数

4.图片自动生成3d的软件

从「静态模型」走向「物理仿真」在机器人、具身智能和交互仿真等任务中,对能在物理引擎中直接运行的高质量3D资产需求日益增长然而,当前大多数3D生成方法仍侧重于整体几何与外观,或仅关注部件结构,普遍缺失密度、绝对尺度、关节约束

5.3d照片生成器

等关键物理信息,难以直接用于真实仿真与控制尽管已有少数研究开始探索可动3D对象的生成,但由于高质量3D物理标注数据的稀缺,多采用“检索现有模型 附加运动”的范式,难以从单张真实图像泛化生成全新且物理一致的资产。

6.图片生成三维模型软件

此外,现有方法对形变行为的建模也常假设材料均匀或忽略部分物理属性即便是能够生成物理3D资产的PhysXGen,其输出也尚未支持在主流物理引擎中即插即用,限制了在控制任务中的实用性为弥合合成3D资产与真实下游应用之间的差距,

7.3d图像生成系统

研究团队提出了PhysX-Anything——首个面向仿真的物理3D生成范式该框架仅凭一张图像,即可生成高质量、可直接导入标准模拟器的sim-ready(仿真就绪)3D资产该成果有望为3D生成、具身智能与机器人。

8.图片生成模型的软件

领域带来新的可能性与研究范式。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图1

9.在线照片生成3d模型

如何通过一张图,实现3D物理重建?PhysX-Anything采用“由粗到细(coarse-to-fine)”的生成框架给定一张真实场景图像,系统通过多轮对话,依次生成整体物理描述与各部件几何信息,通过对物理表征进行解码,最终解码输出六种常用格式的可仿真3D资产。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图2

10.3d图像生成

1. 实现193倍压缩比!「体素」如何重构3D表示?在传统视觉语言模型(VLM)中进行3D生成时,为压缩原始网格的token长度,主流方法通常采用基于顶点量化的文本序列表示,但所得几何token仍十分冗长。

3D VQ-GAN虽可进一步压缩几何token,却需要在微调阶段引入额外特殊token和自定义tokenizer,增加了训练与部署的复杂度为此,研究团队提出一种新型3D表征方式,在显式保留几何结构的同时显著缩短token序列,且无需任何额外token。

该方法受体素(就是三维的像素)表征在精度与效率间良好折中的启发,基于体素构建几何表示:首先在323体素网格上由VLM建模粗略几何,再由下游解码器细化得到高保真形状,从而保留体素显式结构优势,同时避免过高token开销。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图3

在整体信息表征上,团队沿用树状、VLM友好的结构,并以JSON风格格式替代标准URDF,使其包含更丰富的物理属性与文本描述,便于VLM理解与推理同时,团队将关键运动学参数(如运动方向、关节轴位置、运动范围等)统一映射到体素空间,以保证运动学与几何结构的一致性。

2. 从「全局蓝图」到「局部精修」在上述物理3D资产表征的基础上,研究团队采用Qwen2.5作为基础模型,并在自建的物理3D数据集上对该VLM进行微调通过精心设计的多轮对话流程,PhysX-Anything能同时生成高质量的。

全局描述(整体物理与结构属性)与局部信息(部件级几何)为获取更精细的几何细节,团队受ControlNet启发,设计了一个可控的flow transformer该模块将粗体素表示作为扩散模型的引导信号,控制细粒度体素几何的生成。

在得到细粒度体素表示后,系统采用预训练的结构化潜在扩散模型解码出多种格式的3D资产,包括网格表面、辐射场与3D高斯等随后,基于体素分配结果,使用最近邻算法将重建网格划分为部件级组件最终,结合全局结构信息与细粒度体素几何,PhysX-Anything能够生成用于仿真的URDF、XML及部件级网格,实现“仿真就绪”的物理3D生成。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图4

效果如何?多项实测全面验证1. 在PhysX-Mobility数据集上的评估研究团队将PhysX-Anything与当前最新方法URDFormer、Articulate-Anything和PhysXGen进行对比。

如下表所示,PhysX-Anything在几何与物理两类指标上均取得最优表现得益于强大的VLM先验,其在绝对尺度上的误差大幅降低此外,由于VLM结构适合处理文本,PhysX-Anything在文本描述相关指标上也取得最高得分,表明该方法方法不仅能够生成物理上合理的属性,还能产出连贯的、具备部件层级的文字描述,对物体结构与功能具备较强理解能力。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图5

除了定量结果,定性对比也清晰显示,PhysX-Anything在泛化能力方面具有显著优势,尤其相较于检索式方法更为突出依托强大的VLM先验与高效表征设计,该系统还能生成比PhysXGen更合理、可信的物理属性。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图6

2. 真实世界场景测试基于VLM的评估:为评估方法的泛化能力,团队进一步在真实世界图像上测试其性能这些图像覆盖了最常见的日常物体类别为避免VLM在某些具体物理属性上判断不稳定的问题,本次评估重点放在几何与关节运动质量上。

结果表明,PhysX-Anything在几何与运动学参数两项指标上均显著优于所有对比方法,显示出对真实输入的强泛化能力

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图7

作为补充,团队还召集了一些人类志愿者为不同模型的生成结果打分,PhysX-Anything的生成结构在几何与物理属性都获得了最高分,表明其生成结果对比来看也更受人类认可。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图8

在真实场景上的可视化结果也可进一步直观展示该方法的优势:PhysX-Anything能够生成更加准确的几何结构、关节运动以及物理属性。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图9

3. 「开箱即用」赋能具身智能训练为验证生成资产对下游任务的支撑能力,团队在MuJoCo风格的模拟器中进行了实验生成的sim-ready 3D资产——包括水龙头、柜子、打火机、眼镜等日常物体——可以直接导入模拟器,并用于接触丰富的机器人策略学习。

图片生成仿真!这个AI让3D资产「开箱即用」,直接赋能机器人训练(插图10

该实验不仅展示了生成资产在物理行为与几何结构上的高度可信性,也突显了它们在推动多种下游机器人与具身智能应用方面的巨大潜力推动3D重建从「形似」走向「神似」研究团队提出首个面向仿真的物理3D生成范式PhysX-Anything。

,通过统一的VLM管线与定制3D表征,在显式保留几何结构的前提下实现超过193倍的token压缩,显著提升了物理3D生成的效率与可扩展性同时,团队构建了覆盖47个常见真实类别、具备丰富物理标注的PhysX-Mobility数据集。

,大幅拓展了现有物理3D资产的多样性基于该数据集及真实世界场景的实验表明,PhysX-Anything在sim-ready物理3D生成上具有优异性能与稳健泛化能力,仿真实验进一步验证了其在下游机器人策略学习中的应用潜力。

该框架有望为3D视觉、具身智能与机器人研究开辟新的方向,推动从“视觉建模”到“物理建模”的范式转变。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。