1.南京理工大学舞蹈团
在常见的群舞数据中,超过80%的动作看起来几乎一样!更麻烦的是,每个舞者的动作数据维度高达100多,而位置坐标却只有可怜的3维——模型直接「脸盲」了,根本分不清谁是谁结果舞者身份混淆,跳着跳着就撞在一起。
2.南理工街舞社
此外,独舞也有可能变「滑步」,导致画面非常魔幻你有没有见过舞者上身跳得标准,双脚却像在冰上滑行?这就是典型的「脚部滑动」其根源在于AI难以协调全身动作和脚下轨迹,导致视觉效果失真,观感十分出戏如果编舞时间过长,也可能导致生成崩溃,长序列群舞仍是难题。
3.南京理工大学舞蹈专业
现有技术能生成几秒钟的群舞片断,可一旦拉到几分钟甚至更长,动作就开始突变、卡顿、不连贯。而现实中,一场真正的群舞表演动辄数分钟,音乐剧更要持续数小时——这之间的差距,正是当前技术亟待填补的关键空白。

4.南京理工大学街舞社
群舞生成三大难题示意图以及TCDiff 效果,从左到右分别为多舞者碰撞、单舞者脚滑、长时生成位置突变问题、TCDiff 克服这些难题在AAAI 2025发表的TCDiff模型,研究人员首次提出「轨迹可控」的生成思路,通过分离轨迹预测与动作生成的两阶段框架,有效防止了群舞中的舞者碰撞。
5.南京理工大学舞蹈系
然而,该设计也导致动作与位移衔接生硬,且在生成长序列时容易出现抖动、性能下降等问题。为从根本上克服这些缺陷,研究团队最新推出了升级版——TCDiff ,一个从音乐到舞蹈的端到端生成模型。

论文地址:https://arxiv.org/pdf/2506.18671项目地址:https://da1yuqin.github.io/TCDiffpp.website/代码地址:https://github.com/Da1yuqin/TCDiffpp
顾名思义,TCDiff 是一个「轨迹可控」的扩散模型,核心创新在于其两阶段生成流程,专门针对群舞的和谐性与真实感设计:团体舞蹈解码器(Group Dance Decoder):作为第一道工序,它根据输入的音乐,首先生成一套整体协调、且能避免舞者相互碰撞的初始舞蹈动作。
步法适配器(Footwork Adaptor):接着,这个专门的模块会介入,它聚焦于舞者的脚部轨迹,对初始动作进行局部精修,生成扎实的脚步动作,从而有效消除「脚底打滑」的不自然现象。



评论(0)