
不仅能"听懂"物体的颜色纹理合法的配资公司,还能"理解"深度图、人体姿态、运动轨迹……
统一多模态多任务的视频生成模型来了。
来自港科大、港中文、清华大学和快手可灵的研究团队,最近提出了一个全新视觉框架——UnityVideo。

它通过统一训练多种视觉模态(如深度图、光流、骨骼、分割掩码等),让模型更懂物理世界规律,生成的视频更真实、更可控。
不仅模型生成质量更高,它还实现了零样本泛化,对于从未见过的物体或场景,也能生成合理结果。

下面是更多详细内容。
从文本大模型到视觉大模型
当回顾大语言模型 ( LLMs ) 的发展历程时,会发现一个有趣的现象:
GPT、Claude 等模型之所以拥有强大的泛化和推理能力,很大程度上得益于它们统一训练了多种文本子模态——自然语言、代码、数学表达式等。
这种多模态统一训练使模型能够在不同领域之间进行知识迁移,从而涌现出惊人的推理能力。
那么,视觉领域是否也存在同样的机会?

现有的视频生成模型虽然在合成质量上取得了令人瞩目的进步,但大多数模型仍然局限于单一的 RGB 视频学习——就像只用纯文本训练语言模型一样,这限制了模型对物理世界的全面理解。
但如果想象一下,一个模型不仅能看到物体的颜色和纹理,还能同时理解其深度、运动轨迹、身体姿态、物体分割等多维度信息,它对世界的理解也许会更加深刻。
而这正是港科大、港中文、清华大学和快手可灵团队联合提出UnityVideo的核心动机。
UnityVideo 的核心观察来自一个简单但深刻的实验:当模型同时学习多种视觉模态时,它在 RGB 视频生成任务上的收敛速度显著加快,最终性能也明显提升。

如图所示,与单独训练 RGB 视频或单模态联合训练相比,统一多模态多任务训练能够更快达到更低的最终损失,而这一现象并非偶然——不同的视觉模态提供了互补的监督信号:
实例分割:帮助模型区分不同类别的物体。
DensePose:让模型理解人体的部位结构。
骨架信息:编码精细的运动模式。
深度图:揭示场景的三维几何结构。
光流:捕捉像素级的运动信息。
当这些模态信息在同一个模型中联合学习时,它们之间会产生相互促进的效果,模型不再是简单地拟合数据分布,而是真正开始"理解"物理世界的运作规律。
通过联合优化,UnityVideo 能在多个任务上取得显著的性能提升。
更令人惊喜的是,模型展现出强大的零样本泛化能力:仅在单人数据上训练,就能泛化到多人场景;在人体骨架数据上训练后,能泛化到动物骨架估计;在特定物体上训练的深度估计和分割能力,也能泛化到未见过的物体和场景。
这种简单的统一训练范式带来了很大的性能改进。
此外,研究团队还发现统一训练能够增强模型对物理世界的理解能力,比如在光的折射、物体运动等物理现象的建模上表现更好。
UnityVideo 的技术创新
具体来说,UnityVideo 在以下三个方面实现了技术创新:
动态任务路由:三种训练范式的无缝统一
传统视频生成模型通常针对单一任务进行训练,比如文本生成视频,或者深度条件下的可控生成。UnityVideo 则突破了这一限制,在单个架构中同时支持三种训练范式:
条件生成:从辅助模态 ( 如深度图 ) 生成 RGB 视频。
模态估计:从 RGB 视频估计辅助模态。
联合生成:从文本同时生成 RGB 视频和辅助模态。

关键的技术突破在于动态噪声调度策略:
在每个训练迭代中,模型会根据预设的概率随机选择一种训练模式,并对相应的 token 施加不同的噪声。
这种动态切换机制避免了传统阶段式训练中的灾难性遗忘问题,使三种训练目标能够在同一个优化过程中和谐共存。
更巧妙的是,研究者根据不同任务的学习难度设置了不同的采样概率:p_cond
模态切换器:架构级别的模态区分
要在一个模型中处理多种模态,最大的挑战是如何让模型明确区分不同的模态信号。UnityVideo 提出了两个互补的设计:
1、上下文学习器 ( In-Context Learner ) :
通过为不同模态注入特定的文本提示 ( 如" depth map "、" human skeleton " ) ,让模型在语义层面理解当前处理的是哪种模态。
这种设计带来了意想不到的泛化能力——例如,模型在" two persons "上训练后,可以自然地泛化到" two objects "的分割任务。
2、模态自适应切换器 ( Modality-Adaptive Switcher ) :
在架构层面,为每种模态学习独立的调制参数。
具体来说,模型为每种模态维护一个可学习的嵌入列表,这些嵌入会调制 DiT 块中的 AdaLN-Zero 参数 ( scale、shift、gate ) 。
这种设计实现了即插即用的模态选择能力——在推理时,只需切换模态嵌入,就能让模型生成或估计不同的模态。
渐进式课程学习策略
直接从零开始训练所有模态往往会导致收敛缓慢和次优性能,于是 UnityVideo 采用了两阶段课程学习策略:
第一阶段:在精心筛选的单人场景数据上,仅训练像素对齐的模态 ( 光流、深度、DensePose ) ,建立扎实的空间对应关系基础。
第二阶段:引入所有模态和多样化场景数据,包括多人场景和通用场景,使模型能够理解全部五种模态,同时支持对未见模态组合的鲁棒零样本推理。

数据集支撑统一训练
为了支持这一统一训练范式,研究团队构建了OpenUni 数据集,包含 130 万个多模态视频样本,数据集精心设计,涵盖:
370358 个单人场景片段。
97468 个双人场景片段。
489445 个来自 Koala36M 的片段。
343558 个来自 OpenS2V 的片段。
为了防止模型对特定数据集或模态过拟合,训练时将每个 batch 划分为四个均衡的组,确保所有模态和数据源的均匀采样。
同时,团队还构建了UniBench 评估基准,包含 3 万个样本,其中 200 个高质量样本来自 Unreal Engine 渲染,提供了 ground truth 深度和光流,为公平、全面的评估提供了坚实基础。
实验结果:全方位的性能提升多任务性能对比

在全面的定量对比中,UnityVideo 在文本生成视频、可控生成和模态估计三大类任务上都取得了优异的表现:
文本生成视频:在所有指标上均获得最佳结果,背景一致性达 97.44%,美学质量 64.12%。
可控生成:在背景一致性、整体一致性和动态程度上表现卓越,动态程度达到 64.42%,远超其他方法。
模态估计:在视频分割任务上 mIoU 达到 68.82%,在深度估计上 Abs Rel 仅为 0.022,显著优于专门的单任务模型。
定性对比:更强的物理推理能力

定性结果更直观地展示了 UnityVideo 的优势:
( A ) 物理现象理解:相比先进的文本生成视频模型,UnityVideo 对物理定律有更准确的理解,比如能够正确表现水中的光线折射现象。
( B ) 可控生成质量:与其他可控生成方法相比,UnityVideo 不仅能更忠实地遵循深度引导,还能保持整体视频质量,避免了其他方法中常见的背景闪烁和主体扭曲问题。
( C-D ) 模态估计精度:在深度和光流估计中,UnityVideo 产生更精细的边缘细节、更宽的视野和准确的 3D 点云,得益于多模态的互补性。
( E ) 泛化能力:模型展现出强大的推理能力,能够准确地在未见过的数据上进行估计,克服了其他专门模型的过拟合问题。
消融实验
1、多模态互补性验证

实验表明,联合训练不同模态能够带来明显的性能提升。
相比单模态训练,统一多模态训练在成像质量和整体一致性上获得了更大的增益,证明了不同模态提供的互补监督信号能够相互增强。
2、多任务训练的必要性
单独训练可控生成任务甚至会导致性能下降,但统一多任务训练能够恢复并超越这一性能。

这证实了不同任务之间确实存在相互促进的协同效应。
3、架构设计的有效性

上下文学习器和模态切换器各自都能有效提升性能,而结合使用时能获得额外的显著增益,证实了它们在促进统一多模态学习中的互补作用。
用户研究:人类感知的胜利

在用户研究中,UnityVideo 在物理质量、语义质量和整体偏好三个维度上均获得最高评分,物理质量得分达到 38.50%,显著超过商业模型 Kling1.6 ( 10.15% ) 和 HunyuanVideo ( 24.15% ) 。
这说明统一训练带来的世界理解提升是人类可感知的。
零样本泛化:从"两个人"到"两个物体"
一个令人惊喜的发现是,上下文学习器赋予了模型强大的组合泛化能力。

模型在" two persons "的分割任务上训练后,能够自然地泛化到未见过的" two objects "场景。
这种泛化不是简单的模式记忆,而是真正理解了模态层面的语义。
同时,统一训练过程中,随着模型逐渐学习更多模态 ( 如深度 ) ,研究团队观察到 RGB 视频中的运动理解和语义响应都得到了改善,再次证明了不同模态在训练过程中的互补作用。
跨模态注意力的演化

另外通过可视化自注意力图的演化,研究者发现了有趣的现象:
随着联合训练的进行,RGB 和辅助模态之间的交互逐渐增强,表明跨模态特征交换不断深化。
模型学习到越来越丰富的几何表示,文本遵循能力也不断提升。
这种特征级的交互验证了统一框架不仅实现了技术整合,更促进了有意义的跨模态知识迁移。
UnityVideo 的成功不仅仅是工程上的突破,更重要的是验证了一个深刻的理念:真正的世界理解需要多维度的感知整合。
回想人类理解世界的方式,不是单独处理视觉、听觉、触觉信息,而是将它们整合成一个统一的世界模型。
比如对于一个杯子,既能看到它的颜色和形状 ( RGB ) ,也能感知它的三维结构 ( 深度 ) ,理解它在空间中的位置和运动 ( 光流 ) 。
UnityVideo 展示了,当让 AI 模型以类似的方式学习时——不是孤立地学习单一模态,而是让不同模态相互促进、共同进化,模型就能够获得更深层的世界理解。
这种理解不仅体现在更快的收敛速度和更好的定量指标上,更体现在模型对物理规律的准确建模、对未见场景的泛化能力,以及在人类感知层面的质量提升上。

UnityVideo 也为视频生成领域开辟了一条新路径:
1、规模不是唯一答案:提升模型能力不仅仅依赖于增大参数量和数据量,更重要的是如何组织和利用多样化的学习信号。
2、 任务整合带来涌现能力:就像 LLMs 通过统一多种文本任务涌现出推理能力,视觉模型也可以通过统一多种模态和任务来涌现更强的世界理解能力。
3、架构设计至关重要:简单地把不同模态堆叠在一起是不够的,需要精心设计的机制 ( 如动态噪声调度、模态切换器、上下文学习器 ) 来让不同模态真正互相促进。
4、评估需要多维度:单一任务的性能提升固然重要 , 但更关键的是模型获得了跨任务、跨模态的泛化能力和更深层的世界理解。
当然,UnityVideo 还有提升空间,研究者也坦诚地指出了当前的局限性:
VAE 偶尔会引入重建伪影,扩展到更大的 backbone 和更多视觉模态可能会进一步增强涌现能力,但即便如此,UnityVideo 已经为构建真正理解物理世界的视觉大模型奠定了坚实的基础。
从 LLMs 统一文本子模态到 UnityVideo 统一视觉子模态,能够看到 AI 向通用智能演进的清晰路径:不是在孤立的任务上追求极致,而是建立统一的学习范式,让不同维度的知识相互促进、协同进化。
UnityVideo 的出现说明,在视频生成领域,研究者们可能过于关注 RGB 像素的精细度,而忽视了构建多维度世界模型的重要性。
真正智能的视频生成系统,应该像人类一样,能够同时理解场景的颜色、深度、运动、结构等多个维度,并将这些理解整合成对物理世界的统一认知。
这正是 UnityVideo 迈出的关键一步。
论文链接:https://arxiv.org/abs/2512.07831
代码链接:https://github.com/dvlab-research/UnityVideo
项目主页:https://jackailab.github.io/Projects/UnityVideo
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生 � �
感兴趣的小伙伴欢迎关注 � � 了解详情

� � 点亮星标 � �
科技前沿进展每日见合法的配资公司
加杠网提示:文章来自网络,不代表本站观点。