Anonymous Intelligence Signal
OmniRoam突破长视频生成瓶颈:全景视频新范式实现轨迹可控漫游
生成式视频技术正面临从“片段”到“长时序”的艰难跨越。当前模型虽能产出高质量短视频,但在生成长时间、可连续演化的视频序列时,视角变化导致的结构漂移与内容不一致问题凸显,视频在时空维度上极易失控,陷入“走着走着就乱了”的困境。与此同时,如何让视频生成具备可控性,能够严格沿指定路径连续移动,已成为从实验室走向实际应用的关键门槛。
近日,由加州大学欧文分校、加州大学圣地亚哥分校、香港城市大学、宾夕法尼亚大学及Adobe Research的研究者联合提出的OmniRoam,为这一难题提供了新解法。该方法通过引入全景视频作为统一表示,并结合从粗到精的分阶段生成框架,在长时序条件下显著提升了视频的空间一致性与时间连贯性。其核心创新在于将相机轨迹拆解为“流向”和“尺度”两个控制量,前者刻画运动方向,后者控制移动幅度,从而实现了对生成路径的清晰建模与精确约束。
这项研究标志着视频生成从“片段生成”迈向“连续过程生成”的关键一步。OmniRoam首先生成一个中等分辨率的全景视频预览以确定整体路径与场景结构,随后在此基础上进行长时序细化,最终生成沿指定轨迹连续演化的高质量视频序列。该技术路径不仅解决了长视频内容漂移的顽疾,其轨迹可控的特性也为影视预览、虚拟漫游、游戏内容生成等实际应用场景开辟了新的可能性。