技术深度解析
Sora的技术架构是扩散Transformer(DiT)范式的一次复杂演进,并将其在视频领域扩展到了前所未有的规模。与在二维潜在空间操作的图像扩散模型不同,Sora需要对三维时空潜在表征进行建模。这是通过一种新颖的时空潜在分块化过程实现的。原始视频数据使用专门为视频训练的变分自编码器(VAE)压缩到低维潜在空间,然后分解为一系列时空块。这些块被视作令牌,输入到一个巨大的Transformer模型中进行去噪。
其核心创新在于对时间一致性的处理。虽然像Runway的Gen-2或Pika Labs这样的模型常常在长序列中为物体持久性和连贯运动而挣扎,但Sora采用了具有扩展上下文窗口的因果注意力机制,跨越时间维度。这使得模型能够保持角色身份、遵循基本物理规律(如物体轨迹),并确保跨帧的光照一致性。OpenAI研究人员的研究论文,例如关于视频预训练(VPT)的论文,暗示了使用针对视频量身定制的大规模人类反馈强化学习(RLHF),很可能使用了一个对时间平滑度和随时间推移的提示遵循度进行评分的奖励模型。
然而,这种技术实力是以高昂的代价换来的。训练一个像Sora这样复杂的模型,需要处理PB级的视频数据,消耗数十万GPU小时。推理同样负担沉重;生成单个一分钟的高清视频,很可能需要在最先进的AI加速器集群上花费数分钟的处理时间,这使得实时或大批量生成的成本高得令人望而却步。
| 模型/项目 | 核心架构 | 最大输出长度 | 关键技术挑战 | 推测训练规模(GPU小时) |
|---|---|---|---|---|
| OpenAI Sora | 扩散Transformer(时空) | ~60秒 | 长时程时间连贯性与物理建模 | 50,000-100,000+(H100等效) |
| Runway Gen-2 | 级联扩散模型 | ~4秒 | 帧间闪烁抑制 | 10,000-20,000 |
| Google Lumiere | 时空U-Net | ~5秒 | 真实、多样的运动生成 | 15,000-30,000 |
| Stable Video Diffusion | 潜在视频扩散 | ~4秒 | 开源、可微调的基础模型 | 5,000-10,000 |
数据要点: 上表揭示了输出长度/复杂性与推测计算成本之间的 stark 相关性。Sora生成长格式、连贯视频的雄心,使其在资源需求上处于不同的数量级,这构成了产品化的根本经济壁垒,而较短格式的模型部分地避免了这一点。
相关的开源探索在这一领域仍在继续,尽管规模要小得多。GitHub上的Stable Video Diffusion仓库(stability-ai/stable-video-diffusion)为图像到视频提供了一个基础模型,并经历了大量的社区微调。另一个值得注意的项目是阿里巴巴的ModelScope,它托管了多个视频生成模型,尽管没有一个能达到Sora宣称的能力。这些项目凸显了社区在应对成本与连贯性等核心挑战的同时,对该技术的追求。
关键参与者与案例研究
Sora的关闭极大地重塑了AI视频生成的竞争格局。它创造了一个战略真空,其他参与者在目睹了全力冲刺长视频真实感所面临的陷阱后,正谨慎地探索前行。
Runway ML采取了一种明确的务实、以产品为中心的方法。Runway没有追逐单一的庞然大物模型,而是构建了一套集成到专业创意工作流中的专用工具套件(Gen-1用于风格迁移,Gen-2用于文本到视频)。他们的策略强调迭代式、用户可控的编辑——允许艺术家生成、遮罩和重新生成视频的特定部分——这缓解了一些连贯性问题,并为广告和设计提供了直接的商业效用。
Pika Labs凭借用户友好的界面和强大的Discord社区,在较短、风格化的片段领域开辟了一片天地。他们最近发布的Pika 1.0改进了运动质量,但仍专注于3秒以下的输出,这是一个有意识的限制,既保持了计算成本的可控性,也因输出简短而略微降低了滥用风险。
谷歌的Lumiere在Sora关闭前几个月通过一篇研究论文公布,它引入了一种“时空U-Net”,能够一次性生成视频的整个时间长度,而非顺序生成。这更高效地解决了全局时间一致性问题。然而,谷歌在将Lumiere作为产品发布方面表现得异常谨慎,很可能正在进行广泛的伦理和安全评估。