Runway 发布第三代视频生成模型,90 秒生成 10 秒片段
哈迈百科附 Gen-3 Alpha 官方网站:https://runwayml.com/blog/introducing-gen-3-alpha/
Runway 表示,与其之前的旗舰视频模型 Gen-2 相比,该模型在生成速度和保真度方面有了“重大”改进,并且对生成视频的结构、风格和运动提供了细粒度的控制。Gen-3 将在未来几天内向 Runway 订阅用户提供,包括企业客户和 Runway 创意合作伙伴计划中的创作者。
Runway 联合创始人 Anastasis Germanidis 表示,Gen-3 的视频生成时间明显快于 Gen-2。生成一个 5 秒的片段需要 45 秒,生成一个 10 秒的片段需要 90 秒。
Runway 表示,Gen-3 Alpha 有以下特点:
高保真视频:可生成接近真实世界质量的视频内容,具有足够的细节和清晰度。
精细动作控制:模型能够精确控制视频对象的动作和过渡,实现复杂场景的流畅动画。
逼真人物生成:可生成具有自然动作、表情和情感的逼真人类角色。
多模态输入:支持文字转视频、图像转视频、文字转图像等多种创作方式。
专业创作工具:支持运动画笔、相机控制和导演模式等专业创作工具。
增强安全:引入新的内部视觉审核系统和 C2PA 标准,确保内容的安全性和可靠性。
高质量训练:使用高描述性的、时间密集的字幕进行训练,使模型能够理解和生成具有丰富时间动态的视频。