SD视频生成模型来了,Stable Video Diffusion代码权重已上线
Stable Video Diffusion是由Stability AI开发的视频生成模型,它基于Stable Diffusion,并在AI社区中引起了很大的关注。该模型允许用户使用静态图像作为输入生成几秒钟的短视频。Stable Video Diffusion是少数几个开源或商业可用的视频生成模型之一。尽管目前还不是所有人都可以使用,但感兴趣的用户可以加入等待列表以获取访问权限。
根据Stability AI的介绍,Stable Video Diffusion可以轻松适应各种下游任务,包括通过对多视图数据集进行微调从单个图像进行多视图合成。该公司计划建立和扩展基于稳定扩散的各种模型,并围绕它构建一个生态系统。
该模型以两种形式发布,可以生成每秒3到30帧之间可定制帧率的14帧或25帧视频。
Stability AI进行的外部评估证实,Stable Video Diffusion在用户偏好研究中超越了领先的闭源模型。然而,Stability AI强调当前阶段Stable Video Diffusion不适用于现实世界或直接的商业应用,他们将根据用户对安全性和质量的见解和反馈来改进该模型。
原文:https://www.jiqizhixin.com/articles/2023-11-22-11
页:
[1]