FramePack是一个创新的视频扩散生成框架,它采用了独特的下一帧预测神经网络结构,可逐步生成视频。通过压缩输入帧将上下文长度固定,使生成工作量与视频长度解耦。它能在仅6GB显存的GPU上处理上千帧视频,使用13B模型实现高效生成,生成速度在RTX 4090上可达1.5秒/帧。FramePack支持PyTorch、xformers等多种注意力机制。
最近一年贡献:23 次
最长连续贡献:1 日
最近连续贡献:1 日
贡献度的统计数据包括代码提交、创建任务 / Pull Request、合并 Pull Request,其中代码提交的次数需本地配置的 git 邮箱是 Gitee 帐号已确认绑定的才会被统计。