Wan2.2 1分钟一个视频正确打开方式,kijai及Comfyorg版同步加速ComfyUI工作流
半相2.2只需要四步,一分钟一个视频。万向2.2发布之后,康复ORG和K甲两个版本都同时进行了支持。对于14B的图声视频和文声视频都是同时需要加载高低两个噪声的模型,通过二阶采样进行升级,同时加载对显存的要求比较高。今天我们就分享正确的提速方式。首先是康复ORG原版的工作流,我已经把加速版的原声视频和图生视频上传到了running hub,大家可以在running hub搜索你们的AI世界,来到我的个人中心,点击在线运行或者是下载工作流在本地运行。看一下官方版的工作流,我们加入了两个加速方案,一个是c attention选择自动模式,一个是light x加速的lora高低噪声的模型分别串入到两个采样器,在采样器部分可以调整的就是采样的部署。
这里我们先以八步为例,如果我们两次采样分别都是八步,那么开始降噪的部署可以选择0到4,也就是前四步进行采样。二阶采样选择4到1万,也就是四步后面的部分进行采样这样的一个配合。同样如果改成4,就是0到22到1万,以此类推。这是我们刚才用八步生成的视频,质量还是非常高的。提示词是一个美丽的女孩在微笑。可以看到第一节采样只用了30秒,第二阶样的用了29秒,加起来一共是一分钟。
分辨率的参数并不是非常低,宽是544,高是720,长度是41帧。一分钟就能生成一个41帧的视频。如果我们是81帧,也就是两分钟的采样就可以生成,速度还是非常快。
同样我们测试一下原声视频的工作流,我们把参数提升宽1280高704,长度调到57帧。提示词是最近VEO3比较火的一个提示词,印着哆啦A梦和logo的箱子爆炸场景装饰的帖子。好设置完成这样高的参数大概用了230秒,四分钟左右可以看到这个效果也是非常好的。一个箱子在爆炸,完成了一个哆啦A梦风格的装修,这是纹身视频。
在今天早晨K甲也更新了它的工作流,同样是高低噪声的模型直接采样示例中直接使用了六步采样,前面是0到3,第二步是分到结束。在加载模型的位置,上面的模型加载器加载高噪声的模型,FP8K加量化版下面加载低噪声的模型,前面同时都串入了使camp sitting和block swap进行分块降低显存的要求。并且在后面都同时串入了艾特SQV的14D加速模型。因为穿入了加速模型,所以后面可以以较低的步数进行快速的升级,可以看到视频的质量非常好。
我们再换一张图片进行测试,仍然挑战我们昨天用5B模型失败的这张图。这个词改成一个女孩在舞蹈,仍然测试41帧。我们主要验证一下K甲版本显存的占用情况,点击执行。如果你下载的加默认的工作流,这里有一个s in code节点的设备,K加默认给的是CPU。如果是CPU这个节点集成速度会非常慢,建议大家把这个位置都调成GPU。
进入到采样环节,我们打开任务管理器可以看到同时下载带2个FP8的模型,使用到的显存只有13GK加量化相对来说占用显存是更少的。好图像生成因为我们做了裁剪,但是可以看到14B它整个人的动作都是非常完美的,几乎没有瑕疵。昨天5B这个视频是崩掉了,我们换一下分辨率改成480乘以720再次测试。这样看来挑战这个高难度的动作用,14B的模型万向2.2是完全OK的。好,采样完成。可以看到当我们不裁剪的情况下,没有出现昨天崩掉的情况。当然我们其实是需要优化提示词的,现在只是一个简单的提示。
整体上来看14B用K加的节点显存占用会比较少,质量也会更高。所以截止到今天更推荐用K加的节点,速度会更快,显存又更少,功能也更加丰富。插件和模型我会放到评论区,欢迎大家点赞支持一下。