早期的 AI 绘图或许只是作为娱乐用途而存在,但如今,AI 绘图的水平已经发展到了真假难辨的程度。众多自媒体从业者、某宝商家,就连设计公司也纷纷开始使用 AI 来取代传统设计公司、美工以及常规的作图软件。这其中的原因,除了成本降低之外,AI 还拥有几乎无穷无尽的创意生成能力,而且能够有效避免许多潜在的图片版权问题。更值得一提的是,即便是普通大众,也可以运用 AI 把自己脑海中的形象或者场景创作出来,从而在 AI 时代成为一名创作者
这里我隆重向大家推荐StableDiffusion作为学习ai绘画的载体,StableDiffusion不是一个具体的开箱即用的产品,它是一个开源的AI绘画模型,采用了最先进的深度学习技术,能够将文本转化为高质量图像,所有代码都在 GitHub 上开源,比其他软件的优势也在这里,因为开源的原因,不仅免费不说,而且具有相当巨大的用户使用群体和应用社区,各种模型以及功能强大的插件,可以说是应有尽有,任何人都可以通过免费下载并在本地电脑上进行部署,体验图像生成创作的乐趣(当然,前提是你的电脑需要一个强大的GPU)。或者您也可以使用算网云,该网站提供云端部署SD的解决方案,可以不用费时费力的在本地部署SD,毕竟sd的安装对新人来说不是太友好,网址:https://www.aicpn.cn/本教程的使用是建立在使用算网云提供的sdcomfyui flux镜像的前提下,废话少说教学开始。
今天来教大家的是SDcomfyui的中一个比较高级的功能,具体来讲是图生视频功能。
首先我们需要上传一个SVD1.1的视频模型,SVD模型模型是一个生成图像到视频的扩散模型,通过对静止图像的条件化生成短视频。模型下载的网址如下:首先使用点击jupyterLabUI,上传路径为:root/ComfyUI/models/checkpoints里用上传功能将模型放置到该文件夹内。
等到下载完成后点击webui进入comfyui界面
一开始是英文的界面,可以通过双击Switch Locale或者刷新界面的方式来将页面汉化
默认的工作流是无法使用SVD模型的,需要新建一个工作流,按清除键将原先的工作流删除。
按右键新建节点,采样器,K采样器
然后点击新建节点,加载器,视频模型,Checkpoint模型,
然后点击新建节点,点击条件,视频模型,SVD_图像到视频_条件。
还需要一个图像加载器,点击新建节点,点击图像,加载图像。
还需要一个VAE解码器,点击新建节点,Latent,VAE解码。
最后要一个预览图像,点击新增节点,图像,预览图像。
这个工作流还有一个优化的空间就是加一个CFG的缩放空间环节,点击新增节点,模型,缩放CFG,这个节点起到的作用是让图像从CLIP到VAE的时候,是视频的效果增强,优化视频的观感体验。
然后按照模型的参数推荐把相关参数设定好,帧数控制在25以内,超过会有一定概率报错,帧率选到9,CFG不能超过3,选择2,采样器选择euler_ancestral,调度器选择karras。参数就设计好了。
将其相连,具体如下:
然后工作流就配置完成了,这边建议不要使用无动作的人像,因为会有较大的概率会抢图片上下左右拉伸,使用场景图效果会好一点。具体效果如下,(他生成的是)
今天的教程到此结束,下次再来教大家sdcomfyui的其他功能。大家下次再见。