AI绘画:SDXL版ControlNet模型和使用方法!

SDXL是目前最强的AI绘画基础模型,直接加载模型,就可以生成不错的效果。但是它有一个致命的问题,就是不支持ControlNet。

在AI绘画中,ControlNet是一个非常重要的工具。有了它,就可以生成更加可控精准的图片。ControlNet的用途非常多,比如,控制人物姿势、线稿上色、动漫变真人、艺术二维码,光影字、ailogo…

好消息是,SDXL终于也支持了Controlnet。虽然只有一个canny模型,但是至少是能用了。

下面来看一下效果:

提示词: ultrarealistic shot of a furry blue bird

我自己尝试的效果:

随手拿了一张之前生成的图片,然后用Controlnet生成了一下。对比一下,细节控制得挺不错。

下面就具体地说一下,如何在ComfyUI中使用Controlnet。

 

1.准备工作

首选需要安装好ComfyUI软件,然后确保SDXL基础模型放在指定的路径

这一步不会的可以参考之前的文章。

 

2. 获取模型

获取ControlNet的Canny模型,并放到指定的路径。

3. 准备图片

准备一张测试图片

这是我之前用SDXL生成的一张line风格的图片。这次就用这张图片来做演示。

选图片的时候,最好是直接选线稿这样稳定一些,当然用普通图片也是可以滴。

 

4. 加载工作流

ComfyUI其实挺好用,但是对于不太熟悉的人,自己来创建工作流难度还是比较大。快速体验的最好方式是,直接使用别人创建好的工作流配置文件。

双击run_nvidia_gpu.bat启动软件之后。

只需要把这个叫做sdxl_controlnet_canny.json的文件拖动到浏览器上就可以了。

然后就可以看到这样的流程图了。

5. 运行测试

加载工作流之后,稍微设置一下就可以出图了。

首先是设置一下基础模型,确保是图片中的模型。

然后是设置Controlnet模型和上传参考图片。

然后是改一下提示词。

另外修改一下像素为1024×1024。

万事俱备,最后只要点击一下”Queue Prompt”,然后等待图片生成了。

可以对比,原图和生成的图片,是不是完全一张的姿势。具体的效果的话,和提示词以及风格有关。

第一次出图会比较慢,因为需要很长的时间去加载巨大的模型。加上多了一个巨大的Controlnet模型,需要一点耐心。

我以前用SDXL生成过不同的风格图片,但是按以前的方式,每张图片除了风格不同之外,形态也完全不同。现在用了ControlNet就可以生成形态相同,不同风格的图片了。

这匹马,蹄子有点多…哈哈~~

SDXL的ControlNet使用方法大概就是这样,具体的创作就留给大家了!

给公众“托尼不是塔克”:

发送“comfyui” 获取软件和工作流文件。

发送sdxl可以去基础模型和ControlNet模型。

 

小尾巴==========================
公众号:托尼不是塔克
交流群
知识星球
==============================

 



发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注