Z-Image很稳,低显存GGUF模型和工作流!

看来大家还是挺喜欢 Z-Image 的。

z-image_00069_

我就在为低配电脑,低显存用户努力一把!分享一个低显存的 GGUF 工作流,6G显卡来挑战一下啊!

GGUF 是一种专门给本地大模型(LLM)做压缩和加速的文件格式,让模型可以在 更小的显存 / 内存 下运行,尤其适用于:

  • Windows / macOS / Linux 本地推理
  • CPU 运行(非常强)
  • 小显存 GPU(4GB、8GB、12GB)

这次主要是需要用到下面两个项目:

https://huggingface.co/jayn7/Z-Image-Turbo-GGUF

https://huggingface.co/unsloth/Qwen3-4B-GGUF/

最核心的 Z-Image-Turbo-GGUF 这个项目的模型。

从这里下载一个模型,我一般从性价比角度会选 Q4_K_M 模型,这个模型的体积只有 Z-Image 官方模型的一半,比 FP8 也要小很多。另外会用到一个 Qwen-4B 的 CLIP 模型,可以从另外一个网址中获取。

不同模型生成的效果图如下:

从对比图来看,不同量化模型,差别不是很大。即便是最小的 Q3 图片也没有崩。所以用 GGUF 模型,对结果并不会有太大的负面作用,可以放心使用。当然硬件允许,追求质量,就用官方原版模型。

根据自己的情况下载一个尺寸合适的模型,然后从另外一个地址下载一个 Qwen3-4B-GGUF 的模型。这样模型就准备好了。

接下来可以启动软件。

安装一下 GGUF 的节点插件。

GGUF 模型,必须要专门的 GGUF 节点,所以需要安装一下节点插件。

安装完成之后,重启软件打开 GGUF 工作流。直接点击运行就可以了。

从实际情况来看,如果你不是特别敏锐,很难看出差别。非常好!

另外昨天的工作流有人反馈了一个问题:无法更换提示词。

就是修改提示词之后无效,非常奇怪。我测试了 image_z_image_turbo.json 这个工作流,确实有这个问题。然后进入子图修改之后,可以正常工作。刚开始我怀疑是子图的问题,但是后来发现好像和 Nodes 2.0 有关。

目前来看,还是关闭 Nodes 2.0,不用子图比较稳妥。为了避免“子图”的困扰,我单独做了一个完整的工作流。

另外,昨天有人在 1070 上成功运行了 FP8 的工作流,而有人反馈 8G 跑不起来。

我怀疑显存不够的情况下和内存大小也有很大的关系。

而今天 GGUF 工作流,把里面两个最消耗内存显存的模型都换成了 GGUF 模型。

理论上来说肯定是会比昨天的工作流消耗的显存更少!昨天跑不起来的,可以测试一下新的工作流,如果还是有压力,可以把里面的 Q4 换成 Q3 或者 Q2。

最后,我会把新工作流和模型放到网盘里,获取方式和上一篇中提到的一样。

大家运行完成之后,可以分享一下能不能跑,跑得快不快。最好带上显卡型号,显存,出图时间等信息!

Z-Image YYDS ,很稳!

 

小尾巴==========================
公众号:托尼不是塔克
交流群
知识星球
==============================

 



发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注