Qwen-Image 模型于8月4日正式开源并全网开放下载,生成的图像可商用,可商用,可商用,重要的事情说3遍!堪称开源图模新天花板,中文渲染能力堪比Seedream!并且ComfyUI官方也在第一时间支持并提供comfyui量化版本下载!且社区也有多个GGUF量化版供更低显存用户使用!
Qwen-Image大模型简介
它不仅能画画,还能写字且写得好看!文字排版能力堪比 Seedream 系列,支持中文,能控制构图,还能融合图像内容,真正做到了“图文一体”。

Qwen-Image 模型亮点:
- 中文可写、可排、可控
- 自动润色提示词,不会写 prompt 也能出好图
- 多比例构图完美支持,适配各种平台需求
Qwen-Image 推荐分辨率(比例)一览:
- 横图封面:1664×928(16:9)
- 内容卡片:1472×1140(4:3)
- 方图首图:1328×1328(1:1)
- 海报竖排:1140×1472(3:4)
- 竖屏封面:928×1664(9:16)
Qwen-Image 适合场景:
- 节日KV / 商业海报 / 视频封面
- 广告主图 / 电商Banner / 字体设计
- 社交平台内容创作(图+文一体)
Qwen-Image大模型配置要求
官方原生Qwen-Image大模型需要24G显存以上才能运行!但是comfyui官方已提供支持,fp8量化版12G显存就能运行!且社区也提供了GGUF量化版本,最低6G显存就可以尝试!
本人RTX3060 12G显卡,处理器i5-12400f,内存32G,跑fp8量化版无压力,只是出图稍慢,1328×1328分辨率出图大概需要7~10分钟左右。
我使用的模型:
主模型:qwen_image_fp8_e4m3fn.safetensors (文件大小20.43GB)
Text Encoder:qwen_2.5_vl_7b_fp8_scaled.safetensors(文件大小9.38GB)
VAE:qwen_image_vae.safetensors(文件大小253.81MB)
Qwen-Image大模型模型下载
下面根据不同的显存给大家推荐一下对应的模型下载
Qwen-Image官方原版模型下载
官方模型推荐24G及以上显存使用,如果你的显存低于20G,不要轻易尝试官方原版。
主模型文件
ModelScope源:https://modelscope.cn/models/Qwen/Qwen-Image
huggingface源:https://hf-mirror.com/Qwen/Qwen-Image(国内无法访问huggingface,这里已替换为hr-mirror)
文本编码器
ModelScope源:https://modelscope.cn/models/Qwen/Qwen2.5-VL-7B-Instruct/
huggingface源:https://hf-mirror.com/Qwen/Qwen2.5-VL-7B-Instruct(国内无法访问huggingface,这里已替换为hr-mirror)
VAE模型
ModelScope源:https://modelscope.cn/models/Qwen/Qwen-Image/files
huggingface源:https://hf-mirror.com/Qwen/Qwen-Image/tree/main(国内无法访问huggingface,这里已替换为hr-mirror)
Qwen-Image-ComfyUI官方量化版下载
comfyui官方量化版建议12G显存以上使用!
主模型文件要放在models\Stable-diffusion文件夹,这个文件你的可能是diffusion_models,反正就是你大模型存放的文件夹!
文本编码器要放在models\text_encoders文件夹
VAE模型要放在models\vae文件夹
ModelScope源:https://modelscope.cn/models/Comfy-Org/Qwen-Image_ComfyUI/files
hr-mirror源:https://hf-mirror.com/Comfy-Org/Qwen-Image_ComfyUI/tree/main
请选择对应的文件夹下载对应的文件,注意12G显存请务必只下载qwen_image_fp8_e4m3fn.safetensors(20.4G)这个最小的主模型,下载40.9G那个一定会爆显存,不要尝试无意义,你跑不动!文本编码器下载qwen_2.5_vl_7b_fp8_scaled.safetensors。
Qwen-Image社区GGUF量化版下载
主模型文件
ModelScope源:https://modelscope.cn/models/city96/Qwen-Image-gguf/files
hr-mirror源:https://hf-mirror.com/city96/Qwen-Image-gguf
6G和8G显存下载qwen-image-Q2_K.gguf这个最小的模型进行尝试,如果可运行,再尝试Q3_K。如果不行,不要继续无意义的尝试!12G及以上显存可尝试Q8_0.gguf,出图效果可能比comfyui量化版fp8更好!
下图左侧为fp8版出图,右侧为Q4_K_M版出图,Q8_0版出图也跟右侧接近。都是在同样的提示词和参数下生成的。大家可以参考!

文本编码器(放在models\text_encoders文件夹)
ModelScope源:https://modelscope.cn/models/unsloth/Qwen2.5-VL-7B-Instruct-GGUF/files
hr-mirror源:https://hf-mirror.com/unsloth/Qwen2.5-VL-7B-Instruct-GGUF/tree/main
上面的文件分标准量化和极端量化,极端量化模型极限压缩,用于超低显存或边缘设备。需要 特定版本的 llama.cpp 支持。 不推荐常规使用,除非你真的显存/内存吃紧。出图也毫无质量可言,所以聊胜于无。
6G和8G显存先下载标准量化中的Q2_K.gguf这个最小的模型进行尝试,如果可运行,再尝试Q3_K。如果不行,不要继续无意义的尝试!12G及以上显存可尝试Q8_0.gguf,出图效果可能比comfyui量化版fp8更好!
VAE模型(放在models\vae文件夹)
ModelScope源:https://modelscope.cn/models/Comfy-Org/Qwen-Image_ComfyUI/files
hr-mirror源:https://hf-mirror.com/Comfy-Org/Qwen-Image_ComfyUI/tree/main/split_files/vae
Qwen-Image-ComfyUI工作流下载
下载地址:https://www.123684.com/s/BYzrVv-XL5A3?pwd=yx8S提取码:yx8S
Qwen-Image使用感受
目前尝试来看效果挺不错,尤其支持输出中文文字这块,堪称开源模型天花板。上面给大家提供了不同版本模型的下载,找准你的配置下载对应的模型,除此之外还有一点非常重要,那就是你的内存一定要足够!如果你显存达到了,内存不行也是运行不起来的!最小量化版推荐16G以上内存,而fp8及Q8_0版则推荐32G以上内存,否则运行不起来,你会抓狂的!