卓特视觉
AI生成视频

Qwen-Image开源,ComfyUI官方已支持,最低6G显存可运行,8G、12G显存无压力跑图模型和工作流下载!

Qwen-Image 模型于8月4日正式开源并全网开放下载,生成的图像可商用,可商用,可商用,重要的事情说3遍!堪称开源图模新天花板,中文渲染能力堪比Seedream!并且ComfyUI官方也在第一时间支持并提供comfyui量化版本下载!且社区也有多个GGUF量化版供更低显存用户使用!

Qwen-Image大模型简介

它不仅能画画,还能写字且写得好看!文字排版能力堪比 Seedream 系列,支持中文,能控制构图,还能融合图像内容,真正做到了“图文一体”。

Qwen-Image开源,ComfyUI官方已支持,最低6G显存可运行,8G、12G显存无压力跑图模型和工作流下载!

Qwen-Image 模型亮点:

  • 中文可写、可排、可控
  • 自动润色提示词,不会写 prompt 也能出好图
  • 多比例构图完美支持,适配各种平台需求

Qwen-Image 推荐分辨率(比例)一览:

  • 横图封面:1664×928(16:9)
  • 内容卡片:1472×1140(4:3)
  • 方图首图:1328×1328(1:1)
  • 海报竖排:1140×1472(3:4)
  • 竖屏封面:928×1664(9:16)

Qwen-Image 适合场景:

  • 节日KV / 商业海报 / 视频封面
  • 广告主图 / 电商Banner / 字体设计
  • 社交平台内容创作(图+文一体)

Qwen-Image大模型配置要求

官方原生Qwen-Image大模型需要24G显存以上才能运行!但是comfyui官方已提供支持,fp8量化版12G显存就能运行!且社区也提供了GGUF量化版本,最低6G显存就可以尝试!

本人RTX3060 12G显卡,处理器i5-12400f,内存32G,跑fp8量化版无压力,只是出图稍慢,1328×1328分辨率出图大概需要7~10分钟左右。

我使用的模型:

主模型:qwen_image_fp8_e4m3fn.safetensors  (文件大小20.43GB)

Text Encoder:qwen_2.5_vl_7b_fp8_scaled.safetensors(文件大小9.38GB)

VAE:qwen_image_vae.safetensors(文件大小253.81MB)

Qwen-Image大模型模型下载

下面根据不同的显存给大家推荐一下对应的模型下载

Qwen-Image官方原版模型下载

官方模型推荐24G及以上显存使用,如果你的显存低于20G,不要轻易尝试官方原版。

主模型文件

ModelScope源:https://modelscope.cn/models/Qwen/Qwen-Image

huggingface源:https://hf-mirror.com/Qwen/Qwen-Image(国内无法访问huggingface,这里已替换为hr-mirror)

文本编码器

ModelScope源:https://modelscope.cn/models/Qwen/Qwen2.5-VL-7B-Instruct/

huggingface源:https://hf-mirror.com/Qwen/Qwen2.5-VL-7B-Instruct(国内无法访问huggingface,这里已替换为hr-mirror)

VAE模型

ModelScope源:https://modelscope.cn/models/Qwen/Qwen-Image/files

huggingface源:https://hf-mirror.com/Qwen/Qwen-Image/tree/main(国内无法访问huggingface,这里已替换为hr-mirror)

Qwen-Image-ComfyUI官方量化版下载

comfyui官方量化版建议12G显存以上使用!

主模型文件要放在models\Stable-diffusion文件夹,这个文件你的可能是diffusion_models,反正就是你大模型存放的文件夹!

文本编码器要放在models\text_encoders文件夹

VAE模型要放在models\vae文件夹

ModelScope源:https://modelscope.cn/models/Comfy-Org/Qwen-Image_ComfyUI/files

hr-mirror源:https://hf-mirror.com/Comfy-Org/Qwen-Image_ComfyUI/tree/main

请选择对应的文件夹下载对应的文件,注意12G显存请务必只下载qwen_image_fp8_e4m3fn.safetensors(20.4G)这个最小的主模型,下载40.9G那个一定会爆显存,不要尝试无意义,你跑不动!文本编码器下载qwen_2.5_vl_7b_fp8_scaled.safetensors

Qwen-Image社区GGUF量化版下载

主模型文件

ModelScope源:https://modelscope.cn/models/city96/Qwen-Image-gguf/files

hr-mirror源:https://hf-mirror.com/city96/Qwen-Image-gguf

6G和8G显存下载qwen-image-Q2_K.gguf这个最小的模型进行尝试,如果可运行,再尝试Q3_K。如果不行,不要继续无意义的尝试!12G及以上显存可尝试Q8_0.gguf出图效果可能比comfyui量化版fp8更好!

下图左侧为fp8版出图,右侧为Q4_K_M版出图,Q8_0版出图也跟右侧接近。都是在同样的提示词和参数下生成的。大家可以参考!

Qwen-Image开源,ComfyUI官方已支持,最低6G显存可运行,8G、12G显存无压力跑图模型和工作流下载!

文本编码器(放在models\text_encoders文件夹)

ModelScope源:https://modelscope.cn/models/unsloth/Qwen2.5-VL-7B-Instruct-GGUF/files

hr-mirror源:https://hf-mirror.com/unsloth/Qwen2.5-VL-7B-Instruct-GGUF/tree/main

上面的文件分标准量化极端量化,极端量化模型极限压缩,用于超低显存或边缘设备。需要 特定版本的 llama.cpp 支持。 不推荐常规使用,除非你真的显存/内存吃紧。出图也毫无质量可言,所以聊胜于无。

6G和8G显存先下载标准量化中的Q2_K.gguf这个最小的模型进行尝试,如果可运行,再尝试Q3_K。如果不行,不要继续无意义的尝试!12G及以上显存可尝试Q8_0.gguf出图效果可能比comfyui量化版fp8更好!

VAE模型(放在models\vae文件夹)

ModelScope源:https://modelscope.cn/models/Comfy-Org/Qwen-Image_ComfyUI/files

hr-mirror源:https://hf-mirror.com/Comfy-Org/Qwen-Image_ComfyUI/tree/main/split_files/vae

Qwen-Image-ComfyUI工作流下载

下载地址:https://www.123684.com/s/BYzrVv-XL5A3?pwd=yx8S提取码:yx8S

Qwen-Image使用感受

目前尝试来看效果挺不错,尤其支持输出中文文字这块,堪称开源模型天花板。上面给大家提供了不同版本模型的下载,找准你的配置下载对应的模型,除此之外还有一点非常重要,那就是你的内存一定要足够!如果你显存达到了,内存不行也是运行不起来的!最小量化版推荐16G以上内存,而fp8及Q8_0版则推荐32G以上内存,否则运行不起来,你会抓狂的!

© 版权声明

相关文章