切换主题
1. Stable Diffusion
Stable Diffusion是一种利用深度学习技术实现的文本到图像生成的AI绘图工具。基于潜在扩散模型(Latent Diffusion Models),通过模拟扩散过程将噪声图像逐渐转化为目标图像,最终生成高质量、高分辨率且多样化的图像。
2. Stable Diffusion WebUI
Stable Diffusion WebUI是一个基于Stable Diffusion模型的Web界面工具,用户可以通过点击按钮和调整参数快速调用Stable Diffusion模型生成图像。Stable Diffusion WebUI提供了多种功能,如如txt2img(文本到图像生成)、img2img(图像到图像转换)、inpaint(图像修复)等,非常适合初次接触AI绘画的人群学习和使用。
3. 绘制第一张图
3.1 启动应用
进入应用中心,选择应用
选择GPU,创建应用
3.2 进入WebUI
应用创建完毕后,会自动跳转到我的应用界面,等待应用启动完毕进入运行中状态以后,点击进入应用
最简单只需要四步即可生成一张图片。
- 模型可以选择:sd15/写实类_麦橘写实majicMIX_realistic_v7.safetensors
- 正向提示词可输入:1girl
- 反向提示词可以为空
- 点击生成按钮
根据以上四步,可以生成一张图片。
以上是AI生成一张图的最基础的操作,在后边的内容我们将会详细介绍WebUI中的其他内容。
4. 基础参数
4.1 选择模型
4.1.1 模型类型
决定了模型的使用方式和效果,如:Checkpoint、Lora等
Checkpoint是深度学习中常用的一个术语,用于描述在每次训练后保存模型参数(权重)的惯例。类似于游戏中保存关卡的功能,Checkpoint允许我们在训练过程中保存模型的状态,以便之后可以加载这些保存的参数并继续训练或进行推理,后缀是safetensors。Checkpoint文件的大小一般为2GB到5GB左右不等,最新的Flux模型达到了22GB。
Lora是一种体积较小的绘画模型,是对大模型的微调。与每次作画只能选择一个大模型不同,lora模型可以在已选择大模型的基础上添加一个甚至多个。一般体积在几十到几百兆左右。后缀也是safetensors
4.1.2 底模版本
决定了底层的模型内容、生图质量和生图速度等,如:SD1.5、SDXL、Flux等。在日常使用中,需要区分底模的版本,例如基于SDXL大模型生成的Lora只能配合SDXL模型使用,不能用于SD1.5模型的生图。生图质量上FLUX > SDXL > SD1.5,生图质量越高,对显卡显存要求也就越高,生图速度相对也会变慢。
4.1.3 模型下载
模型可以从一些社区网站下载,比如C站(需要科学上网,网址:https://civitai.com/),或者从平台**模型中心**直接下载到应用。
从C站下载模型基本流程如下:
点击某个模型进行详情页,下载模型
将下载模型上传到应用中,根据模型类型点击快捷按钮,上边演示下载的是Checkpoint模型,点击Checkpoint目录进入模型文件夹
根据底膜版本上传到指定目录下,方便使用和管理
平台模型库
一键下载到应用中,速度飞起~。更多信息请查阅文档《平台工具—模型中心》
4.1.4 上传模型
模型下载完以后