稳定的 Diffusion 网页用户界面
使用 Gradio 库实现的稳定扩散的 Web 界面。
特征
带有图片的详细功能展示:
- 原始的 txt2img 和 img2img 模式
- 一键安装并运行脚本(但您仍然必须安装 python 和 git)
- 超越绘画
- 修复
- 彩色素描
- 提示矩阵
- 稳定扩散高档
- 注意,指定模型应该更加关注的文本部分 - 穿燕尾服的男人
((tuxedo))
会更加注意- 一个男人在(tuxedo:1.21)
-替代语法- 选择文本并按Ctrl+Up
或Ctrl+Down
(如果您使用的是 MacOS,则按Command+Up
或)自动将注意力调整到选定的文本(代码由匿名用户贡献)Command+Down
- 回环,多次运行img2img处理
- X/Y/Z 图,一种绘制具有不同参数的图像三维图的方法
- 文本倒装 - 可以有任意数量的嵌入,并使用任何你喜欢的名字- 每个 token 使用多个不同数量的向量- 使用半精度浮点数- 在 8GB 上训练嵌入(也有报告称 6GB 也可以工作)
- 附加选项卡包含: - GFPGAN,修复面部的神经网络- CodeFormer,作为GFPGAN替代品的人脸修复工具- RealESRGAN,神经网络升频器- ESRGAN,具有大量第三方模型的神经网络升级器- SwinIR 和 Swin2SR(参见此处),神经网络升级器- LDSR,潜在扩散超分辨率升级
- 调整宽高比选项
- 采样方法选择 - 调整采样器 eta 值(噪声乘数)- 更高级的噪音设置选项
- 随时中断处理
- 支持 4GB 显卡(也有报告称 2GB 显卡也可以工作)
- 批次正确的种子
- 实时提示令牌长度验证
- 生成参数 - 用于生成图像的参数与该图像一起保存- 对于 PNG,以 PNG 块为单位;对于 JPEG,以 EXIF 为单位- 可以将图像拖拽到 PNG 信息选项卡来恢复生成参数并自动复制到 UI 中- 可以在设置中禁用- 将图像/文本参数拖放到提示框
- 读取生成参数按钮,将提示框中的参数加载到UI
- 设置页面
- 从 UI 运行任意 Python 代码(必须运行才能
--allow-code
启用) - 大多数 UI 元素的鼠标悬停提示
- 可以通过文本配置更改 UI 元素的默认值/混合值/最大值/步长值
- 平铺支持,通过复选框创建可以像纹理一样平铺的图像
- 进度条和实时图像生成预览 - 可以使用单独的神经网络来生成预览,几乎不需要 VRAM 或计算
- 负面提示,一个额外的文本字段,允许您列出您不想在生成的图像中看到的内容
- 样式,一种保存部分提示并稍后通过下拉菜单轻松应用它们的方法
- 变体,一种生成相同图像但有细微差别的方法
- 种子调整大小,一种生成相同图像但分辨率略有不同的方法
- CLIP 询问器,一个试图从图像中猜测提示的按钮
- 提示编辑,一种在生成过程中改变提示的方法,比如开始制作西瓜,中途切换到动漫女孩
- 批处理,使用 img2img 处理一组文件
- Img2img 交叉注意力控制的替代、逆欧拉方法
- Highres Fix,一种便捷选项,只需单击一下即可生成高分辨率图片,且不会出现常见的失真
- 动态重新加载检查点
- 检查点合并,此选项卡可让您将最多 3 个检查点合并为一个
- 具有来自社区的许多扩展的自定义脚本
- Composable-Diffusion,一种同时使用多个提示的方法 - 使用大写字母分隔提示
AND
- 还支持提示的权重:a cat :1.2 AND a dog AND a penguin :2.2
- 提示没有令牌限制(原始稳定扩散允许您使用最多 75 个令牌)
- DeepDanbooru 集成,为动漫提示创建 danbooru 风格标签
- xformers,选定卡的速度大幅提升:(添加
--xformers
到命令行参数) - 通过扩展:历史记录选项卡:在用户界面中方便地查看、指导和删除图像
- 永久生成选项
- 培训选项卡 - 超网络和嵌入选项- 预处理图像:裁剪、镜像、使用 BLIP 或 deepdanbooru 自动标记(用于动漫)
- 剪辑跳过
- 超网络
- Loras(与 Hypernetworks 相同,但更漂亮)
- 一个单独的 UI,您可以在其中预览选择要添加到提示中的嵌入、超网络或 Loras
- 可以选择从设置屏幕加载不同的 VAE
- 进度条中显示预计完成时间
- API
- 支持RunwayML 的专用修复模型
- 通过扩展:美学渐变,一种通过使用剪辑图像嵌入来生成具有特定美学效果的图像的方法(https://github.com/vicgalle/stable-diffusion-aesthetic-gradients的实现)
- 稳定 Diffusion 2.0支持 - 请参阅wiki了解说明
- Alt-Diffusion支持 - 请参阅wiki了解说明
- 现在没有任何坏信了!
- 以 safetensors 格式加载检查点
- 放宽分辨率限制:生成的图像的尺寸必须是 8 的倍数,而不是 64 的倍数
- 現在有許可了!
- 从设置屏幕重新排序 UI 中的元素
- Segmind 稳定扩散支持
安装与运行
确保满足所需的依赖关系并按照以下说明进行操作:
- NVidia(推荐)
- AMD GPU。
- 英特尔 CPU、英特尔 GPU(集成和独立)(外部 wiki 页面)
- Ascend NPU(外部维基页面)
或者,使用在线服务(如 Google Colab):
- 网上服务列表
使用发布包在带有 NVidia-GPU 的 Windows 10/11 上进行安装
sd.webui.zip
从v1.0.0-pre下载并提取其内容。- 跑步
update.bat
。 - 跑步
run.bat
。
有关更多详细信息,请参阅Install-and-Run-on-NVidia-GPUs
在 Windows 上自动安装
- 安装Python 3.10.6(较新版本的Python不支持torch),选中“将Python添加到PATH”。
- 安装git。
- 下载 stable-diffusion-webui 存储库,例如通过运行
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
。 webui-user.bat
以普通、非管理员、用户身份从 Windows 资源管理器运行。
Linux 上的自动安装
- 安装依赖项:
# Debian-based:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# Red Hat-based:
sudo dnf install wget git python3 gperftools-libs libglvnd-glx
# openSUSE-based:
sudo zypper install wget git python3 libtcmalloc4 libglvnd
# Arch-based:
sudo pacman -S wget git python3
如果你的系统很新,你需要安装python3.11或者python3.10:
# Ubuntu 24.04
sudo add-apt-repository ppa:deadsnakes/ppa
sudo apt update
sudo apt install python3.11
# Manjaro/Arch
sudo pacman -S yay
yay -S python311 # do not confuse with python3.11 package
# Only for 3.11
# Then set up env variable in launch script
export python_cmd="python3.11"
# or in webui-user.sh
python_cmd="python3.11"
- 导航到您想要安装 webui 的目录并执行以下命令:
wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh
或者直接将 repo 克隆到你想要的任何位置:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
- 跑步
webui.sh
。 - 检查
webui-user.sh
选项。
在 Apple Silicon 上安装
在此处查找说明。
贡献
以下是如何将代码添加到此仓库:贡献
文档
该文档已从本 README 移至项目的wiki。
为了让 Google 和其他搜索引擎抓取该 wiki,这里提供了可抓取的 wiki链接(非人类可抓取)。
致谢
借用代码的许可证可以在
Settings -> Licenses
屏幕上找到,也可以在
html/licenses.html
文件中找到。
- 稳定扩散- https://github.com/Stability-AI/stablediffusion,https://github.com/CompVis/taming-transformers,https://github.com/mcmonkey4eva/sd3-ref
- k-扩散 - https://github.com/crowsonkb/k-diffusion.git
- 拱肩 - https://github.com/chaiNNer-org/spandrel实现 - GFPGAN - https://github.com/TencentARC/GFPGAN.git- CodeFormer- https: //github.com/sczhou/CodeFormer- ESRGAN - https://github.com/xinntao/ESRGAN- SwinIR—— https://github.com/JingyunLiang/SwinIR- Swin2SR—— https://github.com/mv-lab/swin2sr
- LDSR—— https://github.com/Hafiidz/latent-diffusion
- MiDaS- https: //github.com/isl-org/MiDaS
- 优化思路 - https://github.com/basujindal/stable-diffusion
- 交叉注意力层优化 - Doggettx - https://github.com/Doggettx/stable-diffusion,原始想法用于快速编辑。
- 交叉注意力层优化 - InvokeAI,lstein - https://github.com/invoke-ai/InvokeAI(原http://github.com/lstein/stable-diffusion)
- 亚二次交叉注意力层优化 - Alex Birch(Birch-san/diffusers#1)、Amin Rezaei(https://github.com/AminRezaei0x443/memory-efficient-attention)
- 文本反转 - Rinon Gal - https://github.com/rinongal/textual_inversion(我们没有使用他的代码,但我们使用了他的想法)。
- SD 高档的想法 - https://github.com/jquesnelle/txt2imghd
- 用于 outpainting mk2 的噪声生成 - https://github.com/parlance-zz/g-diffuser-bot
- CLIP 询问器的想法和借用一些代码 - https://github.com/pharmapsychotic/clip-interrogator
- 可组合扩散的想法 - https://github.com/energy-based-model/Compositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch
- xformers- https: //github.com/facebookresearch/xformers
- DeepDanbooru - 动漫扩散器的询问器https://github.com/KichangKim/DeepDanbooru
- 从 float16 UNet 中以 float32 精度进行采样 - marunine 提出这个想法,Birch-san 提供扩散器实现示例(https://github.com/Birch-san/diffusers-play/tree/92feee6)
- 指导 pix2pix - Tim Brooks(星星)、Aleksander Holynski(星星)、Alexei A. Efros(无星星) - https://github.com/timothybrooks/instruct-pix2pix
- 安全建议 - RyotaK
- UniPC 采样器 - Wenliang Zhu - https://github.com/wl-zhao/UniPC
- TAESD - Ollin Boer Bohan - https://github.com/madebyollin/taesd
- LyCORIS - KohakuBlueleaf
- 重新开始采样 - lambertae - https://github.com/Newbeeer/diffusion_restart_sampling
- Hypertile - tfernd - https://github.com/tfernd/HyperTile
- 初始 Gradio 脚本 - 由匿名用户发布在 4chan 上。谢谢匿名用户。
- (你)
版权归原作者 AI生成曾小健 所有, 如有侵权,请联系我们删除。