0


使用StableDiffusion简单绘制生成清纯AI美女图片

一、StableDiffusion是什么


    Stable Diffusion是一种基于潜在空间扩散(latent diffusion)的模型。它并非直接在高维图像空间中操作,而是首先将图像压缩到潜空间(latent space)中,然后在潜空间中应用扩散过程来生成新的图像。

    Stable Diffusion能够从文本描述中生成详细的图像,并可用于图像修复、图像绘制、文本到图像和图像到图像等多种任务。简而言之,只需提供所需的图片的文字描述,Stable Diffusion就能生成符合要求的逼真图像。

    Stable Diffusion将“图像生成”过程转换为逐渐去除噪声的“扩散”过程。整个过程从随机高斯噪声开始,经过训练逐步去除噪声,直到不再有噪声,最终输出更贴近文本描述的图像。

二、准备StableDiffusion


要想使用该软件,那肯定安装要准备GPU相关了。

(1)自己电脑安装软件:如果你硬件条件充裕,可以直接搜索其他页面怎么安装StableDiffusion即可,这里不过多描述。(其实本人也不太会装)

(2)租赁GPU算力:如果你硬件条件不充裕,可以考虑GPU算力租赁,也不贵。本博主就是太穷买不起高端显卡,自己电脑自带显卡太拉跨,就考虑GPU算力租赁。本人一开始是在腾X云租GPU服务器,要6块钱一个小时,还要自己经历复杂的安装及配置,后面生图速度也不尽人意,于是就放弃。后面找到一个比较划算的,2块一小时,有兴趣的话看后续第五章内容。

三、StableDiffusion页面功能介绍


下面以文生图页面来介绍

1、快捷设置

(1)StableDiffusion模型(ckpt):

大模型,经过训练学习后得到的程序文件。

模型常见下载地址:

    1)civitai.com 

    2)liblib.art 

    3)huggingface.co

(2)VAE模型:

    VAE(变分自编码器,Variational Autoencoder)是一种基于深度学习的生成模型,它起到增强图像质量和细节的关键作用,主要作用于滤镜和微调。

(3)Clip跳过层:

    是通过一个神经网络系统,将提示词从文字转化成简单的数字。将这些数字放入到神经网络的第一层进行计算,把得到的运算结果再放到第二层进行计算,然后再放到第三层进行计算……层层处理,层层递进,一直到最后一层。

    默认值为2,即在通过神经网络的运算层的时候跳过两层运算,提前结束运算。

数值越低,越能理解提示词,越接近你的描述。数值越高,越容易忽略提示词,AI会更多自主创新

2、功能菜单

(1)文生图:顾名思义就是通过一些文字描述生成一些AI图片

(2)图生图:顾名思义就是你提供图片,再进行一些修改/转绘

(3)Lora模型:固定目标的特征形象的一个模型

(4)设置:设置一些配置的地方

(5)扩展:扩展StableDiffusion插件的地方,在这里可以找到你需要的插件并进行安装使用。如本人常用的人脸修复插件

3、正反提示词

(1)正向提示词(Prompts):主要描述你想要什么样的内容,比如 a girl 。建议使用英文

(2)反向提示词(Negative Prompts):描述你不想要什么,比如low quality。也同样建议使用英文

4、参数配置:

(1)采样迭代步数(Steps):图像扩散的步数,也可以理解为AI绘画的笔数。

(2)采样器(Smapler):提供不同的算法来去大模型中采取数据样本。不同算法采样的结果会有所不同。

(3)宽度:单位是像素,AI出图时的宽度。

(4)高度:单位是像素,AI出图时的高度。

(5)生成批次:AI要跑几批图片

(6)每批数量:每批要出几张图(建议不动,吃显卡)

(7)提示词相关新(CFG):影响输入提示词的权重

(8)随机种子:图片生成的种子数据。默认值是-1,即随机抽取种子数据生成图片。种子对于图像生成至关重要,简而言之如果遇上了“对眼”的图片请立刻锁定种子,通过增加步数、调整关键词等深化图像。同时也可以去图片信息中调用你之前生成的图片种子。

(9)高分辨率修复:

    针对你的生成的图片的图片进行修复,扩大像素及抗锯齿性等。

    可能有人问,为什么不直接调整AI出图宽度和高度?这样不是更快吗?不同的,调整AI出图的宽度和高度,会让AI有不同的空间绘画出不同的内容。就比如你之前是600*800,像素点有限,AI绘画出来的结果就可能只是一个女孩,这正好符合你的要求。但假如你调整为1200*1600,像素变大了,AI绘画出来的空间更大,可能就不止一个女孩子了,这时可能就不太符合你的要求了。

5、生成按键:

    配置好相应的内容后点击"生成"按键,会绘画出对应的AI图

6、扩展插件:

    安装插件后,大部分插件功能都会扩展在此处操作

7、AI出图区:

    StableDiffusion生成图片的区域,此区域也可以点击下载

8、出图参数:

    AI绘完图后,点击对应的图,会出现改图所有的参数,比如种子数据等

四、简单样例--生成清纯AI美女图


1、下载对应模型

    这里我们通过liblib.art网站中找到麦橘写实模型

    下载对应模型,并将其放置在该文件夹下

StableDiffusion安装目录/models/Stable-diffusion/

2、刷新并选择模型

3、输入正反向提示词

正向提示词:比如我想要一个女孩、白色背景、穿着毛衣

1girl,sweater,white background,

反向提示词:

比如我不想要低质量、水印这些,可以输入

(worst quality:2),(low quality:2),(normal quality:2),lowres,watermark,

4、配置参数

    根据需要配置宽高或者迭代步数之类的

5、生成图片

五、额外--GPU算力租赁


    为了避嫌对应图片我会打码(我没收它们广告费,也不想过多曝光它们。只是我自己觉得好用,推荐给一些读者能更快上手)

1、打开仙X云网址,注册用户

2、创建StableDiffusion容器软件.

3、打开WebUI页面使用


本文转载自: https://blog.csdn.net/github_37130188/article/details/139897693
版权归原作者 sun cat 所有, 如有侵权,请联系我们删除。

“使用StableDiffusion简单绘制生成清纯AI美女图片”的评论:

还没有评论