Stable Diffusion 生成个性图片指南

stable,diffusion · 浏览次数 : 0

小编点评

在人工智能领域,Midjourney作为生成图片的王者,但其付费限制让许多用户望而却步。为了实现本地生成不逊色于Midjourney的图片效果图,我们可以选择Stable Diffusion作为替代方案。本文将为大家分享Stable Diffusion的使用方法。 首先,访问Stable Diffusion Web UI官网(https://stablediffusionweb.com/)以获取在线能力的弱鸡版本,许多参数无法调节且使用次数受限。若想要更高的自由度和定制化,可以尝试在本地搭建Stable Diffusion模型。 在GitHub上有一个强大的工具包可供参考:AUTOMATIC1111/stable-diffusion-webui。此外,Civitai网站提供了丰富的模型资源,用户可以自由下载并在本地使用。 安装Python 3.10以确保与Stable Diffusion Web UI兼容。然后,从Civitai下载所需的模型,并将其放入指定文件夹。接下来,在Web UI中填写相关参数,如模型、正向词、负向词、采样步骤等。最后,按照提示生成图片。 在使用过程中,请注意以下几点: 1. CPU高负载可能导致性能下降,建议在非工作时间操作。 2. 生成结果的差异性受设备、显卡和运行环境的影响,因此可能需要尝试不同的设置以获得最佳效果。 3. 不同的模型和参数组合会产生不同的结果,可以多尝试以找到最适合的设置。 通过以上步骤,你可以在本地实现与Midjourney相媲美的图片生成效果。希望本文对大家有所帮助!

正文

在当今人工智能领域,midjourney无疑是生成图片的王者,但是苦于付费才能使用,今天我就给大家分享一下midjourney平替stable diffusion,实现本地生成不逊色于midjourney的图片

效果图

先上一个我自己生成的效果(就是在我的Mac上用CPU生成的)

是不是非常棒?下面就让我们一起来深入探讨 Stable Diffusion 的使用方法吧!

选择stable-diffusion-webui

官网:https://stablediffusionweb.com/

官网提供的在线上能力比较弱鸡,而且很多参数不能调节,使用次数还有限制,不推荐

如果你想要更高的自由度和定制化,推荐尝试本地搭建。这里推荐一个强大的工具包:

  • GitHub 大神项目: AUTOMATIC1111/stable-diffusion-webui 这个项目可以帮助你在本地搭建一个功能强大的 Stable Diffusion 模型。
  • 模型资源网站: Civitai 这个网站提供了丰富的模型资源,可以自由下载并在本地使用

安装之后的页面

模型资源网站

image-20240621175027619

搭建并生成图片

我在这里简要说一下我的搭建过程,Mac的安装参考:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon

1. 安装 Python 3.10

确保安装 3.10 版本的 Python,其他版本可能会有兼容性问题。你可以参考 AUTOMATIC1111 的安装指南 完成安装。

2. 拉取仓库并运行

在命令行中,克隆仓库并启动安装脚本:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
./webui.sh

安装过程会自动下载必要的依赖和默认的模型,当命令行出现如下日志时,表示安装成功:

Running on local URL:  http://127.0.0.1:7860

3. 下载模型

Civitai 上找到一个你喜欢的模型并下载,例如 国风3模型。将下载的 checkpoint 文件放入 stable-diffusion-webui/models/Stable-diffusion 文件夹,然后重启服务。

4. 填写参数

在 Web UI 中,你需要设置以下几个关键参数:

  • Checkpoint/模型: 选择下载的模型,例如国风3模型。
  • 正向词 (Prompt)负向词 (Negative Prompt): 用来描述你希望生成的图片特征和避免的特征。
  • Sampling Steps: 这个参数决定了生成图片的迭代次数,通常30步是一个不错的选择。
  • CFG Scale: 这个参数控制了生成图片的创意自由度,7 是一个常见的设置。
  • Seed: 这个参数决定了图片生成的随机性,相同的 seed 可以生成相似的图片。设为 -1 时,系统会随机生成。

例如,我使用以下参数生成图片:

### Checkpoint
https://civitai.com/models/10415/3-guofeng3?modelVersionId=17414

### 正向词
best quality, masterpiece, highres, 1girl,china dress,hair ornament,necklace, jewelry,Beautiful face,upon_body, tyndall effect,photorealistic, dark studio, rim lighting, two tone lighting,(high detailed skin:1.2), 8k uhd, dslr, soft lighting, high quality, volumetric lighting, candid, Photograph, high resolution, 4k, 8k, Bokeh

### 负向词
(((simple background))),monochrome ,lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, lowres, bad anatomy, bad hands, text, error, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, ugly,pregnant,vore,duplicate,morbid,mut ilated,tran nsexual, hermaphrodite,long neck,mutated hands,poorly drawn hands,poorly drawn face,mutation,deformed,blurry,bad anatomy,bad proportions,malformed limbs,extra limbs,cloned face,disfigured,gross proportions, (((missing arms))),(((missing legs))), (((extra arms))),(((extra legs))),pubic hair, plump,bad legs,error legs,username,blurry,bad feet

### Sampling Steps
30

### CFG Scale
7

### Seed
2467180841

5. 生成图片

填写完参数后,点击右上角的 Generate 按钮。命令行会显示生成进度,大约需要3分钟。

提升分辨率

生成的图片分辨率可能不够理想,没关系!我们可以通过“放大修复”来提高图片质量。

6、提升分辨率

1. 选择 Extra 选项

在 Web UI 中,选择 Extra 选项卡,然后将刚刚生成的图片上传。

2. 设置放大参数

Upscaler1Upscaler2 都设置为 R-ESRGAN 4X + Anime6B,这个配置可以显著提升图像质量。

3. 看一下对比图,是不是效果显著提升?

注意事项

CPU 高负载: 由于 Mac 通常没有强大的 GPU,生成过程会完全依赖 CPU,这可能导致 CPU 使用率飙升。建议在非工作时间操作,以免影响日常使用。

生成结果的差异性: 尽管设置相同参数,不同设备、不同显卡甚至不同运行环境都会影响生成的效果。高性能显卡通常能带来更好的效果,显卡越好生产的效果越好,模型网站的图片基本都是顶级显卡跑出来的

模型选择和参数调整: 不同的模型和参数组合会产生不同的结果,可以多尝试找到最适合的设置。

更多惊喜

我们的公众号还将定期分享:

  • 最新互联网资讯:让你时刻掌握行业动态。

  • AI前沿新闻:紧跟技术潮流,不断提升自我。

  • 技术分享与职业发展:助你在职业生涯中走得更远、更稳。

  • 程序员生活趣事:让你在忙碌的工作之余找到共鸣与乐趣。

关注回复【1024】惊喜等你来拿!

敬请关注【程序员世杰】

与Stable Diffusion 生成个性图片指南相似的内容:

Stable Diffusion 生成个性图片指南

在当今人工智能领域,midjourney无疑是生成图片的王者,但是苦于付费才能使用,今天我就给大家分享一下midjourney平替stable diffusion,实现本地生成不逊色于midjourney的图片

怎么使用Stable diffusion中的models

Stable diffusion中的models Stable diffusion model也可以叫做checkpoint model,是预先训练好的Stable diffusion权重,用于生成特定风格的图像。模型生成的图像类型取决于训练图像。 如果训练数据中从未出现过猫的图像,模型就无法生成猫

原来Stable Diffusion是这样工作的

stable diffusion是一种潜在扩散模型,可以从文本生成人工智能图像。为什么叫做潜在扩散模型呢?这是因为与在高维图像空间中操作不同,它首先将图像压缩到潜在空间中,然后再进行操作。 在这篇文章中,我们将深入了解它到底是如何工作的,还能够知道文生图的工作方式与图生图的的工作方式有何不同?CFG

【AIGC】只要10秒,AI生成IP海报,解放双手!!!

众所周知,各大厂目前都在AIGC的领域探索实践,也有非常多的外部设计师制作了大量的AIGC相关授课,很多同学因为不清楚具体能得到什么价值或者收获而停止了脚步。今天我来为大家分享一下经过实际探索且落地的Stable diffusion的IP海报生成流程,内容很干请上车坐稳

Pose泰裤辣! 一键提取姿态生成新图像

摘要:从图像提取人体姿态,用姿态信息控制生成具有相同姿态的新图像。 本文分享自华为云社区《Pose泰裤辣! 一键提取姿态生成新图像》,作者: Emma_Liu 。 人体姿态骨架生成图像 ControlNet-Human Pose in Stable Diffusion 相关链接:Notebook案例

SD中的VAE,你不能不懂

什么是VAE? VAE,即变分自编码器(Variational Autoencoder),是一种生成模型,它通过学习输入数据的潜在表示来重构输入数据。 在Stable Diffusion 1.4 或 1.5 模型中,通过VAE对模型进行部分更新,以提升模型渲染眼睛的能力。通过这种更新,模型在生成图像

人工智能AI图像风格迁移(StyleTransfer),基于双层ControlNet(Python3.10)

图像风格迁移(Style Transfer)是一种计算机视觉技术,旨在将一幅图像的风格应用到另一幅图像上,从而生成一幅新图像,该新图像结合了两幅原始图像的特点,目的是达到一种风格化叠加的效果,本次我们使用Stable-Diffusion结合ControlNet来实现图像风格迁移效果。 安装Contr

AI作画本地搭建

前言 Novel AI (简称NAI)是一个线上的深度学习小说续写平台,而 NAI Diffusion 是 NAI 在2022年10月3日推出的基于 Stable Diffusion 算法的自动生成二次元图片的服务 在线版 NovelAI官网:https://novelai.net/ 进入官网,在首

人工智能,丹青圣手,全平台(原生/Docker)构建Stable-Diffusion-Webui的AI绘画库教程(Python3.10/Pytorch1.13.0)

世间无限丹青手,遇上AI画不成。最近一段时间,可能所有人类画师都得发出一句“既生瑜,何生亮”的感叹,因为AI 绘画通用算法Stable Diffusion已然超神,无需美术基础,也不用经年累月的刻苦练习,只需要一台电脑,人人都可以是丹青圣手。 本次我们全平台构建基于Stable-Diffusion算

Stable diffusion采样器详解

在我们使用SD web UI的过程中,有很多采样器可以选择,那么什么是采样器?它们是如何工作的?它们之间有什么区别?你应该使用哪一个?这篇文章将会给你想要的答案。