【AIGC】只要10秒,AI生成IP海报,解放双手!!!

aigc,只要,ai,生成,ip,海报,解放,双手 · 浏览次数 : 42

小编点评

# 生成内容时需要带简单的排版 生成内容时需要带简单的排版,以便更清晰地描述每个步骤的具体操作步骤。以下是一些建议: 1. **使用标题和描述**:标题和描述可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 2. **使用图片和视频**:图片和视频可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 3. **使用步骤数**:步骤数可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 4. **使用标题和描述**:标题和描述可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 5. **使用图片和视频**:图片和视频可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 6. **使用步骤数**:步骤数可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 7. **使用标题和描述**:标题和描述可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 8. **使用图片和视频**:图片和视频可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 9. **使用步骤数**:步骤数可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。 10. **使用标题和描述**:标题和描述可以帮助更清晰地描述每个步骤的具体操作步骤,方便人们理解生成内容的过程。

正文

看完这篇文章,你将学会以下价值连城的内容

1、云端部署(配置不行的小伙伴看)+ 云端模型放置位置

2、本地部署(配置达标的小伙伴看)

3、运用SD训练IP的流程和技巧(LoRA篇)

4、运用SD稳定生成高质量IP海报

众所周知,各大厂目前都在AIGC的领域探索实践,也有非常多的外部设计师制作了大量的AIGC相关授课,很多同学因为不清楚具体能得到什么价值或者收获而停止了脚步。今天我来为大家分享一下经过实际探索且落地的Stable diffusion的IP海报生成流程,内容很干请上车坐稳

📌 先来看一下达达骑士IP的效果:

· 浅看一下IP海报生成过程

· V1模型生成

· V2模型生成

V3模型生成

1、云端部署

应该有很多小伙伴苦于没有一个趁手的电脑配置,以及繁琐的本地配置,最终卡在了配置这个环节,今天我将带大家完成SD的云端部署,看完你就能完美的打开SD了

1、打开云端地址:https://www.autodl.com/home

1、注册登陆后,点击算力市场

2、选择按量计费、内蒙A区(注:不要选北京区可能需要SHH企业打开的问题)

3、点击社区镜像

4、输入搜索关键词vel,找到并选择最新stable-diffusion镜像

5、点击立即创建

6、命名自己的服务器,等待创建完成和开机

7、点击JupyterLab,进入MainUI.ipynb

8、左侧目录下,打开MainUI.ipynb,点击第一行代码区域,然后点击上方的“运行”三角,显示“移动完成”后刷新页面

9、将右上角python 3,改为xl_env

10、点击第二行代码区域,然后点击上方的“运行”三角,等待功能模块出现

11、选择“启动WebUi”,然后勾选前4个常用功能,点击运行WebUi,等待代码运行

12、当看到蓝色的URL时,则表示运行成功了,然后返回AutoDL下自己的服务器

13、点击“自定义服务”,恭喜你成功进入云端SD了

2、云端基础模型的放置位置

1、大模型放置位置:dutodl-tmp——stable-diffusion-webui——models——Stable-diffusion

2、lora放置位置:dutodl-tmp——stable-diffusion-webui——models——Lora

3、VAE放置位置:dutodl-tmp——stable-diffusion-webui——models——VAE

4、ControlNet模型放置位置:dutodl-tmp——stable-diffusion-webui——extensions——sd-webui-controlnet——models

5、起手式位置:dutodl-tmp——stable-diffusion-webui

2、本地部署

秋葉Stable diffusion一键包

百度链接https://pan.baidu.com/s/1A4xSvlLHUJ8uplOc7WjZqg;提取码:sejt

夸克链接:https://pan.quark.cn/s/1dd4f17b3504;提取码:yBRx

3、运用SD训练IP的流程和技巧(LoRA篇)

先来介绍一下什么是LoRA

大家刚接触stable diffusion时,会听到很多专业术语,其中LoRA模型必定是会被提及到的,那么什么是LoRA模型?它有什么作用呢?

LoRA模型全称是:Low-Rank Adaptation of Large Language Models,可以理解为Stable-Diffusion中的一个插件,仅需要少量的数据就可以进行训练的一种模型。在生成图片时,LoRA模型会与大模型结合使用,从而实现对输出图片结果的调整。

举个例子:大模型好比没有修饰过的人物、物品、场景、等;LoRA模型好比是改变人物、物品、场景等内容的形色质构的因素,但仍然在大模型的底子下。当然LoRA模型不仅仅限制于人物,场景、动漫、风格。

1、训练环境的搭建

· 本地:可下载秋葉SD trainer训练器一键包

· 云端:AutoDL云端配置,社区镜像中找到Train进行部署

2、训练集处理(图片处理+打标+训练参数)

· 图片处理

· 首先我们需要准备训练的IP(也可以是:物品、场景、风格等),训练图的尺寸需要统一,且以64的倍数设置:常用分辨率为512*512、512*768、768*1152。因为如果尺寸不统一或不是64的倍数,AI在训练过程会对你的图片进行裁切,导致你想要的画面细节被裁减

· 其次我们需要有3种类型的图:白底IP图+场景IP结合图+单独场景图,整个训练集的数量可以有多少准备多少,越多越好(但是要保证差异性,重复的动作或角度需要剔除)

· 打标

· 当我们准备好需要AI训练的图以后我们需要对这些训练图进行描述,可使用自动打标工具或手动打标(手动打标训练效果会更好) ,准备一个txt文本(保证和你描述的图片命名一一对应),然后进行详细的描述,以下是我的一些举例:

· 在打标描述里需要注意格式:我们常用的格式是“触发词”+“自然语言”+“单词”,并且保证全程英文输入,包括标点符号

3、模型训练&参数设置

(注:这里的参数需要根据自身训练的IP或内容进行调优,存在是错成本,这里给大家科普一些基础)

· 补充2个概念:欠拟合、过拟合

· 过拟合:指AI只会生成你给他提供的训练集内容,比如IP动作、场景、元素、等

· 欠拟合:指AI生成的内容和你训练集的内容完全没关联,或者说收敛性很差导致IP不像

· 基础训练参数

• repeat次数(每张图训练的次数,次数不是越高越高,训练太多会导致过拟合,训练太少会导致欠拟合)

• epoch训练轮数(训练集训练的轮数,轮数不是越高越好,训练太多会导致过拟合,训练太少会导致欠拟合)

• dim值(dim代表了训练的精度)

• alpha值(alpha用于控制模型复杂性和约束性,alpha 必须≤dim)

• learning rate、unet lr、text encoder lr(学习率决定模型学习的程度,影响训练效果,比如稳定性、泛化性、收敛性)

• 训练优化器(自适应优化器和非自适应,决定了AI学习节奏)

· 训练过程中的观察

· 需要观察训练的Loss值,Loss值需要成递减状态(正常状态),曲线波动不易较大。并且需要记录每一次训练的参数和Loss值来分析后续模型调优的方向

4、模型测试

· 模型测试阶段,我们需要启动SD,并且运用XYZ轴来测试每个版本的模型搭配的LoRA权重,以及大模型,最终沉淀出我们最优版本的模型。

· 在测试阶段我们需要围绕着3个核心的点:稳定性、泛化性、以及收敛性进行测试

· 稳定性:模型是不是在大多数prompt输入下,都能够出现好的效果

· 泛化行:生成的内容是不是有AI创新的内容(动作、场景、元素、等)

· 收敛性:生成的IP以及特征(或其他核心内容)是不是你想要的效果

4、运用SD稳定生成高质量IP海报

1、模型&提示词

· 生成环境模型主要包括3类,底模、LoRA模型、以及VAE(可以理解为滤镜),我们可以尝试各种不同的大模型,比如二次元的anything、目前用的最多的Rev、或者真人类的real

· 提示词分为2部分,正向词为你想要的内容,负向词代表你不想要的内容

· 正向词:会出现3种类型:触发词+提示词+LoRA,越靠前的词汇权重就会越高

· 在生成出好的效果后大家可以对自己的prompt进行保存

2、采样方式

· 简单来说,这些采样器是算法,它们在每个步骤后获取生成的图像并将其与文本提示请求的内容进行比较,然后对噪声进行一些更改,直到它逐渐达到与文本描述匹配的图像

· 常用的采样器如:Euler a、DDIM、DPM++系列,可以根据自己模型来调整尝试出最好的参数

3、采样迭代步数

· SD通过从充满噪点的画布开始创建图像,然后逐渐去噪以达到最终输出。Steps就是控制这些去噪步骤的数量。通常,越高越好,但一般情况下,我们使用的默认值是20个步骤,这其实已经足以生成任何类型的图像

· 如果在测试新提示希望快速得到理想的构图或结果,可使用15-20steps

· 当找到确认的seed后,可将步骤增加到20-30steps

4、面部修复

· 面部修复可改善脸部特这个以及细节,让人脸更自然和美观,建议当找到确认的seed后打开

5、高清修复

· 通过使用算法,AI可以首先在较低的分辨率下对图片进行部分渲染,然后将其提升到高分辨率,并在高分辨率下添加细节,建议当找到确认的seed后打开。

· 常用高清算法如: R-ESRGAN 4x++

6、重绘幅度

· 可以理解为AI在创作过程中的发散幅度,越高的值会带来越大的创意,反之会更精准。

7、随机种子

· Seed可以理解为你生成图的身份ID,每个生成图都有自己的seed,当确认了基础构图以及想要的基础效果后锁定种子,从而完成微调

8、尺寸、批次、批数

· 尺寸:一般会以64的倍数去递增,常用尺寸在前期确认seed之前会用到512*768,512*512,等

· 生成批次、每批数量:每批、每次次生成的图像数量,建议在前期找画面之前可以开大数量去抽卡,找到自己想要的画面,然后锁定seed

9、点击生成,完成IP海报(记得记住&保存自己的参数模版)

到这里我们整个流程就走完了,接下来我们就可以不断的生成和创新我们的IP海报了

最后我想说在AI绘画领域还有很多需要探索和实践,未来我也会继续与大家分享更多有价值的内容,如果你也喜欢AIGC的探索可以留言一起交流一起进步

作者:京东零售 徐仲巍

来源:京东云开发者社区 转载请注明来源

与【AIGC】只要10秒,AI生成IP海报,解放双手!!!相似的内容:

【AIGC】只要10秒,AI生成IP海报,解放双手!!!

众所周知,各大厂目前都在AIGC的领域探索实践,也有非常多的外部设计师制作了大量的AIGC相关授课,很多同学因为不清楚具体能得到什么价值或者收获而停止了脚步。今天我来为大家分享一下经过实际探索且落地的Stable diffusion的IP海报生成流程,内容很干请上车坐稳

南洋才女,德艺双馨,孙燕姿本尊回应AI孙燕姿(基于Sadtalker/Python3.10)

孙燕姿果然不愧是孙燕姿,不愧为南洋理工大学的高材生,近日她在个人官方媒体博客上写了一篇英文版的长文,正式回应现在满城风雨的“AI孙燕姿”现象,流行天后展示了超人一等的智识水平,行文优美,绵恒隽永,对AIGC艺术表现得极其克制,又相当宽容,充满了语言上的古典之美,表现出了“任彼如泰山压顶,我只当清风拂

LLM探索:环境搭建与模型本地部署

## 前言 最近一直在炼丹(搞AIGC这块),突然发现业务代码都索然无味了… 上次发了篇AI画图的文章,ChatGPT虽然没法自己部署,但现在开源的LLM还是不少的,只要有一块差不多的显卡,要搞个LLM本地部署还是没问题的。 本文将介绍这以下两个国产开源LLM的本地部署 - ChatGLM-6B -

卷爆短剧出海:五大关键,由AIGC重构

短剧高温下,谈谈AIGC的助攻路线。 短剧,一个席卷全球的高温赛道。 以往只是踏着霸总题材,如今,内容循着精品化、IP化的自然发展风向,给内容、制作、平台等产业全链都带来新机,也让短剧消费走向文化深处,触发更大的社会渲染力。 从国内到全球,短剧行业亦然乘风。业内预测分析,2027年海外微短剧市场规模

AIGC的行业发展

1. AIGC的行业发展 AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是利用人工智能技术来自动生成内容的一种新型内容创作方式。它基于生成对抗网络(GAN)、大型预训练模型等技术,通过对已有数据进行学习和模式识别,以适当的泛化能力生成

AIGC底层技术介绍

1.AIGC概述 AIGC,全称Artificial Intelligence Generated Content,即人工智能生成内容。这是一种新兴的人工智能技术,其核心思想是利用人工智能模型,根据给定的主题、关键词、格式、风格等条件,自动生成各种类型的文本、图像、音频、视频等内容。 1.1定义与背

AIGC的隐私安全问题及隐私保护技术

Chatgpt的风靡,也让其背后LLM(大型语言模型)技术中的数据隐私保护问题进一步受到关注。作为国内隐私计算行业领军者,京东科技全程深度参与了「4大报告+3大标准」的编写研制工作,取得丰硕成果。

AIGC革新,将文字或者LOGO融入AI视频基于PIKA-labs(Python3.10)

很多平台都会禁止用户使用带有网址或者二维码的头像以及文章配图,这样可以有效的防止用户的一些“导流”行为。当然,头像、文章或者视频现在都是AI来审,毕竟现在人工的成本实在太高,但是如果我们把文字元素直接融入图像或者视频之中,如此一来,AI也会很难识别出一些“导流”的元素。 本次我们依靠PIKA-lab

AIGC时代:未来已来

摘要:人工智能的快速发展使得我们进入了AIGC时代。AIGC时代的到来,将会带来巨大的机遇和挑战。 本文分享自华为云社区《GPT-4发布,AIGC时代的多模态还能走多远?系列之一: AIGC时代:未来已来》,作者: ModelArts 开发 。 人工智能的快速发展使得我们进入了AIGC时代,即人工智

AIGC的阿克琉斯之踵

摘要:现在,越来越多的企业和个人使用AIGC生成文章、图片、音乐甚至视频等内容,AIGC已经成为一种必备的工具。在游戏和原画师行业,甚至已经出现了第一批因为AI而失业的人。 本文分享自华为云社区《GPT-4发布,AIGC时代的多模态还能走多远?系列之二:AIGC的阿克琉斯之踵》,作者:ModelAr