【AI 模型】首个 Joy 模型诞生!!!全民生成 Joy 大片

ai,模型,首个,joy,诞生,全民,生成,大片 · 浏览次数 : 76

小编点评

**Joy Lora 模型的实现** **1. 准备工作** * 使用 SD 生成 RevAnimated_v122EOL 模型。 * 选择 vae-ft-mse-840000-ema-pruned3 VAE 模型。 * 下载京东Joy-Lora 模型。 * 下载京东Joy-起手式模型。 **2. 模型设置** * 选择 RevAnimated_v122EOL 模型。 * 选择 vae-ft-mse-840000-ema-pruned3 VAE 模型。 * 设置 DPM++ SDE Karras 采样迭代步数为 24-28。 * 设置尺寸为 64。 **3. 训练** * 选择 Joy 的基础 Prompt。 * 设置采样方式、步数、批次数量等参数。 **4. 评估** * 在训练过程中,可以观察图像变化的进度。 * 在找到自己喜欢的画面后,可以设置 1 去更精细化的抽卡。 * 调整重绘幅度以控制画面变化的幅度。 **5. 结果** * 使用 SD 生成 Joy 的 Lora 模型。 * 可以根据自己的喜好调整图像的画面、元素、场景等。

正文

接上一篇文章 “只要10秒,AI生成IP海报,解放双手”,这次是全网第一个“共享joy模型”,真的赚到了!

经过这段时间无数次的探索、试错、实验,最终积累了非常多的训练经验,在不同IP角色的训练上实际上需要调试非常多的参数以及素材。本次成功完成了Joy的Lora模型,虽然在泛化以及场景上未来还有着很多的空间,但是本次的模型已经可以帮助完成大部分的运用场景,无论是设计师,还是产品,还是运营,还是研发,都可以轻松实现Joy的海报生成,接下来我将为大家讲一讲如何实现。

老样子先来看看实际的效果吧!!!

生成过程

模型生成海报

接下来就来和大家讲一讲如何通过SD来生成Joy吧~

1、准备工作(在开始之前,准备好本次生成需要使用到的模型)

1、底模:revAnimated_v122EOL.safetensors

2、VAE:vae-ft-mse-840000-ema-pruned

3、京东Joy-Lora模型

4、京东Joy-起手式(prompt模版)

2、放置模型

1、底模:stable-diffusion-webui——models——Stable-diffusion

2、VAE:stable-diffusion-webui——models——VAE

3、京东Joy-Lora模型:stable-diffusion-webui——models——Lora

4、京东Joy-起手式:stable-diffusion-webui

3、打开SD

⚠️如果还不知道如何配置SD的同学可以看我之前的文章:“只要10秒,AI生成IP海报,解放双手”

4、模型设置

1、我们需要在Stable Diffusion模型中选择我们下载好的模型:revAnimated_v122EOL(当然这是我目前测试下来效果较好的底膜,你也可以下载并使用别的底膜进行尝试)

2、在模型的VAE中选择:vae-ft-mse-840000-ema-pruned(这个VAE的饱和度比较好一些,其他的VAE会使画面较灰)

5、Prompt使用

本次我已将Joy的基础Prompt设置成了模版(Joy起手式),后续大家可以根据自己想要的画面进行调整,我会讲一下本次Prompt的基础构成

1、正向词:正向词中只要分为3类,触发词+提示词+LoRA(越靠前的词汇权重就会越高)

  • Joy的触发词为joy\(ip\):只有输入这个触发词,画面中才会出现joy的形象
  • 提示词:在提示词中主要分为自然语言+单词描述:用自然语言来形容Joy具体在做什么(如:joy ip is standing on the stone,jumping,sitting等,建议使用进行时);用单词来形容画面中其他需要的元素(如:outdoors, day, grass, leaf, tree, flower, sunshine,等)
  • Lora权重:权重进过我的测试,最高的效果是0.7,所以在Joy的lora模型上无脑设置0.7

2、负向词:主要描述你不想要的内容(如:lowres, bad anatomy, bad eyes, bad hands等,如果在生成过程中出现了你不想要的内容也可以在后续继续补充)

6、设置采样方式、采样迭代步数、尺寸、生成批次&数量

  • 采样方式上我们选择:DPM++ SDE Karras
  • 采样迭代步数:24-28之间(更具画面的复杂程度进行调试,如果画面元素较多则可以以4的倍数向上增加,需要注意在改变了步数以后会让画面产生变化
  • 尺寸:一般使用64的倍数,常用的尺寸如512*768(2:3),768*512(3:2),512*512(1:1),768*1152(2:3),1152*768(3:2),不限于这些尺寸,只是说这些尺寸下抽卡出现好画面的几率更高一些
  • 生成批次、每批数量:在前期抽卡阶段(没有开高清修复阶段),可以把生成数量提高,来寻找喜欢的画面,在找到自己喜欢的画面后则需要设1去更精细化的抽卡

7、提示词相关性

1、提示词相关性:3-5之间效果更佳,如果没有出现IP可能是因为场景权重过高导致IP消失,可以尝试降低相关性或减少场景描述,提示词相关性是影响画面元素的非常重要的参数之一(其他影响的因素还有,迭代步数,重绘幅度,以及尺寸)

8、抽卡环节(快乐时间来了)

我们只需要嗑着瓜子,看着电视或者坐着别的事情,去挑一个动作、构图、元素、画面大致满意的底图(来作为后续打开高清的基础)

9、开启高清修复(完成一幅Joy大作)

在我们选出我们满意的底图后,需要做的就是锁定我们的seed,打开高清修复,调整我们的重绘幅度(重回幅度会影响画面变化的幅度,越低则变化越小,越高则变化越大)

  • 锁定我们的seed值

  • 将我们的放大算法改为:R-ESRGAN 4x+,调整重绘幅度0.1-0.7

  • 保存我们想要的图

如果你对IP海报生成有好的想法,可在评论区留言反馈,也希望和大家有更多的交流和学习,感谢大家支持哦!!

作者:京东零售 徐仲巍

来源:京东云开发者社区 转载请注明来源

与【AI 模型】首个 Joy 模型诞生!!!全民生成 Joy 大片相似的内容:

【AI 模型】首个 Joy 模型诞生!!!全民生成 Joy 大片

经过这段时间无数次的探索、试错、实验,最终积累了非常多的训练经验,在不同IP角色的训练上实际上需要调试非常多的参数以及素材。本次成功完成了Joy的Lora模型,虽然在泛化以及场景上未来还有着很多的空间,但是本次的模型已经可以帮助完成大部分的运用场景,无论是设计师,还是产品,还是运营,还是研发,都可以...

KubeEdge SIG AI发布首个分布式协同AI Benchmark调研

摘要:AI Benchmark旨在衡量AI模型的性能和效能。 本文分享自华为云社区《KubeEdge SIG AI发布首个分布式协同AI Benchmark调研》,作者:KubeEdge SIG AI (成员:张扬,张子阳)。 人工智能技术已经在我们生活中的方方面面为我们提供服务,尤其是在图像、视频

【转帖】千亿参数大模型首次被撬开!Meta复刻GPT-3“背刺”OpenAI,完整模型权重及训练代码全公布

https://cloud.tencent.com/developer/article/1991011 千亿级参数AI大模型,竟然真的能获取代码了?! 一觉醒来,AI圈发生了一件轰动的事情—— Meta AI开放了一个“重达”1750亿参数的大语言模型OPT-175B,不仅参数比GPT-3的3750

算法金 | 秒懂 AI - 深度学习五大模型:RNN、CNN、Transformer、BERT、GPT 简介

1. RNN(Recurrent Neural Network) 时间轴 1986年,RNN 模型首次由 David Rumelhart 等人提出,旨在处理序列数据。 关键技术 循环结构 序列处理 长短时记忆网络(LSTM)和门控循环单元(GRU) 核心原理 RNN 通过循环结构让网络记住以前的输入

大模型重塑软件开发,华为云AI原生应用架构设计与实践分享

在ArchSummit全球架构师峰会2024上,华为云aPaaS平台首席架构师马会彬受邀出席,和技术爱好者分享AI原生应用引擎的架构与实践。

Python 霸榜的一周,又有什么新 AI 力作呢?「GitHub 热点速览」

GPT 带火了一波语言模型,LLaMA 和 Alpaca 也在持续发力。依旧是各类 GPT 后缀霸榜 GitHub trending 的一周,为此特推部分专门收录了两个比较不错的 GPT 应用。而作为 ML/AI 第一首选语言的 Python 也是风头一时,除了 AI 项目之外,本周的密文解析 Ci

[Python急救站]基于Transformer Models模型完成GPT2的学生AIGC学习训练模型

为了AIGC的学习,我做了一个基于Transformer Models模型完成GPT2的学生AIGC学习训练模型,指在训练模型中学习编程AI。 在编程之前需要准备一些文件: 首先,先win+R打开运行框,输入:PowerShell后 输入: pip install -U huggingface_hu

基于毫米波雷达的手势识别算法

摘要 基于毫米波的手势识别技术提供了良好的人机交互体验。先前的工作专注于近距离手势识别,但在范围扩展方面不够,即他们无法识别距离相当大的噪声运动超过一米的手势。在本文中,我们利用一种新的数据处理方法和定制的人工卷积神经网络(CNN)设计了一个远程手势识别模型。首先,我们将手势分解为多个反射点,并提取

带你读AI论文丨针对文字识别的多模态半监督方法

摘要:本文提出了一种针对文字识别的多模态半监督方法,具体来说,作者首先使用teacher-student网络进行半监督学习,然后在视觉、语义以及视觉和语义的融合特征上,都进行了一致性约束。 本文分享自华为云社区《一种针对文字识别的多模态半监督方法》,作者: Hint 。 摘要 直到最近,公开的真实场

共探AI大模型时代下的挑战与机遇,华为云HCDE与大模型专家面对面

摘要:近日,华为开发者大会2023(cloud)“开发者生态创新发展圆桌会议”在东莞华为溪流背坡村成功举办。 2023年7月8日,华为开发者大会2023(cloud)“开发者生态创新发展圆桌会议”在东莞华为溪流背坡村成功举办。以大模型为代表的的新一轮人工智能技术浪潮汹涌而来,在圆桌会议上,华为技术专