低显存(4g)训练LoRA模型的一些经验+自训练四季夏目LoRA模型分享

2023-05-16

一、Lora简介

LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3) 通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层 (秩-分解矩阵)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。

Stable Diffusion 的全模型微调过去既缓慢又困难,这也是 Dreambooth 或 Textual Inversion 等轻量级方法变得如此流行的部分原因。使用 LoRA,在自定义数据集上微调模型要容易得多。


详细的原理分析见右侧链接:https://www.cnblogs.com/huggingface/p/17108402.html

简单来说,lora模型为我们提供了更便捷更自由的微调模型,能够使我们在底膜的基础上,进一步指定整体风格、指定人脸等等,而且lora模型非常的小,大部分都只有几十MB,非常的方便!

二、Lora一键包安装教程

秋叶大佬已经发布了一个本地Lora一键包,比较的方便,可以参考下方视频安装使用,本文是文字版教程。

注意本文默认是使用的N卡,A卡的道友暂时好像不能使用,会非常的慢

秋叶lora视频教程链接:https://www.bilibili.com/video/BV1fs4y1x7p2/?spm_id_from=333.999.0.0

一键包下载链接:https://pan.quark.cn/s/d81b8754a484

百度网盘链接:[url=链接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l]链接:https://pan.baidu.com/s/1RmXoUar52KFJ4DdQU_UoWQ?pwd=r50l[/url]


下载完一键包之后,先安装包里的两个软件
 


其中python版本必须是python3.1,即使本地有python,还是建议再安装一个3.1版本。

安装python的时候记得勾选将python加入环境变量,如下图红框



安装完两个软件后,将鼠标移动到电脑左下角开始图标,选择“windows powershell”

输入命令:Set-ExecutionPolicy -ExecutionPolicy RemoteSigned

遇到询问输入 y


同时可以在这里验证python是否安装成功,输入python将显示出python版本为3.1.

现在进入lora-scripts文件夹,先双击运行“强制更新.bat”文件

如果报错提示没有git或者不识别git命令,说明你的电脑没有git,需要下载安装一个,

git下载链接:https://git-scm.com/download/win

安装完git再重新运行“强制更新.bat”文件

更新完毕后,右键:“install-cn.ps1”文件,选择“使用powershell运行”。

注意,这里有一个非常常见的错误就是提示“其他依赖安装失败!”如下图



遇到这个错误,重新运行“强制更新.bat”文件

然后再运行“install-cn.ps1”文件。

install-cn.ps1”文件正常运行最后会提示“安装完毕”,如下图


然后现在就进入了素材准备的阶段,首先自己准备10-100张图片,40张左右效果就差不多。

将所以的素材图片放到同一个文件夹,然后进入SDwebUI界面,选择“训练”标签,点击图像预处理

在源文件输入素材文件夹位置,并填上输出文件夹位置,勾选下方第三个自动焦点裁切和最后一个deepbooru打tag的选项


点击预处理,会在设置的输出文件夹中生成裁剪后的图片以及图片相应tag的txt文件

这里如果显卡大小小于8G的话,建议裁剪成512*512大小的图片,512*640最少需要8G显存

得到素材文件后,,在lora-scripts文件夹下新建一个train文件夹,然后再下方再创建一个文件夹,命名随意,但是需要记住。比如我创建了就是sucai文件夹。

在这个文件夹下再创建一个文件夹,这个文件夹有严格的命名格式。

要求为:数字_名称,如6_sucai。

数字代表的是这个文件夹下的素材使用几次,显存大的道友可以设置多个,一个的话也可以。

如果素材文件比较少的情况下,可以设置6,如果100张图以上可以设置为2或者3,甚至1也行,不然可能会炸

全选复制裁剪后的图片以及所以的txt文件到上面刚创建的文件夹下。比如我这就是..\train\sucai\6_sucai\



现在素材准备好了,我们修改一下“train.ps1”文件,右键使用文本编辑器打开

我们需要修改的参数如下图所示:



其中$pretrained_model ,不是指的SDwebUI左上角的模型路径,而是这次训练lora模型主要参考的模型。

存放位置一般为..\lora-scripts\sd-models\

这里我们需要去准备一个模型放在这个路径中,推荐直接复制SD中的主模型过来改个名字。

注意,经过群友大量测试,推荐使用SD1.5模型作为lora丹底。

下载链接:https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.ckpt


将新下载的SD1.5,如果之前下过就到从..\stable-diffusion-webui\models\Stable-diffusion中找

复制到..\lora-scripts\sd-models\路径中

最好重命名一下,比如我就是重命名为model.ckpt

然后就填入配置文件

$pretrained_model = "./sd-models/model.ckpt"

注意:有的道友选的丹底是SafeTensor格式的,那就改成

$pretrained_model = "./sd-models/model.safetensor"

$train_data_dir指的就是我们刚才创建的存放素材的位置,我这里就填入

$train_data_dir = "./train/sucai/"

不需要填入带数字的文件夹。

下方的训练相关参数,$resolution指的是图片分辨率。

显存小于8个G的道友就老老实实训练512,512,不然显存直接爆炸

$max_train_epoches指的是训练的epoch数,建议数值10-20,但一般15就差不多了。数字越大训练时间越久。

其他几个参数小白的话可以不用动,默认就可以了。学习率这里也不用动

等能够熟练操作之后,可以自己调整参数以便得到更好的效果。

再往下,输出设置这里

可以通过修改$output_name后方的值修改输出的lora模型文件名,建议输入英文名,不要用中文,比如我设置为gaoye

lora文件类型建议设置$save_model_assafetensors

改完参数后,一定记得保存文件。然后关掉文件,“train.ps1”文件,选择“使用powershell运行”。

如果显存没爆炸,且上述参数都设置的情况下,正常就开始进入训练界面了。



出现epoch轮数的时候,就证明你已经正常进入训练过程了!

根据设置的参数已经你显卡的性能,训练的时间不等。

等待训练完毕,打开..\lora-scripts\output\文件夹,复制生成的gaoye.safetensors复制到sd中的..\stable-diffusion-webui\models\Lora\路径中

其他几个带数字的文件为中间文件,可以丢弃。

至此,我们自己的lora模型已经训练完成,可以进行使用了!!

三、Lora使用教程
这部分不再赘述,可以参考入门教程的第七部分

入门教程:https://dfldata.xyz/forum.php?mod=viewthread&tid=12756&page=1#pid390482

四、常见错误排除

1.运行“install-cn.ps1”文件,提示“其他依赖安装失败!”如下图

答:遇到这个错误,重新运行“强制更新.bat”文件,然后再运行“install-cn.ps1”文件。

2.运行“强制更新.bat”文件,报错提示没有git或者不识别git命令。

答:说明你的电脑没有git,需要下载安装一个,

git下载链接:https://git-scm.com/download/win

安装完git再重新运行“强制更新.bat”文件

3.运行“train.ps1”文件提示“CUDA out of memery”错误。

答:显存不够了,调小参数设置的分辨率,支持非正方形,但必须是 64 倍数。

同时可以加大虚拟内存,具体方法百度。

实在机器性能有限,可以使用在线的网站训练lora模型。

参考链接:https://www.bilibili.com/read/cv21450198

4.运行“install-cn.ps1”文件创建虚拟环境失败

答:检查python版本,以及电脑装过anaconda,需要先关掉conda自动激活base环境,方法自行百度。不然运行脚本时环境会冲突。

5.运行的“train.ps1”文件的时候,提示Error no kernel image is available for execution on the device。



答:删掉“train.ps1”文件中,下方红框中的命令,保存后重新运行
 

 

多图预警;段首懒得空两格,见谅。

模型和图片(放进法术解析就能看咒语)会放在评论区置顶,在云平台上训练模型花了我一个疯狂星期四,求个小小的赞和评论应该不过分吧QAQ。

先说清楚,选择好合适的素材集在云平台上训练是一分钱不用花的,具体请看文中的引用教程,花了money是因为我人傻走弯路。

https://www.birme.net/?target_width=512&target_height=768
在玩了galgame之后,就有一种想要夏目更多地踩我的冲动,然后就想到了ChatGPT+VITS的整活,不过ChatGPT使用麻烦(虽然现在已经搞定了),VITS模型训练又比较麻烦(galgame剧本提取不出来),所以就想到了AI绘画。

幸运的是,b站上有很多打包好的懒人包,点开即用,笔者用的是up主秋葉aaaki的整合包。

02:57
【AI绘画】启动器正式发布!一键启动/修复/更新/模型下载管理全支持!
 68.6万  2878
视频
秋葉aaaki
        首先,我尝试着自己组合各种tag,来把枣子姐画出来,然而结果是这样的:

当时甚至连brown eyes的tag都没打上
可以看到,头花?有了。头饰?有了。middle breast也差不多,但是画风不像啊。

于是我用了网上找到的柚子社画风的模型,并且由于枣子姐的美人痣太戳我xp了,我就在mole under eyes上打了好几托括号,结果变雀斑了,再加上负面tag没打好的原因,肢体也开始降san了(由于审核的原因,这个图删掉了)

接着继续尝试改进,首先是又换了一个模型,跑了一堆图出来,能看的也有,但是都不太符合我对枣子姐的幻想((嘿嘿嘿))

mole under eyes太过火了,变成Oppai上面有痣了
(这里夹掉了一张nsfw,效果也不是很好,就不补了)

后来又换了好几个但还是不满意


我逐渐理解,想要画出自己想要的效果(人物),可能只能自己训练模型,但是我的显卡是GTX1650(据说当时被称为智商检测卡,4年前的中端配置显卡吧),显存只有4G。而训练embedding至少需要6g以上的显存。再说,embedding的训练需要大量素材,枣子姐虽然人气高,p站上也有较多插画(精选的大部分都是nsfw。。。),但应该是喂不饱训练素材量的。

直到我打开新世界的大门:LoRA模型

附上LoRA模型的教程

【AI绘画】LoRA 在线云端训练教程 AutoDL

今天为大家带来 LoRA 在线云端训练教程。镜像已经封装好,无需任何安装直接可以开始训练。本教程使用 AutoDL 在线租显卡训练,如果你还没有账号可以使用我的邀请链接,送10r代金券 https://www.autodl.com/register?code=33208c44-1ec2-4166-83b4-bf2f561a9551话不多说,直接开始。在 AutoDL 租显卡, 创建机器的时候选择 算法镜像——lora-scripts 即可。我的这个镜像,xformers 是基于 sm86 架构编译的,本身

文章
秋葉aaak...
3.4万
1010
172
在这里也附上秋葉aaaki (简直是kamisama)的最新答疑

【AI绘画】LoRA 模型训练 参数相关问答

一些个常见问题,今天统一回答一下Q: 如何训练144mb大小的模型A: 话说在前面 模型不是越大越好模型不是越大越好模型不是越大越好 如果你真的想修改的话,需要修改 network_dim 这个参数。默认给的是32,改成128对应着144mb。注意修改了 network_dim 记得看看 network_alpha 需不需要修改Q: 为什么我的训练步数这么少?A: 请了解 epoch 的相关知识。一个 epoch 指的是所有图片都过一遍,我们在脚本里修改的是epoch大小,所以你给的训练图片素材数量直接影

文章
秋葉aaak...
2.9万
659
134
第一次训练模型,数据集非常非常粗糙,粗糙到什么程度呢,直接把插画或者立绘(贴吧有收集这方面资源的大佬)丢进去图像预处理,然后再丢进云平台训练。

这样训练出来的效果当然不好。第一次训练用的是镜像文件自带的model,大概是6k步还是3k步(忘了),然后在使用LoRA生图的时候好像用的是pastelmix粉彩(蜡笔模型?),出来的效果是这样的:

好像有点小酷,或许接下来可以往这种画风靠拢
这个应该是用了柚子社画风的大模型

要说和原画风最相似,应该是这张了。。虽然是崩坏了
效果是有的,但是一言难尽,当时我还没有尝试去调教LoRA模型的权重,一般来说权重为1的话效果不是很好(也有可能是我训练的模型比较烂)。

随后我又训练了一个跑了2w3step的模型,但是由于没有调教权重,出图效果也不好,我当时还以为是步数不够,tag不好,一直在调整。直到我用跑了7w步的模型(错误率大概在2%)也无济于事,我才将好几个LoRA一起用,然后调整权重,经过不断调教左右,发现LoRA模型的权重大概在0.5~0.7之间是最好的,能产出比较好的图片:

<lora:Shiki_Natsume_cornfw:0.2>
这个模型是以b站up主Toooajk做的矢车菊模型为底模训练的,不过产图时用的model也忘了,大概率是pastelmix吧


<lora:Shiki_Natsume_cornfw:0.15>


<lora:Shiki_Natsume_cornfw:0.35>

<lora:Shiki_Natsume_cornfw:0.5>
发带已经比较稳定了,这时候我发现了元素法典的文档,并采用了里面的风魔法,画出了比较好的效果

还是不太像啊,唉

在经过一系列的调试魔法,现在枣子姐的形象大概稳定了下来,接下来就是慢慢靠近原画风,慢慢让她画出不同动作不同场景的作品,同样,在以下图片中都是借鉴元素法典里的魔法来调整效果的。

不知道为什么多了一只我的手(唔)


这张好啊,真还原,不过看多了真有点脸盲了,又觉得根本不像
雪糕prpr

这张是目前为止最满意的了
后来由于操作失误,不小心把存着的13个版本枣子姐的style给删了。。。只能从头开始慢慢调试,同时也尝试新风格新背景新动作。特别提醒一下,如果存的style太多,千万不要自己在文件表格里面删减,不然报错之后全部style都没了。(血泪史)


于是又开始产出掉san的图

写专栏的时候跑出来拆台的(恼)
但是从开头翻到这里,其实人物特征效果是越来越好的。

一开始我陷入了一个误区,就是把原图直接丢进去,让图像预处理进行分割,训练出来的模型效果不太好(也有可能是操作不当,权重给太高,渣机懒得尝试了)

在之后的训练里,我把立绘的图一张一张裁剪,把头部各表情剪出来,同时将其在训练集中复制粘贴好几次,这样原画风的图片占比就比较多,插画的占比比较少。然后把每一套衣服剪一下,再适当添加nsfw的素材进去。这样素材及总共应该有六百多张图。不过其实对于LoRA模型来说,不需要这么多素材,也不需要这么多步数。我也可能是多此一举了,今天早上刚跑完的模型,是我基于原本跑了7w步的模型继续训练了10w步产生出来的。。。错误率大概在1%左右,应该已经陷入局部最优出不来了。

我还做了一些其他尝试,例如图生图,在这里推荐pose studio,可以摆各种各样的姿势,然后截图拿去图生图。

当然,不要跑太复杂的姿势。。。。不然又要掉san了


嘿嘿嘿。。。嘿嘿嘿我的枣子姐
4g显存能跑多大的图?我跑1024x768是没有问题的。在提示词里面最好不要多个LoRA模型一起用,因为那样会占很多显存,我三个混用的时候,跑960x640都会给我爆显存。

唉,跑了这么多图,看了这么久,感觉又越改越不像了


写在最后

祝大家能顺利跑出自己的老婆,夏目我先抱走了(滑稽)。 作者:井之上泷奈酱酱酱 https://www.bilibili.com/read/cv21677055 出处:bilibili

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

低显存(4g)训练LoRA模型的一些经验+自训练四季夏目LoRA模型分享 的相关文章

  • js删除键值对的方法

    1 对于Map 增set k v 删delete k 查 get k 改set 43 get span class token keyword const span graph span class token operator 61 sp
  • java一路走来

    记得第一次学编程 xff0c 那都是高二时 xff0c 那时因为电脑很狂热 xff0c 刚好有一个哥就给我介绍了编程 xff0c 并给我演示了下vb语言 xff0c 用vb做了个计算器 xff0c 当时我惊呆了 xff0c 才知道编程有多神
  • Python基础教程之列表

    八仙过海是一个中国民间故事 xff0c 讲了汉钟离 张果老 韩湘子 铁拐李 吕洞宾 何仙姑 蓝采和和曹国舅八位神仙各显神通渡海的故事 我们都知道变量只能被赋值为一个值 xff0c 现在我们想把八位神仙的名字同时赋值 xff0c 该如何实现呢
  • move_base参数配置

    现在我们已经可以构建当前环境地图 xff0c 可以实现机器人在当前地图中的定位 那接下来就可以在地图上给定目标点 xff0c 开始规划路径控制机器人移动过去 xff0c 这样就可以完成在已知地图中进行自动导航的任务了 在已知地图中进行路径规
  • 计算节点nova服务启动失败

    在计算节点启动openstack nova compute服务的时候 xff0c 服务无法正常启动 xff0c 查看nova的日志发现如下报错 xff1a 2019 04 25 00 02 26 481 24682 ERROR nova T
  • openstack通过dashboard页面创建实例,实现实例与外部通信

    配置完所有节点 xff0c 通过dashboard页面来进行下一步的配置 首先通过admin用户登录页面 在管理员下 xff0c 创建一个外部网络 注意供应商类型为flat xff0c 之前修改配置文件时有提到过 etc neutron p
  • 防火墙经过地址转换抓包详解

    R表示收到 xff0c X表示发出 xff0c R 64 eth1是从eth1口收到数据包 X 64 eth2是从2口发出数据包 16 1 1 1 gt 18 1 1 2 表示IP 16 1 1 1发给IP 18 1 1 2 Seq后面的数
  • PyTorch复现SRGAN算法核心代码(带注释)

    train py import argparse import os from math import log10 import pandas as pd import torch optim as optim import torch u
  • saltstack部署OpenStack rocky版

    通过saltstack工具 xff0c 来自动部署OpenStack 基本的yaml 源码放在github上了 有兴趣可以查看 自行测试三台虚拟机安装没有问题 需要注意的是安装cinder slave xff08 从节点 xff09 的时候
  • openstack登录dashboard无法获取实例,无法获取镜像

    在部署配置完openstack基础服务以及dashboard后 登录页面发现很多功能都不正常 xff0c 无法获取实例 xff0c 也无法获取镜像 查看日志 xff1a grep ERROR var log nova var log nov
  • 实例 "test-1" 执行所请求操作失败,实例处于错误状态。: 请稍后再试

    openstack创建实例的时候出现报错 xff1a 实例 test 1 执行所请求操作失败 xff0c 实例处于错误状态 请稍后再试 错误 Build of instance 6ec6e8b1 9300 4be4 95fe 20434ea
  • Pycharm报错:Process finished with exit code -1066598274 (0xC06D007E)

    问题描述 pycharm运行到np linalg slogdet 时报错Process finished with exit code 1066598274 0xC06D007E xff0c 检查发现该函数输入shape超过 xff08 3
  • 你能区分数字化与信息化吗?

    近几年 xff0c 数字化 悄然无息地取代了 信息化 xff0c 从各种定义中 xff0c 我们可以知道数字化是指将任何连续变化的输入如图画的线条或声音信号转化为一串分离的单元 xff0c 在计算机中用0和1表示 xff0c 通常用模数转换
  • k8s高可用集群 kube-flannel报错,从running-error-CrashLoopBackOff。node“k8s-master-1“podcidr not assigned

    flannel 报错 xff0c 朋友别着急 xff0c 慢慢来 xff0c 看看能不能帮到你 报错信息 xff1a Error registering network failed to acquire lease node k8s ma
  • 查找文献的常用方法

    查找文献的常用方法 一 直接进行论文关键字搜索 直接搜索某个专题的论文 xff0c 关键词 和 摘要 是论文的特征词汇 如 xff1a Google学术搜索 xff1a http scholar google com 百度国学搜索 xff1
  • 【框架解析】Hadoop系统分析(九)--Http服务

    hadoop内嵌了jetty的服务 xff0c 提供了一系列的servlet供外界或是内部节点之间使用http访问 HttpServer 封装了jetty的Server xff0c 提供http服务 默认会提供三个context logs
  • 算法学习

    我们用的教材是电子工业出的 计算机算法设计与分析 xff08 王晓东 xff09 xff0c 这本书还行吧 xff0c 其实国内的任何一本算法书都 还不错 xff0c 因为他们无非都参考了算法导论或计算机程序设计艺术等这些国外的经典算法图书
  • Android Studio添加多国语言

    问题 如何在AS上添加多国语言string xml 初学者如我 xff0c 估计也摸不到地方 bing下网络居然没有找到这个问题的解答 xff0c 有的是直接在Res下添加语言文件夹即可 这个也是一个方法 xff0c 但是 xff0c 我想
  • Hiding Images in Plain Sight: Deep Steganography 于众目睽睽之下隐藏图像:深度隐写术

    Hiding Images in Plain Sight Deep Steganography 于众目睽睽之下隐藏图像 xff1a 深度隐写术 1 摘要 隐写术是将秘密信息隐藏在另一条普通信息中的一种实践 通常 xff0c 隐写术用于在较大
  • IP、子网掩码、网络号和主机号的关系

    IPV4的IP地址格式通常表示为xxx xxx xxx xxx xff0c 其中xxx为十进制数 xff0c 取值范围是 0 xff0c 255 xff0c 若用16进制表示则为xx xx xx xx xff0c 其中xx的取值范围是 0

随机推荐