打印

[教程] 想把日本艺人老婆训练成AI模型?想给图片里的人物穿/脱衣?想修复AI生成的图片?全部在线搞 ...

本主题由 内力煮火锅 于 2023-6-20 21:47 解除置顶
37

想把日本艺人老婆训练成AI模型?想给图片里的人物穿/脱衣?想修复AI生成的图片?全部在线搞 ...

为避免你在公共场所打开此贴尴尬,不穿衣服的作品在本教程靠后的位置。

最终成品示例:




建议先完整看一遍教程视频,再阅读完下方的教程文字,然后再回到视频开头,结合着视频和文字教程一步一步操作。



视频一开始提到的训练模型的脚本在这个链接里面:
https://github.com/Linaqruf/kohya-trainer

训练模型会花费不短的时间,为了防止训练到一半就被谷歌切断资源,需要一直保持页面活跃。

为了省事,可以在开始训练模型以后,在训练模型的页面按下键盘上的F12,进入开发者模式。

并在控制台(console)输入如下代码:
复制内容到剪贴板
代码:
function ConnectButton(){
  console.log("Connect pushed");
  document.querySelector("#top-toolbar > colab-connectbutton").shadowRoot.querySelector("#connect").click()
}
setInterval(ConnectButton,60000);
并按回车运行,出现数字即为成功,它会自动每分钟尝试重连一次。



这一步不会也没关系,自己费心盯一下网页,别让它断联了就好了。


全部按照视频操作完以后,最后就可以在谷歌云盘里找到训练好的模型。


如果是要本地使用的话,直接下载下来并放进stable diffusion webUI的放Lora模型的文件夹里就好了。


如果是要在线使用新训练出来的模型的话,可以按照如下步骤操作:
(下面的内容开始看不懂了的话,请先去学习入门教程: 0. 新手零基础入门教程:如何不用显卡做出一张街头露出的AI图[13P]

1. 登录https://colab.research.google.com/

2. 在Colab的设置里打开GPU

3. 运行如下指令:
复制内容到剪贴板
代码:
from google.colab import drive
drive.mount('/content/drive')
4. 指令运行完以后,就可以在Colab里访问谷歌云盘的文件了。找到并复制训练好的模型文件的路径。
(找到训练好的模型文件的方法在视频5:00处,复制某个文件的路径的方法在视频的2:15处。也就是说,你要用2:15处教的方法去复制5:00处找到的那个文件的路径。)

5. 用复制来的文件的路径替换掉下面的安装指令中的全部汉字(只替换掉汉字,除汉字外的全部标点符号、字母和数字都不要改动):
复制内容到剪贴板
代码:
!pip install --upgrade fastapi==0.90.1
!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui
!git clone https://github.com/yfszzx/stable-diffusion-webui-images-browser /content/stable-diffusion-webui/extensions/stable-diffusion-webui-images-browser
!curl -Lo chilloutmixni.safetensors https://huggingface.co/nolanaatama/chomni/resolve/main/chomni.safetensors
!curl -Lo ulzzang-6500.pt https://huggingface.co/nolanaatama/chomni/resolve/main/ulzzang-6500.pt
!curl -Lo koreanDollLikeness_v15.safetensors https://huggingface.co/amornlnw7/koreanDollLikeness_v15/resolve/main/koreanDollLikeness_v15.safetensors
!mkdir /content/stable-diffusion-webui/models/Lora
!mv "/content/koreanDollLikeness_v15.safetensors" "/content/stable-diffusion-webui/models/Lora"
!mv "/content/chilloutmixni.safetensors" "/content/stable-diffusion-webui/models/Stable-diffusion"
!mv "/content/ulzzang-6500.pt" "/content/stable-diffusion-webui/embeddings"
!cp "用复制来的文件的路径替换掉此处的汉字" "/content/stable-diffusion-webui/models/Lora"
%cd /content/stable-diffusion-webui
!git checkout 91c8d0d
%pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117
!COMMANDLINE_ARGS="--share --disable-safe-unpickle --no-half-vae --xformers --reinstall-xformers --enable-insecure-extension-access" REQS_FILE="requirements.txt" python launch.py
6. 将修改好的安装指令粘贴进Colab并运行。

7. 最后运行完以后,会出现stable diffusion webUI的链接,点开就能使用了。

8. 用你新训练好的模型的文件名换掉下面的提示词中的全部汉字
(只替换掉汉字,除汉字外的全部标点符号、字母和数字都不要改动)
(模型的文件名就是一开始训练前在设定阶段你给模型起的名字)
(如果忘记了,就到你的谷歌网盘里找一下新生成的模型文件,看一下文件名)
(一般文件名是XXX.safetensors,这里只需要用到XXX的部分)
复制内容到剪贴板
代码:
<lora:模型的文件名:0.7>, <lora:koreanDollLikeness_v15:0.3>, best quality, masterpiece, illustration, an extremely delicate and beautiful, extremely detailed, CG, unity, 8k wallpaper, Amazing, finely detail, masterpiece, best quality, official art, extremely detailed CG unity 8k wallpaper, absurdres, incredibly absurdres, huge filesize, ultra-detailed, highres, extremely detailed, beautiful detailed girl, extremely detailed eyes and face, beautiful detailed eyes, ((smiling)), full-body shot, light on face, 1girl, outdoors
自己训练的模型难免有这样那样的毛病,所以我在提示词里把自己的模型的权重调到了0.7,同时使用了0.3个权重的一个以前用的很顺手的lora模型:koreanDollLikeness

9. 把改好的提示词放到它该去的地方

10. 把下面的负面提示词也放到它该去的地方:
复制内容到剪贴板
代码:
sketches, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, bad anatomy,(long hair:1.4),DeepNegative,(fat:1.2),facing away, looking away,tilted head, {Multiple people}, lowres,bad anatomy,bad hands, text, error, missing fingers,extra digit, fewer digits, cropped, worstquality, low quality, normal quality,jpegartifacts,signature, watermark, username,blurry,bad feet,cropped,poorly drawn hands,poorly drawn face,mutation,deformed,worst quality,low quality,normal quality,jpeg artifacts,signature,watermark,extra fingers,fewer digits,extra limbs,extra arms,extra legs,malformed limbs,fused fingers,too many fingers,long neck,cross-eyed,mutated hands,polar lowres,bad body,bad proportions,gross proportions,text,error,missing fingers,missing arms,missing legs,extra digit, extra arms, extra leg, extra foot
11. 设置参数,比如:
复制内容到剪贴板
代码:
Steps: 30, Sampler: DPM   SDE Karras, CFG scale: 7, Size: 512x800
12. 出图,效果参见本帖最上面的那张图。


成功出图以后,就可以按照自己的思路来修改提示词、负面提示词和参数了。


我最一开始实验的就是裸露的提示词,但是我们说好了裸露的图片会放到帖子靠后的位置,所以先来两张泳装的:

提示词加上了(cameltoe:1.2), pool, water, bikini





可以说脸部还是很成功的,跟我拿来训练的某日本女星还是有几分相似的。
但是手崩得不要不要的,自己训练的模型还是跟那些爆火的模型比不了。
但是正好给我一个机会练习一下用AI修复手部瑕疵(这部分的教程会放在2楼)。


好了,现在开始调教裸露提示词。先换上已经用熟了的这两个裸露提示词:
((nude)), ((spread legs))




好看是挺好看的,但是跟我训练用的日本女星的相貌还是不够像啊。
把另一个模型去掉,只用自己的模型试试,去掉<lora:koreanDollLikeness_v15:0.3>




这张挺像的了,再加回另一个模型,然后换个姿势试试。
加回<lora:koreanDollLikeness_v15:0.3>并去掉((spread legs))




再去掉<lora:koreanDollLikeness_v15:0.3>试试




再加上<lora:koreanDollLikeness_v15:0.3>试试




再去掉<lora:koreanDollLikeness_v15:0.3>试试




再试试穿上汉服并裸露,提示词加上(Hanfu:0.9)
分别加上和去掉<lora:koreanDollLikeness_v15:0.3>各一张






感觉单独用自己训练的模型直接出图的话,质量似乎不太稳定,还是和比较成功的模型配合使用比较好。

教程正文结束,下面介绍一些小技巧。

2楼介绍如何用AI局部重绘功能修复图片瑕疵。
3楼介绍如何用AI局部重绘功能给AI人物脱衣。
4楼介绍如何用AI局部重绘功能给AI人物穿衣。

[ 本帖最后由 内力煮火锅 于 2023-4-14 16:04(GMT+8) 编辑 ]
附件: 您所在的用户组无法下载或查看附件

TOP

1

如何用AI局部重绘功能修复图片瑕疵:

上面有几张图手画崩了,正好拿来当教程:



如图:

1. 切换到图生图标签。
2. 输入原本的(或自己想改成的)提示词。
3. 输入原本的(或自己想改成的)负面提示词。
4. 切换到局部重绘标签。
5. 把要修复的图拖进来。
6. 选一个跟手部皮肤颜色相近的颜色,可以用里面的取色器。
7. 选择合适的画笔的粗细度。
8. 把画崩的手涂掉。
9. 下面的参数尽量跟原图一致,除非你想改动。
尺寸最好要保持一致,如果实在想换尺寸的话,设置参数的时候最好选择剪裁而不是拉伸,不然人物会变形。
(别的参数如果有不会填的,就保持不变就行,或者也可以看看我修复下面一张图的时候截屏的参数)
10. 出图


修复效果如下:




再修复一张:



方法是一样的,不过把涂改的颜色换成了球的蓝色,因为不想重新生成手,只想把多余的手覆盖掉,替换成球。
参数的部分也截图了,基本保持没变。

效果如下:



[ 本帖最后由 内力煮火锅 于 2023-4-13 20:41(GMT+8) 编辑 ]
附件: 您所在的用户组无法下载或查看附件

TOP

1

如何用AI局部重绘功能给AI人物脱衣:

以本帖第一图为例,把这张图拖进框里,用同样的方法局部重绘,同样的重绘参数,画图的参数跟原图一切参数都一样,只略微改动提示词:

((smile))改成((nude))




改成((top off))




改回((nude))加上((nipples))




((nude))改成((top off))加上((smile))




((top off))改成((pink))



[ 本帖最后由 内力煮火锅 于 2023-4-13 20:44(GMT+8) 编辑 ]
附件: 您所在的用户组无法下载或查看附件

TOP

4

如何用AI局部重绘功能给AI人物穿衣:

3楼生成的图里面有一张很像我拿来训练的日本女星啊,不行我要给我的前前前老婆穿上衣服,老婆的裸体给你们看一眼就够了,不能多看

方法如下:



方法跟上面介绍的一样,只有一点变化:

1. 把要穿衣服的地方涂黑
2. 设置里改成只重绘涂掉的地方
3. 提示词里去掉裸露相关的词,加上服装相关的词,比如bikini

效果如下:



[ 本帖最后由 内力煮火锅 于 2023-4-13 20:46(GMT+8) 编辑 ]
附件: 您所在的用户组无法下载或查看附件

TOP

0
技术贴,先去学习学习,以后有大用处,哈哈

TOP

1
厉害了,有了AI黄漫是不是能崛起了

TOP

0
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision that matches your PyTorch install.
这个提示怎么破?

TOP

0
引用:
原帖由 dx3906 于 2023-4-10 20:45 发表
RuntimeError: Detected that PyTorch and torchvision were compiled with different CUDA versions. PyTorch has CUDA Version=11.7 and torchvision has CUDA Version=11.8. Please reinstall the torchvision th ...
检查一下你的安装指令里面有没有添加这一行:
复制内容到剪贴板
代码:
%pip install torch==1.13.1 cu117 torchvision==0.14.1 cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org/whl/cu117

TOP

0
引用:
原帖由 内力煮火锅 于 2023-4-10 20:50 发表

检查一下你的安装指令里面有没有添加这一行:%pip install torch==1.13.1 cu117 torchvision==0.14.1 cu117 torchtext==0.14.1 torchaudio==0.13.1 torchdata==0.5.1 --extra-index-url https://download.pytorch.org ...
ERROR: Could not find a version that satisfies the requirement cu117 (from versions: none)
ERROR: No matching distribution found for cu117
谢谢,加上这行以后,依然有这个提示

TOP

0
引用:
原帖由 dx3906 于 2023-4-10 21:07 发表

ERROR: Could not find a version that satisfies the requirement cu117 (from versions: none)
ERROR: No matching distribution found for cu117
谢谢,加上这行以后,依然有这个提示
你这个是在本地部署的还是在线部署的?
本地部署的先查看一下python的版本。
在线部署的确认一下有没有在Colab里打开显卡。

TOP

当前时区 GMT+8, 现在时间是 2024-5-20 02:26