なんJNVA部★146
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★145
https://fate.5ch.net/test/read.cgi/liveuranus/1675709429/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 絵柄学習の手引きどっかないやろか
低スペだからモデルマージみたいにポンポン試せないのだめだな
グラボ買い替えた方がええな sita触ったけどいいっすねLoRAの乗りもいい
https://i.imgur.com/TgYM2Jm.jpg
こういう次の瞬間触手が飛び出しそうなもご口好きだわ sd-scriptsをgit pullしてrun_popup.bat起動したらエラーになっちゃった >>443
>>444の言うとおりなので1e-4は0.0001で5e-5は0.00005ってことや
alphaの兼ね合いでunetのlrを1e-3にしたとしたらその半分は5e-4になるで
additional networkのExtension使う場合はLoRAの効きをunetとtextencそれぞれに対してウェイト決めれるからtextencoderのウェイト半分にするとか0にして試してみたらええんやないか >>457
## アップグレード
新しいリリースがあった場合、以下のコマンドで更新できます。
cd sd-scripts
git pull
.\venv\Scripts\activate
pip install --upgrade -r requirements.txt
ウィキにも書いとかなんかな ズバリお聞きします
Loraってなんですか?
自分の解釈では、
任意のフォルダに美少女Aの画像5枚と猫の画像5枚を入れて学習させると
猫と美少女の中間のキャラが誕生するという解釈なんですが合ってますか?? >>464
1枚からここまで来るのはすご
>>466
猫と美少女が揃って出てくるかもわからんやろ >>462
Readmeの下の方に書いてあったわ
それgit bashで打ち込んだらアプデ始まってもっかい起動してみたが変化なくてエラーやreturned non-zero exit status 1. >>405
最新のautomatic1111はvaeのクルクルボタン押してもリスト更新しないバグがあるっぽい。あげ直したらでたわ >>469
ポップアップ版がまだ最新のsd-scriptに対応してないんちゃう
結局直打ち覚えるのが早い dim4
https://majinai.art/i/d0YQFHY.png
dim128
https://majinai.art/i/yvHgXEA.png
loraが軽くなると聞いてdim4でやってみたんやが単にdimの数値変えるだけじゃあかんのか?
ちなpopup版で他の数値はみんなデフォルトや Dockerとか入れたりはした
wsl(Windowsでlinux使うMS謹製の機能)とかカーネルバージョン古いだの言われてアプデしたりとかで使ったことないの多用するから環境構築しんどいわ >>473
dimってのは学習で覚える情報量に直結しとるからむやみに減らしてもええこと無いで
128なんか要らん4で決まりやとか言ってる奴はガセや
覚えさせる物によるとしか言いようがない 新しいSSD買ってデュアルブート環境整ったしTensorRT試してみるか
正直個人的にはNVIDIA依存進むのは好きや無いけど生成速度には代えられん dimってdimensionのりゃくちゃうの?
次元数
減らしたらそら学習は早くなるけど情報量減るから微妙になりそう
次元の呪いはスペック余ってるなら解呪しないほうがええぞ ガセ野郎扱いでかなC
>>473
ワイは作者のREADME読んでコマンド直打ちで、アニメキャラしかやっとらんからわからんなあ すまん例にした素材が悪すぎたようだ
ロボットじゃなくて人間でやるわ dim高い方がいろいろ学習しちゃうという認識だから
顔だけなら低くてもええわな >>459
WebUIで適用できるようになってから拡張の方使ってへんかったけどこれ凄いわ!ありがとう
text0にしたらAOM2とは思えない酷い瓦礫背景だったのが綺麗になったわ アホほどパラメータ数あんのに断言できることなんてないわな loraの入口増えたからせいりせんとあかんか
sd-scripts kohyaオリジナル
lora-easy-traning-script オリジナルにバッチファイル
としあきbat 同上
kohya_ss bmaital オリジナルにgradioのgui
dnpanda webui拡張機能 スタンドアロンなら上とほぼ同じ 何スレか前に検証しとる人おったけど高すぎるとぶっ壊れる率あがるで
イラストなら32dimくらいでもええみたいやね 生首打法でパンツコキLoRA改善できんかやってみたが、ガビガビ、奇形、ノイズ画像まみれや・・・。
そもそもの学習の仕組みを理解できんからお手上げやね。結局どういう設定で作ったかも分からん最初のバージョンが一番安定しとる有様や。
どうもアルファ値1にするとアカンような気がする。 解像度も脳死で768や1024が良い訳でもなさそうよなー
元ネタ次第では640pxや512pxも全然選択肢だと思ったわ 今日リリースされたFastAPIのバージョンがwebuiでバグるようなので、もし立ち上げられないニキがいたら pip install fastapi==0.90.0 するのをオススメするやで 三次元は作ってみたが、パラメータがちょいずれても本人のような別人になるから、XYで一覧出しまくり
マアマアなもんは数枚出せたから一旦休止 dim上げると細かいところまで素材の通りに描き込んでくれるようになるが、代わりに背景や細かいゴミまで拾うようになってしまう
大まかな形状だけ素材から拾って後は良きに計らってもらうならdim低い方が背景や衣装の自由度は上がる、代わりに細かいところが適当になる latentでアップスケールすると目がキラッキラになるの抑制できたりするの
恋する乙女かってぐらい全員目が輝く 今から新規インストールするとエラー吐いて起動出来ないんで気をつけてな
ここ見てる人間で新規インストールするヤツなんかそうそうおらんと思うが git pullもしてないのにさっき何枚か生成してたらno half vae付けろっていうエラーが出るようになった。再起動しても直らず。このオプションつけてもクオリティに影響ないのかな? 雰囲気勢でよーわからんけど
dimが低いと生成の最初の方に効いて
大きいと生成の後の方に効いてくるような感じするな
体位や構図は生成の最初の方でノイズからアタリつけるからdim低めで機能するけど
絵のタッチやテクスチャ感みたいのはdim大きめにしないと駄目みたいな?
特徴がはっきりした虹キャラ再現ならdim低いほうが汎用性あがって着せ替えし易いとかはあるかもしれんな
逆に3次はdimあげないとリアルな感じが薄れるかもしれん
全部雰囲気やけど としあきの所でLoraの次元数減らすスクリプト配布されてたから拾っとけば良かったわ 頭から全身どろどろのぶっかけLoraとかないかな
やっぱりそういうのは一つずつ試していくしかないのか >>500
すげぇ完成したのかありがたくいただくで pip install fastapi==0.90
colab民やがいま上のコードかまさないとミドルウェア~のえらー出るみたいやね🥺 >>503
今聞こうかと思ってたけど
paperspaceでも起動するとすぐ落ちるのはそれか? >>504
ミドルウェア云々ならそれやね試して味噌 >>504
papersapace使ってるけど0.90.0にしたら直ったで >>505
サンガツやで治ったわ聞く前に直ってよかったわ
エラーコードググっても出て来ないし長文エラーコード貼るとこやったわw
>>506
それでも直るんやね、ありがとうやで 先日はドルフィードリームだったので、今度はスーパドルフィーの写真で学習
https://i.imgur.com/JU0WjQq.jpeg
うむ、なかなかいい感じになった
コレはベースモデルが素のAOM2、次はぼかしLora弱適用したAOM2で再び学習するのだ ぼかしLora適用(0.5)したnaiで学習→AOM2hで出力を試したで
けどあんまりくっきり感増したりはしないね
(最上段が通常naiで作成、それ以降がぼやけnai作成のe1~3)
写真じゃなくて学習元がイラストだからあんま効果ないって感じかな
https://i.imgur.com/WLtbm4b.jpg
AOM2h自体がイラストに比べ大体精緻だからしゃーないか 解像度より1024で学習したいときって
loraの設定変更必要ですか?
解像度、1024ー2048の範囲で
抑えたのですが拒否されて困ってます
https://i.imgur.com/bT9gvFI.jpg
https://i.imgur.com/t5AebPc.jpg >>510
なるほど、イラストだと効果薄いのか、それともnaiベースだからなのかな
naiで作ったLoraはAOM2にも割と効くけど影響力は下がるしな
あるいはAOM2とnaiじゃぼやける原因の層?パラメータ?が違うのかもしれんし
はたまた学習時のパラメータとか学習元画像の性質なのか……
可能性は色々考えられるがまぁこれだけじゃ分からんな
やはりまだまだ実験が必要だなコレについては 容量気にして学習の質を下げるよりはハード増やしたほうがいいよ
もしくはoutputのいらん画像定期的に全削除とか >>511
それは設定書き変えないといかんよ
「self.max_bucket_resolution」の所が学習したい解像度を下回ってると拒否られるんだよ
初期は960になってるから、そこを1024以上にしないと駄目だぞ LoRAで学習用素材画像フォルダの名前に付ける数字(繰り返し回数?)は、なんぼくらいにするのがええん?
Lainの人のを参考にしてずっと20で回しとるが、これでええのか自分ではわからんのや 最初の学習率上げる設定の場合
個人的に5ー7くらいが良さそうな印象。
10以降は構図被り酷かったので >>518
そんなもんでもええんか
用意した素材画像の枚数はどのくらい?
俺もちょっと数値下げてみるかなぁ >>519
20枚。
俺も始めたばかりだから他の人から
アドバイスあったら参考にしない方がいいよ 寝た時のこのポーズはクソエロ挿入待ちなのに
立つとただのバカになるんだから不思議なもんよな 事後LORA作ろうとしたら外人ニキが先に作ってたわ >>521
チノちゃん!チノちゃんのポーズじゃないか! 初心者でとりあえずLoraをインストールして
interrogateボタンを押したのですが
Loading・・・からエラーとなってしまいました
何が原因でしょう >>531
入れた数字や文字列をスクリーンショットで貼らんことにはなんとも 身体の一部分の特徴学ばせたいときの素材は身体だけでいいんかな?
完全に切り取るとなんのことか分からんし顔入れると顔が寄ってしまう >>520
まあせっかくやし試すだけ試してみるわ、サンガツ 素材のタグの話なんやけど例えば
jacket
open jacket
white jacket
gray jacket
でバラけてたら他二つをopen jacketに置き換え統一するのが正解で合ってる? pixiv、AI規制前にフォロワー稼いでた人は規制後も一定数ビューつきそうだけど規制後から始めた人は大変やね 風船mixって、おまんこおっぴろげてくれるのは良いけど奇形が多いな
きれいなおまんこ描いてもらうにはどうしたらええんや? >>503
スタンドアローン版導入しようとして同じエラーで起動出来んのやが、このコードどこかのbatファイルにぶち込めばええんか……? >>537
俺はwhite open jacket みたいに 色-形-物 にしてるけど、どうなんだろう 遠隔環境作ったのに
No interface is running right now
ですげえ頻繁に使えなくなるのなんなん? Korean dollのやつは特定人物を学習しとるっぽいから使うのちょい怖いわ >>534
loraの学習は時間かからんから思い立ったら即試すのがええで
頭部全部じゃなくて口から上を消して顎の部分を残したらAIが体と認識しやすくなってくれたりしないかな? 学習画像ってやっぱり学習させたい部分だけ残してあとは消してタグも学習させたいタグだけでやったほうがいいよね
タグを一つにすると写ってる物全部そのタグに吸われるってことだよね? >>537
そんな感じでOK
むしろopenも消してjacketだけでも良かったりする
whiteやgrayみたいな色タグはむしろ邪魔になるケースが多い
例えばred jacketにしているとredの影響で背中のリュックまで影響及んで本来青なのに赤く染め直されてしまうとかね その写っているものってのが問題でな
ロングヘアーの生首だと髪と髪の間が体と認識されて
真っ白い体の人だと認識される >>545
今知ったがintelのコケっぷり凄まじいな
蟹以下に成り下がってるとは知らんかったで 非対称の髪型のキャラ学習させた時に打率5割くらいで左右反転したキャラがでてくるんやけどこんなもんやろか?後で画像反転させれば大きな問題ではないんやけど >>544
見る側からは使ってると断定出来ないし問題無いのでは
ダウンロードするのがそもそも危ないんか >>552
flip_augが無効になってるかどうかぐらいかなあ ■ このスレッドは過去ログ倉庫に格納されています