なんJNVA部★148
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★147
https://fate.5ch.net/test/read.cgi/liveuranus/1676175319/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured ControlNetって本家はi2iだけどextentionだとt2iなのは間違いだよね? ControlNet二個とも入れて左下にcontrolnetとunprompted両方出てきたけど使い方全然分からないw すまん、これワイの天職かもしれん
全く疲れずに働けるわ >>98
こういうこともあろうかと3090買っといてよかったわ ワイVRAM8GBやけど--medvramでギリ動いとるで
クッソ重い一回目が成功すれば後は軽い処理しか無いからwebui立ち上げ直後にゴリ押しや ただ3090そのままだとメモリが平気で90Cとかになるで
上の金属プレートにNoctuaファン載せてなんとか80C controlnet拡張アプデでLow VRAM (8GB or below)付いたで タスクマネージャーでグラボの温度は見れるけどメモリの温度って見れるの?大体同じ? キャラクターローラはマニアックすぎるから画風ローラとかの方が受け入れられやすいんやろ
ということで桂正和の尻ローラやら三浦健太ローラ待ってる >>109
気になるならHWMonitorかCPU-Z持ってたほうがええで
両方とも無料 リリース来てたんかい
Windows PCでLsmith(TensorRTで高速化された画像生成のWeb UI)を利用する手順
https://note.com/mayu_hiraizumi/n/nf143ea048568 >>114
やってみたいけど
1111で確実に動くようになるまでは様子見するかな 久しぶりの集団催眠、ハイライトOFFLoRA使わせてもらったやで、性癖に刺さる
https://i.imgur.com/2nSYMPf.jpg
https://i.imgur.com/HYoIYvo.jpg
https://i.imgur.com/FBMlRrK.jpg
https://i.imgur.com/ineGafS.jpg
https://i.imgur.com/DafW6eV.jpg
いい感じだが1168x768程度のhiresだとガビガビなるな…(上のは1536x1024)
解像度上げたら少しマシになったがLoRA扱いも結構難しいんやね
というか2か月ぐらい浦島して1111更新したんやが、生成される画像が少し変わった気がするんだが何か変わったんやろか? paperspace、1台もfreeのやつないやんけ >>119
色々変わって昔の設定モードがあるくらい なんか風船の人みたいな聞き方でアレなんやけどカビ生えるLoRAの作り方知っとる人おる?
人間にも家具にも全部カビ生えるようなやつ
例えばカビの生えた女、カビの生えた椅子、カビの生えたタンスを学習画像に入れて
カビの生えてない女、カビの生えてない椅子、カビの生えてないタンスを正則画像にしたら
「カビは何かの物体に生えるもの」ということだけ覚えて、女や椅子やタンスに限定しない形にできるってことでええんやろか 二日ぐらい覗いてなかったら浦島太郎や今はコントロールネットってのがトレンドなのか? 体位loraの設定何も分からん失敗まみれやどっかにキャプションのコツとか階層で適応する奴のコツとかまとまったページないんか? >>124
まだトレンドにまではなってないけどこれからきそう
キャラ再現はLoRA ポーズはこれ
とかになるんやないやろか webuiより10倍早いけどloraはおろかplugin機能すらないのはただの上級者向けNAIなんやで >>126
サンガツ前スレ追ってるけど開発複数ある感じなんやな
低VRAMも対応してる最中みたいだし安定するの楽しみやな 512x51の30stepは1秒未満
1024x1024でも5秒
4090ニキは更に早いと見る >>128
ぶっちゃけ生成速度はそこまでストレスになってないわ
ガチャ5秒10秒待ってる間のワクワクとか逆に楽しいぐらい >>131
highresやlora複数適用だとitsめちゃくちゃ低いから普通にストレス
特に最近gifにハマっててもし生成速度10倍になってほしい LoRAでキャラデザだけ再現するのどうしたらええんや……ここ三日くらい色んな設定で試してみてるけど何回やってもモデルの塗りを無視したアニメ塗りになってまう
ケースバイケースではあるやろうけど参考までにどういう感じの設定にすればいい感じになるか教えてクレメンス control net奇抜なポーズは難しいんちゃうかな
セックス体位大量に学習してないと出なそう
というかそこ担当するのがコントロールネットのopenモデルなのかな?
手とか身体のファイル名モデルもあったけどどう使うのか分からねえ >>133
アプライするときに画質干渉を無くす階層の設定
0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0
っつう人いたけど試してみたらどうやろか
塗りとキャラデザは完全に分離できんと思うんやけど >>133
6000~10000ステップになるように学習回数を調整
正則いらんあとはポップアップのデフォルト設定でいい >>135
拡張機能とか使う感じかな?そっちのほうは全然弄ったことないけどやっぱそういう設定しないと無理か…… >>136
ほんほん ステップ数はバッチ数で割ればええんかな?どうも過学習になってる気がして悩んでたんやけど 学習ステップ回すだけやったらモデルの塗りは維持できんのちゃうか 6000ステップとか何時間かかるんや?
Colabだと打ち切られそうや The lora is changing the style too much! reduce unet LR
っていうのは正しいと思うからとりあえずUnetの学習レート下げてみたらどうやろ
ステップはCosineとか動的に設定すれば過学習にならんけど
でも枚数とかゴールにもよるし何度もやってみるしかないんちゃうやろか >>104
この勢いで是非エマさんとかファ・ユイリィとかフォウ・ムラサメとかハマーン様も頼む vastで4090使ってみたことはあるが作業効率がそんなに感動する程違うかっていうとそうでもなかった 4000番台はCuDNNのバージョンをvenvの中にある最新のにしないと遅いぞ >>130
1024は2~3秒かな
まあhires前の生成は誤差だから気にならないんだけど
10倍速くなったら2500x1600が3~4秒で出てくるのはヤバイよね
雰囲気で鬼ガチャすればすべて無問題みたいな
几帳面な人以外xyplotなんかいらなくなるかも colabやpaperspaceで作ったLoraってローカルで使えますか? 浦島でごめんなさい そうなるとモデルも含めてガチャしたくなるから
モデルの切り替えの高速化もなんとかならんかな LoRA階層するやつ試した
●これがデフォルト(全部1)|https://i.imgur.com/41dOrim.jpg
●これが0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0
IN08, MID, OUT03, OUT04を1してるっぽい|https://i.imgur.com/uKzvLEC.jpg
●これが1,1,1,1,1,0,1,1,1,1,1,1,1,1,1,1,1
IN07だけ切ったやつ|https://i.imgur.com/ALXpzoh.jpg
●これが1,1,1,1,1,0,1,1,1,1,1,1,1,1,1,0,0
IN07_OUT10-11を切ったやつ|https://i.imgur.com/hBaPbw5.jpg
●これが1,1,1,1,1,0,0,0,1,1,1,1,1,1,1,0,0
IN07-08_MID_OUT10-11切ったやつ|https://i.imgur.com/Mzywqxt.jpg
う~んわからん、がOUT04(とOUT03も?)を切ると顔層がとんじゃうのでキャラLoRAのときはNGっぽい IN07とかMIDとか切ると構図がたぶん死ぬからコンセプト系のLoRAだとやめたほうがいいかもやで 学習で出せばええやんってのはわかる
ではその学習素材を揃えるのに苦労するのはどうしたらええんや
i2iでなんとか自前調達するしかないんか 画風LORAなんだかんだ難しいな
たまに良いのができるけどほとんど抽象画になる
タグ付けが悪いのか素材50枚じゃ少ないのか
https://i.imgur.com/nzhO1rS.png
https://i.imgur.com/o2vUZT6.png キャラLoRA,画風LoRA 0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1
コンセプト(構図,ポーズ) 0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0
で再現出来るのは確認したけどじゃあIN01~06が何をしとるのかとなるとよく分からん
OUTの1つでも切ると再現度が落ちることあるからキャラLoRA使いながら層別で画風に影響与えないの難しそうや
車輪の再発明かもしれんけど >>155
憂鬱そうな顔ええやん
後はチャイナ服やね ドーナドーナみたいな画風のやつ
Onono ImokoのLORAがcattoに落ちてるからそれとどれかのモデル組み合わせたら出来るんやろな HNだったかにドーナドーナあったやで
おののいもこの魚介はモデルから多岐に渡り全部あったはず >>153
検証サンガツ
参考にさせてもらうで
ところで犬子のモデルは何?綺麗だな https://i.imgur.com/pyjb0bp.png
バレンタインデーやで~ということで新しく上げといたのが改良したDBモデルや
流行りのloraやないのは階層マージグチャ混ぜで誤魔化しが一切効かんからワイの知能やとええのが作れんという理由や
ttps://huggingface.co/okiba/NJ118/tree/main
ttps://mega.nz/file/7JhkXTyS#r6gxiWxzU2d4IzVdHqYmlrHeq-abVjtAvkjpNykHoLo
リドミ↑↓サンプル
https://majinai.art/ja/i/RKLzHiM
https://i.imgur.com/oPGaDXs.png
https://i.imgur.com/VVQGG7K.png
https://i.imgur.com/Eox7ipi.png
https://i.imgur.com/6UBzn1R.png
画風の完璧再現できとる人はほんとに見るたびにすげぇ羨ましいってなってしまう 自分のあげたモデルで自分よりいい出力できてるの見て嫉妬で狂いそう WD1.5でLoRa学習できたでー
--v2に加えて--v_parameterizationつけんとちゃんと学習できんかったから気をつけてな
学習後にmerge_lora.pyでモデルファイル結合して出力
https://majinai.art/i/CwvgZMK.png
https://majinai.art/i/i17Wvwc.png
wdgoodpromptなし
https://i.imgur.com/ySDIqcG.jpg
wdgoodpromptあり
https://i.imgur.com/Xv3moJX.jpg WDgoodrompt付きでお胸が立派になってるのはhuge breasts追加したからでWDちゃんの性癖やあらへんで >>156,158
わかってくれる人おって嬉しいでサンガツ
今の所10枚に9枚はグロ画像や
upしてるニキ達の破綻しなさっぷり凄いわ
https://i.imgur.com/XB6DRxm.png 学習画像が少ないマイナーキャラをLoraで学習してるけど上手くいかん
同じ画像で顔のアップのみとか水増しした方がええんかな? >>163
サンガツ自前のモデルのOUT層に混ぜ混させてもらうやで >>170
拡大縮小してトリミングはええと思うで
非対称デザインでなければ左右反転も追加
最後の手段は生成してできたモデルで生成かi2iしてできた当たり画像を学習素材に加えて作り直すぐらいかなぁ colabでfastapiやら入れないとエラー出るの解決された?新しいバージョンでやりたいけど >>56
AbyssOrangeMix2_nsfw + bad_prompt_version2だよ
ただ、あかちゃんインストーラーで別環境を作って色々実験してた時のやつだから自分でも再現できないわw
https://majinai.art/ja/i/WKm4jey colabどころか普通に導入してもなる
公式で対応してくれねーのかなぁ >>114
徹夜でやってやっとTensorRTことLsmith導入できたで…
躓いたのはnpm install -g pnpmとかいうとこ
bingちゃんでも分からんかったが解決策はWindows10のファイアウォールを無効化やった
あとビルドもフォルダ名が悪かったのか詰まったがなぜか動いた
寝る kohya版のaddtional network extention使えばWD1.5でもマージせずに生成できたでー
WEBUI標準のloRA読み込みは駄目やったわ
SD2.1系にシフトしても今までと同じ感じにloRAは使えるで
https://majinai.art/i/Cu1ekmR.png >>118
5枚目じゃなくて4枚目やったわ
人形劇できそう 精液臭いのがバレても男性の健康の証だから気にしなくていいよと言ってくれる優しいBingさん
https://i.imgur.com/Ezu0zUo.png
匂いの話をしてたのに勝手に口に入れて味の話をし始める淫乱Bingさん
https://i.imgur.com/owp4yJq.png ワイのカルピスが苦くないのはなんでやろ
逆にどうしたら苦くなるんや ワイの中のメスガキ煽りカスBingちゃんが崩壊していく なんか書き込み規制されてまともに参加できんくなりそうや すまん>>163やけど更にこのembeddingsを0.8で適用してくれ
ttps://mega.nz/file/eNYGwbZL#KXIWMFQMrqk5WXy3sdor7RFvxUJG3fACwY57d9SZFU8
まつげを抑制して若干丸目気味にできる
https://i.imgur.com/F6l6tgG.png
https://i.imgur.com/SK8hfBK.png
https://i.imgur.com/4FoPxP9.png ColabでControlNet動かしたけど
指定されてるpytorch-lightning==1.5.0だと駄目みたいやな
https://i.imgur.com/RJ4bHUh.png
色が変なのはVAEを使ってないからやで >>193
理想の形過ぎる
多分これが多くの人が「AI画像生成ってこんな感じ?」って想像してたそのものなのでは >>195
小説書かせた上で挿絵作ってみてって誘導もできるで >>196
今まで見たwd1.5の作例で一番良さげなんだけどpromptが良いのかな Control Net動かんようになってしもた
入れ直しがいいんかな よくこんな速度でプラグイン開発できんな
ワイプログラマーやが日に30行の日もあるわ ■ このスレッドは過去ログ倉庫に格納されています