なんJNVA部★169
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★168
https://fate.5ch.net/test/read.cgi/liveuranus/1678402781/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 裸リボンloha公開した
https://i.imgur.com/fDrEEoV.jpg
https://huggingface.co/SenY/LoRA/resolve/main/naked_ribbon.safetensors
前スレでプロンプトで出るって話あったけどプロンプトでも出る奴のLoRA作るのは基本的に
①打率が低かったり思いっきり強調しないと出ない
②tokenが他のタグと汚染しあってて意図しないもの呼び出しがち
③単純にクオリティが低い
辺りだね >>9
ぐう分かる
セックス体位とかも別にプロンプトで出るけどLoraとかTextual Inversion出まくってるしな 保守……はもうええか
https://seesaawiki.jp/nai_ch/d/VAE
wikiにVAEの項目と、↓な感じのカスタムVAEの検証を置いたで
eCustomAとかええ感じだし研究すすむとええなぁとおもいました
https://files.catbox.moe/rczw9t.webp めんどくさくて作ってないけどテンガロンハットを封じられるcowboy shotとかラクダを呼ばないcameltoeは本当は欲しいなあと思ってる
この場合は追加学習よりはTI向きなのかな >>16
Lora出て学習流行る前からガンガンやってた人はやっぱクオリティが高いわね 体位Loraの作り方教えて
ちんぐり返ししながら女がおとこに顔面騎乗してフェラしてる絵が好きで作りたい 学習に手を出そうにも何を目指したらいいのか分からなくて未だにプロンプト弄ってるだけの日々が続く
よくわからんイラストでも妄想で設定広げて抜くから妄想力は鍛えられたと思います
ちょっとグロいかもしれんから注意
https://i.imgur.com/hNIeuRi.png 俺はLoraで自作モデルをファインチューニングする日々や
こうして俺の全ての好みに完全に合致するモデルをいつか作り上げるんや
そのモデルをサイバー空間に上げておけば俺の心はそこでずっと生き続けることになるだろう 乳揉みLORAってあるんかな
崩潰しやすいからほしい ひたすら騎乗位絵でしゅっしゅしてきたけどなんか飽きてきたのう...
AIの進歩より先に自分の想像力が限界を迎えつつある そこからどんどん過激化してちんぐり騎乗位とか風船に行き着くんや 朝鮮人キモいからさっさと死んでくんね?wつか歌舞伎町とかで顔面煽りしても何も言い返せないのマジ草^^
色々なスレにレス置いてるけどアク禁食らったら雑魚共逃げたってことだからな?w etr_Odysseyのckpt どこでてにはいるんや?
画風めっちゃ好みでぴんびんですよ 今更だがロリや無修正以外は、colabで学習した方が無料だしローカル生成と並行して使えるからお得なのか
何なら複アカなら、幾らでも同時に学習出来るのかな SSD買い足す前にふと思ったんだけどできた画像の保管にAmazon Photo使ってる人おるか?
エロ画像作りまくってるんやがなんか昔BANされるかもしらんみたいなの聞いたことあるんやけどアレはロリがヤバイってだけでイラストとかなら問題ないんかな 最近熱やばいわ
すーぐ80度超えする
高性能なグラボなら温度上がらないもんなん? BANも怖いけどgoogle nestやFireTVで表示されたらと思うと使えないんだわ サンイチ
今更だけど、拡張機能リストからインストールだとエラーで使えないdaamをURLから落とすことで使えるようになった
Attention Heatmap
https://github.com/toriato/stable-diffusion-webui-daam
旧daamが入ってると導入できないので先にExtensionsからdaamのフォルダごと削除しておく
使い方は旧と違ってControlNetと同じ場所に並ぶ
モデルによって効き方はあまり変わらないらしいが、ワードが全く予想と違う聞き方ばかりで混乱しまくってる(ここにないワードで頭を抱えてる)
https://i.imgur.com/FZJMnaY.png
https://i.imgur.com/34DWHfP.png
LoRAにも適用される? (ハイポリLoRA使用し、<lora:hipoly3DModelLora_v10:1>をそのまま適用させてみた)
https://i.imgur.com/X0oRsY0.png >>32
クラウドは表示が遅くてやってられんよ
ローカルの圧倒的早さと安心感 やっとに手を付けたLoraあかちゃんなんやけど、キャラの顔だけ覚えてくれればいい(服は覚えさせたくない)場合って生首で学習させるのが安定なんか? 挙動おかしくなったんで、automatic再インストールしたんだけど、
extensionsでloraがおらん。前まではbuilt-inにおったと思うんだが。
花札マークが出てくれない。どーしたらええねん。。。
タシケテ このスクリプトはなんでこんなにワッチョイ変えられるんだよ
全然NG出来なくてイライラや >>36
ヒートマップほんとに正しいのか怪しくなってきたな >>30
荒らしでスレ飛んだけど過去スレ5つくらい検索すれば再アップがああった サンイチ、ネタ切れでもCivitai回ってるとまだまだプロンプトも研究しがいがあるね。
いろいろとパクらせてもらったおかげでまだまだ抜ける。
強そうな女性にはチンポを生やしたくなる。ふたなり注意やで
https://i.imgur.com/fokhJe7.png
https://i.imgur.com/7RXEYQD.png
https://i.imgur.com/YOARSA3.png
https://i.imgur.com/Po5U3Gb.png
夜中にエネマグラが肛門内に飲まれて肛門科の世話になるかと本気で焦った。
トイレで力んだらうんこ見たいに出てきてびっくりしたw ケツにエネマグラぶち込んで生成画像チェックしながらチクニーしてパンツがびしょびしょ汚パンツになってしもうとる ニコニコのお手軽Lora凄いな
赤ちゃんみんなニッコリやん
kohya版はガチ赤ちゃんには厳しいし ワイは2次絵では抜けんのよなあ
Civitaiの3次モデルは西洋モデルか中韓モデルばっかりなんで仕方なく自分でせっせと自炊してるわ
2次キャラを服装ごと3次化するのに難儀してるわ ところでAOM3がなんか9時間前に更新更新されたたんだけどなんかあったのかな
AIに出会えてよかったのは筋肉娘をガンガン作成できたところかも
>>45
そんな大層なニキとは違うで。
エネマグラ買って初日やのに、ケツに飲まれて焦ったわ。
はようメスイキ体験したいわ。 2次専だけど3次も試しに出してみたいがグロ奇形が怖くて二の足だは Web ui本体を別のストレージに引っ越したことあるひといる?
マジで分からん >>55
SSD買い足したときに移したけどフォルダごとコピーで無問題やったで モデルとかloraとかホイホイ足してくと容量がだんだん不安になってくるンゴねえ さんいち
前スレのこれワイも気になったんやがなんていうスクリプト見つけたの?
991 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ fa09-oxQa) sage 2023/03/11(土) 03:41:43.78 ID:26J4chAo0
i2iでlatentアップスケール以外のスケーラーを使う方法ってないんかな
latentだと修正されすぎちゃう感がある >>44
お尻は出口だぞ
ストマー患者にだけはならないようにな… >>56
新しいSSDにそのまま移したらとりあえず起動したわ
今後誤作動はあるかもしれんけど
サンガツ SSD買い足すやつは安いからってS◯NEASTはやめとけよ
素直にサムスンかCrucialにしとけ solidigmもええと思うで
何処の中華やねんって感じやけど調べたらintelの後継やからな AOM3A2使うと何か粗い気がするんだけど生成する画像サイズの問題なんかね a1111-sd-webui-locon更新されてたけどLoRA Block Weightでエラー出るのかわらん
どうすりゃいいのこれダウングレードとかできない? 1TBのCrucialが8500円だったからつい買っちゃったンゴねえ >>58
settingsにi2iで使うupscalerの設定項目があるで >>58
画面一番下のscriptでSD upscaleを選ぶ
Denoising strengthを0.01にすれば単純にアップスケールされる
ワイはぼんやりした画像をシャープにするのにScale Factor 1でi2iしたりにも使ってるで やっぱクラウドにエロ画像はあかんか
AmazonBANされたらワイの生活インフラ崩壊やしやめとくで
SSDは楽天スーパーで買うかPayPay祭りで買うか迷うんよな~ NVMeはWD BlackとSilicon Power使ってる
Crucial はSATA時代にお世話になった >>58
ちゃんと起きて書いとこう
settingsのUpscalingでUpscaler for img2imgに設定したUpscalerがimg2imgのJust resize (latent upscale)以外で使われるよ
デフォルトだと何も設定されてないのでupscalerを使わないアップスケールになってる >>58
なお、描き直しなしのアップスケールはExtrasからやで
LDSRでSD upscaleやるなんて場合はExtrasでアップスケールしてからNoneでやるとリトライしようかって時に何度も待たされなくてええで >>58
scriptsに入ってるSD upscaleはVRAMが足りない時に使うi2iだと思えばいいで
まあ、settingsでいちいちアップスケーラーを変えなくていい分便利なんだけど、描き直しの分割部分で微妙に絵が乱れることもあるで サンイチ!
Defmixの風景画はhiresで建物の線がシャープに維持される気がする
https://i.imgur.com/tYvpU0C.png https://i.imgur.com/KKJD32H.png
https://i.imgur.com/GlFCjRu.png
https://i.imgur.com/8mr2pgf.png
ワイの上げたモデルの推奨プロンプトはあくまで目安みたいなもんやと思っといてくれ・・・
あんま表に出すべきではないモデルやからアレやけど拾ったニキってどんな使い方しとるんやろかな
マージ素材になっとるのはよく聞くけど >>65
同じか分からんが今更新きて直った気がする プロンプトごとに適用するステップって指定できたりする?
Aは最初だけBを後半から追加みたいな >>86
なんのお気持ち表明やったんや
Wikiで個人が表明するのは寒いもんやで >>78
遠景までかなり緻密に描かれてええなぁこれ なんかふと、そういえばsd1.5でeve online的な絵も描かせたなと思いだして引っ張り出してきた。
かっこいいよね
https://i.imgur.com/CpVLMBC.png アヘ●みたいにAIに対するお気持ち表明は有料会員のみ閲覧可能にしとけ >>90
浦島太郎のためにのページで懐古厨がムクムクがどうの雑談がどうの書いてたんや >>92
描くもの変えればなんぼでもバリエーション増やせるで latent couple導入した途端にこれなんやけど、
どうすりゃええの?
gitにある修正コマンドみたいなの当てたけど全く直らんのや
https://i.imgur.com/5cYD02u.jpg 最新の2shotは何もしなくても導入できる
webui本体は最新か? 学習素材にtxtつける時のtaggerのしきい値の意味が分かってないんだけど
みんなはこれいくらにしてるんや? イジってない wd14convertで括弧のチェックつけるだけでいいってここで見た >>93
昔これでダライアスのクジラ戦艦作ろうとしたが全然融合してくれなくて諦めた まず、stable-diffusion-webui フォルダが2重になってるのが気になる
2重にgitしてるのでは? >>100
他に比べて全然話題に出てない時点で特に弄る必要無いってことか
txt弄っても劇的に成果変わるわけでもなし…おとなしく素材加工とパラメータ調整頑張るか… 何日か前にここに張られてた即落ち二コマLORAのリンクだれか分からんやろか… >>102
なーにが怖いだ
最新じゃないならハッシュとか分からんと無理や
2shotの修正コマンドがwebuiに内蔵されて要らなくなったんや
その辺で衝突しとるんちゃうか? pullが怖いなら新しいフォルダ作ってsd増やせばええ すまん質問ええか?
ジェネレートのボタン下に、前回のプロンプト出してくれるチェックマークあると思うんやけど、最近それ押したら重くなるんやが原因なんやこれ?
モデル選ぶ時とかカーソルが鈍く移動されてまうんや >>111
前回使用したモデルを引っ張ってくる設定にしてるなら単に読み込み速度が遅くなっているのでは…? >>111
わいもその症状出てるわ
年始あたりのアップデートからそうなって青いボタンは地雷ボタンと化したで
CPUブンブン回ってあらゆる応答が鈍くなる地雷やで スク水Loraってトリガーワードはあくまで青で、白スクやと反応してくれへんのやな
旧スクの形状で白スクという禁忌を犯したかったが・・・惜しいな >>115
モデルの反映設定外してるからかワイはそうはならんな お兄ちゃん教えてください
オリキャラのloraを作ろうと思うんです
外見の設定がすごく細かいところまで決まっているんですけど
どう頑張ってもピタリ賞の画像を20枚集めるのは難しいじゃないですか
なので段階ごとにloraを作って、生成して、進化させていく方法をとろうと思うんですけど
何か不都合はありますか?
わたしは9才女子です 1日かけて色んなパラメーターで画風学習したけど結局128-1が1番だし汎用性のnai80点学習より特化aom3で100点の学習した方が良いわ >>119
まずは作りたいキャラクターの画像(全身)を用意します
それをi2iとCNを利用して学習素材を水増ししましょう ちゃんとプロンプトで指定してたらわりかし同じキャラ出てこない? >>116
i2iでlora外してcannyで色変えできないかな? 赤ちゃんワイ、colabでlycorisを実行しようとするも設定が理解できずに詰む >>117
これチェックしてなかったからチェックしてみたけど特に変化なかったわ
よーわからんから触らんようにするわサンキューやで
When reading generation parameters from text into UI (from PNG info or pasted text), do not change the selected model/checkpoint. >>126
apply setting押したか定期 Accelerateのインストールで詰んでるんやがどうすればいい? >>126
あとは、parsms.txtがおかしくなってないか確認してみるとか
変だったら一度消しちゃえ
でも毎回上書きされるとは思うんだよね >>110
雰囲気はええけど
ブラが箱になっちゃうのは残念やな
AIが理解しきれてないんだと思うが SDアップスケールよりなんとなくULTRA SDアップスケール選んでるけど正直よく違いがわかってない >>129
どんなコマンド打ってどんなエラーが出たか貼れ定期 >>132
denoising上げた時に妖精さんの湧き出しが抑えられるらしいんだが、エラーで未だに動かぬw とりあえず>>110のLoraをCivitaiに上げてみた
よかったらわいのために下着屋さんのエッチな画像世にばら撒いてくれや
初めてやから不手際あったらスマン
https://civitai.com/models/18098/lingerieshopbackground >>122
ありがとうございますお兄ちゃん
作りたいキャラクターの画像は脳内にしかありませんでした
ピタリ賞が出るまでガチャします >>134
あー、i2iのアップスケーラーをswinirにしてるとエラーが出るのか? >>137
そうなるとredraw optionのupscaler設定、何か意味があるんだろうか…… 脳内にしかないものをデータにするにはAIをもってしても色々試行錯誤することになるのは仕方ないやろな、AIは凄いけどエスパーではないし
そういうときは自分で描けるなら最速ではあるんやが >>140
ラフ絵書いて続きAIに書かせてフォトバッシュみたいなのが早いんだろうなあと思う スク水LoRAやってたらこんなん出てきたわ
オッサンも自由に着こなせる理由は予想通りマネキンが素材だったようだ
https://i.imgur.com/vWvwCNZ.png >>139
おお、いい……
モデルは何使ってるんですか? >>139
何かしらんが、アサシンクリード思い出した キャラloraと背景lora一緒に使うと喧嘩するし、
比重薄めたら似てなくなるしで、いい塩梅がわからんのだが、
もしかして背景loraで背景作って、i2iでキャラ付け足しとかするのか?
それじゃ解像度上げれないし違うよなーーー?
喧嘩しない階層とかあるん?
赤ちゃんだから疑問ばっかしやわ。 キャラLoRAと衣装LoRAとかキャラLoRAと背景LoRAはどうしても喧嘩しやすいね
学習段階からちゃんと併用考えて範囲限定しとけばいけるのかもしれんけど >>147
その背景loraって具体的になんや?
loraによっては精度とか相性変わるやろうから対処法もたぶん変わるで >>145
自家製マージモデルなのにレシピ紛失したから細かい部分がもうわからないんだけど
Anything系に実写系(BasilやChillout)を0.3~0.5くらい混ぜればこんな感じになるはず
仕上げにR-ESRGANとかでアップスケールすれば完成よ そういう細かい歴史的な部分は別ページ設けてやるべきやな 背景はloraの領域分けも効いてないよね
背景の階層(IN457)に顔も含まれるので階層分離も難しい
解像度上げるか背景lora外して人物だけi2iするか プロンプトエディティングとLoRA使ってモナミクさん変化作ってみた
https://i.imgur.com/V1zQIl3.gif
キモいけど面白いなぁ
CN使って位置もがっつり固定すれば更に違和感なくチェンジさせられるかね >>152
サンガツ
俺もマージモデルに手を出してみるか >>156
クッソワロタ
モナリザさんのつぶらな瞳もいいw >>74
Loraも使わずに雑にprompt打ち込むだけでできるの本当に好き >>151
近所の小汚い文化住宅の写真を、赤ちゃんLoRAで作ったヤツ。 >>156
絵画が動いてるとハリーポッターみを感じてしまう AOMの作者スレ見てるやろか
AOM3のファイル名に(orangemix)がついたんやけど()が入るとpaperspaceでダウンロードするときにエラーが出るんや
アンダーバーとかの別の記号に変えてもらうことはできんやろか? >>162
¥(orangemix¥) で行けないか? >>149
難しいよね
うまくLatentとcomposable使えば行けんのかな AOMは種類が多すぎてどれがどうなのか全然わからん CivitAIにアップしたいんやけど
「When using this model, I give permission for users to:」の
1.Use without crediting me
2.Share merges of this model
3.Use different permissions on merges
ってチェックつけとくのがデフォ? civitに俺の大好きな耳姦配布されてるうううううううううう まあ強制力はないだろうしつけてもつけなくても一緒なんかな >>160
自作Loraだとわからんわ
学習時点でもダメって可能性もあるし
たしか学習素材に人間混ぜないと距離感とか大きさのバランスが崩れたり人間が出ないってどっかで見た気がするわ AOMの種類はモデルカードのところの紹介で自らネタにしてたな
あれはワロタ >>43
>>49
ありがとうめっちゃ探してた助かるわ >>172
civitaiが強制力無いって言ってるわ
お願いを簡単に説明できるようにしてるだけって バージョンの高いものが純粋な上位互換ってわけでもないから使ってみるしかないわな 最初から修正してある薄い本を学習本にすれば
アップするときに修正しなくていいから楽だと思ってたけど
なんか口もエロいものとして認識するようになった・・・
https://i.imgur.com/IXFFpLP.png >>169
元が継承型のオープンソースなんやから制約付けずにオープンでいくのが基本や
自分はオープンソースの恩恵を享受しておきながら他人に制約付けるのはケツの穴の小さい奴がすることや アップする時は修正するとしても
自分で使うやつは無修正じゃないとなんかもったいなくね プロンプトで頑張るにしてもLora学習回すにしろ名前がわからん
ハンガーの服を体の前に持って服を選ぶ行為ってなんていうんや a1111-sd-webui-locon更新来てLoRA Block Weightでエラーでなくなったわ meituみたいなi2iをローカル構築したいんだけどそれはmeituがどういう仕組み(学習、設定)かわからないから難しい感じ? >>186
changing か fitting らしいで
時給10ドルのDMM英会話調べ 強制力云々言うならまず偉大なるNAI様にひれ伏さにゃならんからな ちんぽといえばcrowdとかsurroundみたいなモブ囲みが好きなんやけど
ちんぽっぽい単語入れてもだーれも勃ってくれんし下手すりゃtrapや指ペニになる
プロンプトだけじゃどうにもならんのやろか CNdepthも使ってモナ→ミクさん再トライや
https://i.imgur.com/gCFaHMp.gif
文明の進化を感じますね おっぱいがもにゅって膨らんでて草
モナリザって貧乳だったんやな… >>189
サンキューやけど着替え中みたいなんしかあかんなぁ
ケニア人にも見てもらうかぁ… >>186
ムズイな
holding clothes hanger in front of fitting mirror, trying on clothesとかでややそれっぽくなるけどお目当ての奴は出ん
人の前に服があると問答無用で着せちゃってる感じがする
あと勝手にスマホもって自撮りしよる
LoRA学習させた方が良いかもしれん 対応する言葉はわからんが… >>102
同じエラー出たけど本体更新したらエラー消えたで
参考までに >>200
サンガツとりあえず複雑やし行けるかわからんけど素材も5枚だけ見つけたし回してみる…
遠い昔の記憶でpixivかなんかのいい感じのタグがあった気がするけど全然思い出せんわ 昨日層別blokを何度入れ治しても左下にバーが出なかったから赤ちゃんインストーラーから入れなおしたら無事に出た
よく分かんないけど使えるからヨシッ! 着てる服をぱっつんぱっつんにするprompt知ってる人いたら教えて欲しい >>202
booruタグのclothes in frontとは違うんか? そもそも学習なしだとまともなハンガーの形すら出せないっしょ
clothes in frontみたいなマイナータグはパワー0だし >>210
danbooruからclothes in frontの画像を引っ張ってきてlora学習回してもあかんやろか >>211
ざっくり見てきたけどまあまあ枚数あるから行けると思う twitterでLLaMa 7Bをmac 4GB RAMでサクサク動かすデモンストレーションが出とる……どないなっとるんや
単純計算すればメモリ40GBでフルサイズの65B動かせるやないか。仮にVRAMだったとしてもオフロードすれば1単語/秒くらいは出せそうや
なんかワクワクしてきたで >>214
天才がいるんやな
ワイは100Mb回線で頑張ってラマ落としたのにHDDの肥やしになっとった >>209
批判とかじゃないけどこのシチュ好きな人ってホモの素質ありそう >>53
AOM3とか名前省略しすぎてモデルネームみても検索しようがないことに気がついたから「モデルネーム+(orangemixs)」にリネームしただけです! >>209
それも楽しんだけど遠巻きに見てるモブ達に勃ってほしいんよな
温泉で「なんで入ってきてんねん」とか町中でテント腫らしたのに囲まれるとか
そうやテントもできんかったの思い出したわ……
>>216
わかる ようやく妥協できそうなloraできたと思ったらなんか全体的に汚れみたいなのが浮かんでるんだけどなにこれ
過学習のせいなんか?
https://i.imgur.com/7jFEMx8.png
https://i.imgur.com/9f3EMsT.png 学習画像にゴミが残ってるんやない?黒と白両方の背景に重ねてみろ 学習素材にスキャナで読ん込んだっぽい画像混じってるしそれかもしれんな SD2.1系のカスタムモデルでControlNetってできるんやろか?自分の環境では上手くいかんかった。Depthで部屋のリアルな画像作りたいんやが >>70,71,75
解説ほんまにサンガツですやで! 補正アプスケならReal-ESRGAN-GUIみたいなSD関係ない外部ツールもおすすめやで
latent使わないならそういう選択肢もあるね 更新したら花札からlocon使えなくなったわ
逆にaddnetから使えるようになったけど >>226
そんな厳しいんか
素材集め1からやり直しますわ これから裁断した画集をスキャンしてLoRA作ろうと思ってたんだけど、スキャンした画像だともしかして上手くいかないんか?
試しに1枚スキャンしたけど点々みたいになるしスキャナ買ったの失敗だったかもな…… >>235
ESRGANかなにかのアプスケだと印刷の網点やモアレとかも潰してデジタルに綺麗にできたはず 素材の画質が悪いや、マイナーキャラでそもそもFA少ない場合はタグ増やして弱学習、生成時は相関のタグを大量投入してそのキャラを組み直すこと
>>67のアナブラがまさにそれで無理やり作ってる >>233
すこや
かんなぎのキャプ混ぜるとどうやろ >>236
サンガツ
そのヒントを基にBingくんに聞いたらReal-ESRGANのAnimeで綺麗になるって言ってたからそれでやってみるわ 手上手く出せるLORAとかマージってもうあるんかな gradio今死んでる?
timeoutで繋がらんようなったわ >>240
単純にA4サイズから縮小しただけでも網点消えて解像度と反してきれいに見えることもあるで
2,30枚レベルなら手作業でフォトショとか使ってモアレやら消してもええやろしな >>242
死んどるな
こういう時paperでngrok使えないのがつらい
文句言えば使わせてもらえるんやろか このLE_v29-SD-Epoch1000というLoRA何処で落とせますか?
探しても全然見つからない
https://majinai.art/i/XB66dBD 使ったことないけどpaperspaceってcloudflared使えないのけ? >>58
そもそもi2iでLatent選べなくない?
settings見てもLancoz以降しかない >>162
ぐあーやっぱこういうの_が安定やな
変えてくるわ Hires. fixてt2iにはチェックボックスあるのにi2iには見当たらないんですができないのでしょうか? 4080届いたけどめちゃでかくて笑った
こんなんケースに入るわけないやろ メーカーの小さめなPCの電源を500Wから1000Wに付け替えた
これでもう何も気にせず3060が使えるぜ
■ビフォー
https://i.imgur.com/GMuGtjV.jpeg
■アフター
https://i.imgur.com/IfyReAZ.jpeg
「あわよくば上位グラボも将来いける」とか思ったけど、
ケースの都合でこれより上のグラボを目指すとなると、ライザーケーブル使ってグラボをケースの外に置く修羅の道に突入してしまう…… >>251
ライザーケーブル使って外置き、だなっ♪
パソコンの側面カバーはメッシュに変更して穴を開けると手軽で良いぞ >>251
幅は4090と同じだしな
>>252
3060に豪華すぎる
3070買ったときに下位の電源じゃケーブルが足りなかったのを思い出したわ あまり良く調べてなかった俺が悪い
まぁケース適当に調べて買うよ……
ついでに750Wでギリギリ感あるから
電源も新しく買うよ…… >>256
4000番台は長さもさることながら分厚さもくせ者だと思う
自分のメーカーケースでは、長さはHDDとDVDドライブひっこ抜いたら行けるけど、分厚さはどうにもならんと理解した >>250
just resize(latent upscale) のこと?
あれ押しても普通のjust resizeと何も出力変わらないような >>256
うちの4080(356mm)はこれに入ってるよ
https://kakaku.com/item/J0000026025/
なんか値上がりしてるけど4000円くらいでコスパ最強だった >>259
それは何かがおかしいんじゃないかな……
denoising 0.3とかでやったらめっちゃボヤけた絵が出るはずやで https://i.imgur.com/7tm4RVd.png
ずっと標準のadamWでやってるけどadafactorにしたらどれくらい学習時間増えるの? 昨日、花札からlora使えなくなったときはcomposable loraをextentionsから削除したら使えるようになったで
今は知らんが クセ強画風の人ってクセ弱画風の人より学習楽だったりするんかな >>135
めちゃええやん
こういう背景学習させるときってタグとかどうするんや? みんな教えてくれてさんがつ
最近の巨大グラボ対応pcケースってHDD設置する場所が排除されてるんやな >>257
ワイは3060やけど3連3fanの長いヤツでケースには入ったがマザボのsataポートに被ってsataが1つしか使えんかったわw >>266
サンガツ
言うて何も工夫しとらんキャラとかと同じや
ランジェリーショップってのを増やしてtaggerに突っ込んだのそのままや グラボがNVMeに被るやつが困るよな。取り付けた後に ワイcolab民、数日前は問題なかったcontrolnetがエラーを吐いて使えなくなって咽び泣く >>265
ワイの経験だとクセ強画風は生成時のモデルデータにハマるハマらないの差が激しくてほうが難しい気がする >>135
提供と開発ありがとうやで
これがあれば純愛エロゲでよくある、下着売り場デートが再現できるわけか・・・ HN使って実在人物作ってんやけどclose upやupper bodyぐらいだと綺麗に再現できてもfullbodyやと顔が崩れるのはどうすればええんや >>262
txt2imgのhires.fixのことじゃなくてimg2imgやんな?
そりゃ0.3にしたら勿論ぼやけるけど0.8でも0.9でもjust resizeとjust resize(latent upscale)で全く同じ結果になるんやけどな
勿論元画像から変わってはいるんやけど 原神LoRAメモにlycorisとlohaの検証追加したで
https://rentry.org/genshin_lora#lycoris%E3%81%A7%E5%AD%A6%E7%BF%92
lohaは再現度低下を抑えつつdim減らせるが学習も生成もLoRAより3割ほど遅いからファイルサイズ抑えたい時以外は不要やな
NAIで学習したモデルがAOMと相性悪い問題は1111の設定のExtra NetworksのApply Lora to outputs rather than inputs when possibleをオンにしたら解消したわ
それとGUIでconv_dimとconv_alpha設定できるようにしたよ マジでグラボ巨大化し過ぎてM.2スロットとかSATAとか塞いでるのクソアホ過ぎる
いい加減マザーボードのレイアウト見直せよメーカーは >>276
そんな設定あったのか!今の学習終わったらオンにしてみよう >>276
乙やで
原神ニキのLoRA比較の理解度上げるためだけに原神キャラを認知しとく必要性を感じてきたわ ペクスやりながら生成したいわ
4080ならいけるか? >>277
大型化じゃなくて熱対策だけど
Intel君が昔変えようとしたときは誰もついてこなかったから…
E-ATXは知らんけど >>276
NAIで学習したLoRAをAOMで使用すると画質が低下する。
これは、1111のSettingsのApply Lora to outputs rather than inputs when possible (experimental)をオンにすると解消する。
知らなかったそんなの・・・。 >>280
ゲームとAIじゃつかってる部位が違うからいけるんじゃね? >>282
よく分からんけどオンでヨシで大丈夫な設定なんかな >>282
解消マジかAOMで作らないとダメだと思ってた >>275
i2iのdenoisingはアップスケールかけた後にかかるんだから、denoisingクソでかくしたらアップスケーラーが何だろうとあまり関係ないんじゃね? 原神ニキのGUIってtkinterで作っとるんかな
エロ画像でシコりたかっただけなのに仕方なくpythonの勉強始めたら楽しくなってきたわ >>289
あれ、違うのかな……アップスケールする前にdenoisingがかかるのかな、どっちだろう >>282
それ花札とadditional networkでLoRAの差異が出る言うてたニキの原因だったとこやんな?
よくなるんなら花札起動メインにしとこかなー…… >>293
🎴用の設定だからAddNetには効果無いんやろな Apply Lora to outputs rather than inputs when possible の項目、
モデルに限らず?普通にweight1適用しても層別適用したような結果になるな
キャラLoRAだと結構有用そう
画風LoRAは逆に再現度下がる感じがする 寝取りものでたまに見るような夫を見送りつつ後ろから間男にケツとかマンコ触られてるような構図ってなんて言うんやろ
いざ探そうとしてもなかなか出てこない つまり使い分けたらええちゅうことか
キャラは花札から当てつつ画風はaddnet起動で複合、これや! ワイ作のACertaintyベースのloraで試したら全く別物の知らない人が生まれるオプションやった
説明文からすると層別のNINみたいな機能だけど、組み合わせによって効果大きく変わるのは難しいとこやな >>275
つか、latentじゃないアップスケールだと0.3じゃボケないんでしょ?その時点で違うもんやろ その実験的機能層別LoRA知る前に使ってたわ
なんかマイルドになるんやつやな >>267
NZXT H9 Elite
デュアルチャンバー構造で3.5インチベイは2つ 4070ti買っちまったわ
AI飽きても当分PCゲーが快適に遊べるから安い安い…? >>260
メーカーでは対応サイズ310mmまでって書いてるのに356mmも入るもんなんやなぁ
https://jp.thermaltake.com/versa-h26-mid-tower-chassis.htm
前面に水冷のラジエーターとか入れた時の厚みとか考慮して余裕持たせて対応サイズを言うてるんやろか
まぁ何にしろこれからケース買うんならメーカーのサイトとか行って対応グラボのサイズを確認して買うのが安牌やろね NZXT H7 Flow
これも3.5インチベイは2つ >>281
マザボを加熱してケースに熱風まき散らすグラボは迷惑の塊やわほんま
ラジエーターで熱源を遠ざける水冷は理に適っとるわな 4000番台ってつっかえ棒かなんかで支えないと折れたりするんか? ワイ3Dプリンタでいい感じの支え作って解消したやで
ケースとマザボの取り付け位置、グラボのサイズは人それぞれやからこういうのは自分で作れるのが一番やな >>280
1500×2000とか生成してるとYouTubeすら止まるよ もう拡張スロットにグラボ挿すのはレイアウト的に限界や
しかしライザーなんかで回路長が伸びるとノイズに弱すぎて話にならんしなぁ GUIアプデサンガツ
容量一切気にしないワイにはlohaは無関係なメソッドやね そろそろグラボはPCケース(マザボ)の逆面にカードリッジ形式で挿させてくれ 個人的にはグラボでかすぎ問題にはベニヤ板PCでいいんじゃないかと もうエアコンに挿してヒートポンプの熱源にしたらいい >>311
3060だと生成の方が止まるけど、4000番代は動画の方が止まるんだ チェックポイントにどうやってloraマージするんや? >>282
まじかよ・・・AOMHを愛用してたから変えてみたクッソ変わってワロタw・・・ >>321
これでいけんじゃね?
python networks\merge_lora.py --sd_model <マージ元モデルのパス> --save_to <マージ後モデル保存先のパス> --models <マージするLoRaのパス> --ratios <重み付け(0.0〜1.0の範囲で指定)> 切れた
python networks\merge_lora.py --sd_model ..\model\model.ckpt --save_to ..\lora_train1\model-char1-merged.safetensors --models ..\lora_train1\last.safetensors --ratios 0.8
--sd_model→マージ元モデル
--save_to→マージ後の保存先
--models→マージするLoRaのパス
--ratios→重み付け(0.0〜1.0)で指定 質問なんやが、LoRAのepoch毎に比較画像出してるやつはどうやるん? >>326
途中生成のepoch全部突っ込んでX/Y/Zplotで呼び出すところの名前変えてるだけや t2iで良い顔が出たのにハイレゾかけると歯を剥き出しにして台無しになるの何とかできんかな・・・
ネガにteeth入れても意味ないっぽいし ずっとNAI学習をAOM3で使ってたけど
Apply Lora to outputs rather than inputs when possible (experimental)
むしろこれONにすると出力ぶっこわれるから禁忌かなって思ってたんじゃが
https://i.imgur.com/dNflfdA.png
https://i.imgur.com/BdzvakB.png
オフの場合→オンの場合
ワイの設定がなんかおかしいんだろうか >>333
キャラLoRAはいい感じになるけどポーズLoRAはアカンって言ってる人いるしコンセプト系には良くないんちゃうか?
ワイの場合キャラLoRAも壊れるわけじゃないけど微妙になったからオフに戻したけど WebUIのアプデはうれしいんやけど、APIまわりで変更があったら大抵Kritaのプラグインが死んでまうんよなぁ(過去2敗)
これなんとかならんもんやろか krita死ぬどころか一回も導入成功したことないぞ……
krita側でプラグイン一覧に出てこない >>333
体感でしかないけどモデルとLoRaの絵柄が掛け離れてると上手くいかん気がするわ
キャラでも特殊なモチーフがあるやつはその部分がまったく再現されんくなるで >>338
あ、そういう書き込みもあったな見逃してたわサンガツ
ワイのシチュlora一通りやってみたけどどれも前衛芸術生産機になったわ禁忌かな難しいねぇ >>331
hires fixは小さいサイズの画像を大きくしてくれる機能だと思わない方が良いで
あくまで「大きいサイズを作る時に小さいサイズを原型にすることで構図破綻を防ぐ」機能やから
そもそも意味合い的に小さい生成物を大きくする目的の機能ではない
アップスケールならi2iとかExtrasを使った方がええ >>346
サンガツやでぇ
pullついでに見て試してみるわ >>337
LoRa学習にbmaltaisニキのGUI使ってるならいけるで
あとワイちゃん詳しくないけどweb ui上でloraマージできる拡張もあるらしいから見てみてや
https://github.com/hako-mikan/sd-webui-supermerger/blob/main/README_ja.md ニキらLoRAの整理どうしてる?
こんな感じで3000くらいあるんやが・・・
https://i.imgur.com/bXbiSKf.png >>349
とりあえずフォルダ分け
そしたら上の所からフォルダで選べるから >>342
ちなみに比較するとこんな感じや
このオプション以外はまったく同じ設定やから無闇にオンにするのがいいわけじゃないで
ワイはこれで時間無駄にしたわ
オフ https://i.imgur.com/WTJmK6R.png
オン https://i.imgur.com/r37Z3vU.png なんか正則化に適当に1girl入れてやってみたらゴミが出来上がった時の感じに似てるな lora3000個て上がってるもの全て網羅してそうな勢いやな・・・ >>349
サムネつけとるだけ偉い
ワイはすべてを諦めた 特にキャラloraほとんど過学習ゴミなんで持っていてもしょうがないんだわ 新しいLoRA_Easy_Training_Scriptsでインストールしなおしたらlycorisフォルダはあってもloconフォルダが無いんやけど
これは解凍してきて同じフォルダに入れるだけでいいんだよね?w >>356
Civit AIヘルパーが全部やってくれました 自分でも設定できるけどCivitai-Helperって拡張がめっちゃ有能やぞ
Civitaiからサムネとかサンプルのプロンプトとか引っ張ってくる それともloconはもう時代遅れ?そんな事ないよね?lycoris出やった方がいい?
まだキャラ再現で過学習になりすぎずモデル毎の絵柄を出すloraに成功してないからどれがいいか分からないんだけど 公式見たら非推奨になってたマジ?
じゃあlycorisにするわw早く階層loraも対応して欲しい >>350
フォルダ分け頑張るわー
>>351
その通りや
しかし発達のためコレクションをやめられん loconはloraの強化版
lohaはloconの軽量化ヴァリアント >>365
そしてlycorisはloconの続編? 新しいサンプラーが追加されたようだけど、UniPCはどんなとこが良きなん? lycorisは学習手法じゃないのでloconと比較不可能 lycorisはlocon lohaとその後に続く奴らのための箱?ツリー? lycorisはなんやねん
┣LoRA
┣LoCon
┗LoHa
こんなかんじか? 奇跡の一枚のプロンプト忘れちゃったんだけどパソコンのどっかにログとか残ってないの? >>371
中身見たら入ってたわ
じゃあArgsListの下の方に移行してたのをトゥルーにして数字入れるだけでいいのか
容量を下げるとかをまだ考えてないならlohaはいらない感じかな? lycorisやらlohaやら色々名前出てきたなと思ったらそういう事か >>371
どっちかというと一番上に来るのがLoRaやな
んで↓の2つ、LoRaの派生手法をまとめたプロジェクトの名前がLyCORISや
LoCon (LoRA for convolution layer)
LoHa (LoRA with Hadamard Product representation) >>276
これやってみたけどnaiで学習てaom3で壊れるのと普通なのがあるけど何が違うんや…
今のところメリットが見いだせん 新サンプラーのUniPC、Step20もあれば収束するな
https://imgur.com/mZyhVbL >>379
何枚くらいなの?たった20ステップでいいなら早くていいね 昨日と一昨日やたらCivitai重かったけどヘルパー君のせいだったんかね >>376
LoRA単体で満足できないならLyCORISでLoRA強化版シリーズ(LoConとLoHa)使えってことか
>>373
わいはLoCon気に入ったからこれ使うで web-uiからcivitaiのモデル落とすとかってできるの? >>379
それでいて1stepも早いよな
今のところはかなり優秀な印象 やっぱし背景loraとキャラloraの配合うまく出来ないわ。
赤ちゃんには無理や。諦めた。
1girlで出したら、それなりの貧乏少女っぽいのが出来てるんだがなぁ。
赤ちゃんloraで作ったから、そもそも背景loraに適してるかどうかも分からないんよね。
でも、言われた通り、人と建物の比率がおかしかったりするので、
気が向いたら人物入れて撮影して作り直すかな。
https://i.imgur.com/GbgtY2F.png
https://i.imgur.com/sSOiflZ.png
>>239
すごい??かな??よくわからんw
だが、需要はないと思ってる。 >>387
歪んでたりチグハグなのが、逆にリアルっぽいという意味でありな背景だな
建物をバックにするなら廃墟かスラムが良いんだな chilloutでプロンプトにbrown eyes入れても目の色が青や灰色っぽいのは仕様ですか? なんや、またgit pullで何人逝ってしまうのかな。 >>387
昭和建築物はワイみたいな一定のマニアがおるで
ワイも団地作ろうとしてる🤗 >>233
一枚目めっちゃ好き
精細な実写背景にアニメ的な少女が溶け込んでる絵ってええよな >>387
背景だけtraditional_japan_loraとして出してくれれば人気出そうや
いま島に行かんとそんな建物拝めん >>388
あり、、かな、、?
貧乏がバレたシチュくらいしか、ワイ的には使い道ないんだけど。
>>389
ソース見たら、ACertainty-fp16.safetensorsってなってるね。
そんなワイが普段使うのはanythingV4だけど、相性とかあるんかね? >>396
貧乏、少女、人気のない部落
何も起きないはずがなく‥ any4.5やAOM3で肌の塗りがこんな感じでノイズ感あるんやがワイだけやろか
https://i.imgur.com/rtoxHfq.png >>102
patchよりはpullの方がまだ怖くないと思うで >>396
リアル背景はさすがにsd1.5がよくない? DDIMとUniPCだけComposable LoRAオンにしてるとLoRAが反映されずに画像生成されるんだけどおま環?
コマンドプロンプト見てるとUniPCは途中からDDIMの手法を使い出すみたいだからDDIMが対応できてないんかな
ComposableをオフにすればDDIMもUniPCもLoRA反映されるし他のサンプラーならオンでも普通に使えるんだよなぁ ワイ気分転換にたまにchilするけどもうハシカン超えてきたわ >>404
仕様やったんか
プロンプトにANDって入れてなくてもComposableオンにしてると使えないってことだよね? >>378
いろんなloraで試した感じあの設定は画風の影響力が下がる作用があるしnaiで学習させた画風loraはなぜかオフでも問題無かった
構図loraも構図変わり過ぎてダメやな
キャラ再現loraで相性悪い時だけONで良さそう >>392
ああ、団地もいいな!
明日、天気よかったら撮影してこよう。(徒歩5分)
>>393
そういってくれるとウレシイ。でもサイズおかしいでしょw
本当は自作ねこ娘loraに似合う、もっと小汚い背景出したいんだけど、
anythingがちょっと小綺麗にしちゃうんよな。オレのプロンプトが悪いのかも知れんが。
https://i.imgur.com/x2UEKFi.png
>>394
実は大阪、、、(涙) >>409
とりあえず自作のnai画風はぶっ壊れ、マルゼン式のキャラ学習は壊れなかったけど特徴が出なくなった >>410
こういう建物の地域、東大阪の山側付近に結構広範囲でまだある印象だわ Apply Lora to outputs rather than inputs when possibleは罠や、やめとけ
大体壊れる あぁー、上手いこと出力調整出来ない時は、いっそモデルマージで1枚絵微調整してしまうという荒技もありなのか >>408
ずらしのloraはありますかね‥ご予定は‥ >>400
うちの場合アップスケーラーの種類によってよく乗るノイズやアニメ向けのだと出にくい、クリスタのjpegノイズ除去でだいたい消える >>414
AOM3の時点で完成度十分に見えるけどモデル相性で突き詰められるのスゴいな
めっちゃ利休っぽくなってる
というか好きなキャラ着せ変えられるlora作れる時点でスゴいわ
全然うまくいかん >>421
今月繁忙期でモデル漁ってなかったわ…帰ったら漁らにゃならんなサンガツや
>>423
XnConvertってので一括除去もできるが効果薄いで。ワンクリでまとめてクリスタ並みに処理する方法あれば知りたいわ150枚とか除去すんのかなC 低電圧化した3090で512×768の拡大hiresありでやると一枚あたり4分くらいかかるんだけど
毎回hiresとかはかけないものなのかな?
規定のブラウザで他のタブと一緒に使ってるけど専用のブラウザいれるべき? >>410
好きやわこのセンス、突き詰めて形にしてほC ColabのTPUに詳しいニキおる?
GPUが時間切れでも使えるらしいんやけど >>426
512x768の2倍でも3060よりずっと遅いA2000で1分半~2分とかかな
4−5分掛かるのはアップスケーラー選べない古い環境で1024x1536を1536x2304(x1.5)にするくらいのイメージや、今はもちっと早い >>417
いまのところLoRAつくる予定はないね
ずらしはLoRAじゃなくてもpanties asideやswimsuit asideのプロンプトでできるからね
パンティだと高確率で左右に分かれるけどスク水は比較的素直にずれるよ
研究の結果スク水LoRAは層別適用ALL0.5にすると旧スクの特徴を維持した状態で股布がずれて胸がいい感じではだける 1111ニキ怒涛の更新するなら、
不具合怖いし現環境を残して新しく入れるか プロンプトのところでlora適用するのとadditional networksで適用するので違う結果になるのはなんでなんだすか たすけて(ToT)
半世紀ぶりにアップスケーラー使おうと思ったらテキストファイルとか関係ないファイルまでアップスケーラー候補にされてるし
003_realSR_BSRGANとか選んだら「AttributeError: module 'modules.devices' has no attribute 'device_swinir'」ってエラーになててて使えなくなってる(ToT)
どぼじでごんなごどしゅゆのぉ(ToT)
https://i.imgur.com/231AFTC.jpg >>422
着せ替えは割とごり押しやで
着せ替えたい服のプロンプトを1.2~1.5でめっちゃ強調かけて
逆に元の服のプロンプトをネガティブにぶち込んでこれまた強調かけて
それでも元衣装の名残が出るからガチャしてる
でも元衣装と混ざるのもそれはそれでキャラコンセプト引き継いでるみたいでええなとはおもってる
>>436
アップスケーラーREADMEは流石に草 clip skipって1と2どっちが良いのか定説あるの?
最初の頃は1じゃないと指定したものが出ないとか2の方が安定してるとか言われてたけど わいも分からん
1人だったら1がよくて複数人だったら2がいいとか聞いた気がするけどよく分かんない
3以降は品質が悪くなるから推奨されないとか
だれか教えて clip skipはモデルがまだNAIが主流だった時に2にしとけって言われたからずっと2にしてる
特に不都合ないしこれでええやろの精神 >>442
ものによるけど、2Dは2の方が無難な事が多い(NAIのDNAが濃いほどね)
1で最後まできっちり書き込むとゴミやゆがみが出やすい(学習時のノイズや他要素の汚染まできっちり描きこもうとしてしまう)
そんな感じでいいんでねぇの?あとは経験や。過学習だって0.5~0.8みたいに下げることで他のモデルでもうまくいく場合もある
うまくいかん時に変えてみる程度で固定概念で楽しようとするのはクリエイターとして失格やしな 1はリアル系、2はアニメ系
って言われてた気がするけど完全に雰囲気 >>442
3やね
1は論外で2は学習素材に近すぎる >>444
gateboxじゃなくてええから3Dアバター持ったAIアシスタント欲しいんよなデスクトップの端っこでちょこんとしててほしい >>438
というかそのモデルやloraは公開予定無いんか? なんだかloraで過学習と戦ってると服装とか全く再現されないから過学習させて弱めるのが一番楽な気がしてきた まさしく伺かやんけ。
あのとき望んだものは間近にきとるんやな それでは他のloraと併用できないからだめなんだ
latent couple使うならなおさら >>449
UnityとChatDollKitで自作しろ
初心者でも一日あったらできるぞ そういえばLoRA適用させるときはCLIP Skip 2の前提で作られてるもの多いとかそんな話を聞いてワイは最近2にしとるんやが、根拠のある話なんかどうかようわからん >>458
学習の推奨設定がclipskip 2なだけや >>454
ワイもそれ思ったけど、
過学習のやつを0.8で出したときと、それのステップ数80%のやつを1.0で出したときで比較すると、
後者のほうが素材の特徴をよく捉えとったから、やっぱ過学習良うないなと思うようになった。 ロリニキサンガツやで
ロリmodelならオナホ妖精も良い感じになると思ったらその通りだったわ >>459
あぁ学習の方の話やったか いろいろごっちゃになっとるなぁ AI画像生成のおかげでcolabをいじるようになり、waifu2でバッチ処理できるノートブックも作れるようになった
ほんまエロは原動力やな civitaiの日付って日本時間何時に変わるので? >>450
モデル自体はだいぶ前に公開してる奴や
doll774って奴
ただし表情があんまりつかないし(特にアヘ顔とかのエロ系)背景描写も弱めや
LoRAは…これが公開できるレベルなのかどうか自信無いんや
civitai見てると公開してる物でもピンキリやけど… なんやなんや!CLIPの話題が聞こえた気がするで!シュババッ
CLIPは簡単に言う層ごとに順番に情報を処理して画像を生成するStablediffusionの処理方式のことや
公式SDはどちらかというと実写系モデルで、CLIP1から順番に処理するのが基本やったが、NovelAIがイラスト特化にするために、CLIP1を飛ばしてあえて情報を簡略化させ、最終結果をハッキリさせようという新しい手法で追加学習をしたんや
なのでNovelAI由来のモデルも軒並みCLIP2設定になったというわけや
そして実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近のモデルはNAIが混ざっているものも多くてCLIP2を推奨してたりもするな
ちな1と2で絵柄や雰囲気も変化するのでモデルごとにCLIPを変更して変化を楽しむのもテやで
プロンプトも若干手直しが必要やがな!ほな! エロの為にAI画像生成初めてpythonのエラー眺める機会が幾度無くあったおかげで、最近職場での作業用ツール(python)でエラー出たときに、普段からエラーログ読む癖が出来てたのを活かせて円滑に対処できた
半年前とかだと、職場の作業ツールのエラー出たらただ萎えてただけだったのに……
やはりエロ! エロは全てを解決する! ワイの環境clipskipがデフォで1になってたんやけどこれを変えた途端急激に絵のクオリティ上がって草
ワイは今まで何をやってたんや Reword is enoughという有名な論文がある
報酬さえ与えればAGIが出来るって話
つまりエロさえあればお前らもどこまでも高く飛べるのだ 原作スレでloraがあるのを知るっていうね
うーん、なかなか良い
アニメと原作療法学習させてるみたいで、
キャラデは原作初期とアニメの中間みたいな感じではあるが
https://i.imgur.com/Y7A6TJP.webp
https://i.imgur.com/YzzKQI9.webp >>467
シュバニキ助かる
確かSD2からデフォルトでCLIP2なんだよな だから論争の決着は付いたも同然 >>460
それは分かるんだけどね学習率下げても上手くいかなくて >>425
やってみたけどANDでも混ざるなぁ。
ワイのやり方がマズいんかなー LoRAの特定の階層だけを抽出してきれいな(?)LoRAをつくる方法しってるニキおる?
のけぞりLoRAニキがやってたんだけど方法までは書いてなくてわからんのよな clip skipについて教えてくれたニキ達サンキューな
とりあえず2をメインでやってみるわ 世の中えーあい人材足りないいうけどお前らおったら問題なさそうやな >>466
そこはほら
公開することで評価が分かるみたいなメリットもあるし
civitaiレビューで画像投稿する人殆んどおらんけど
端的に言うとワイが欲しい 新しいUniPCサンプラー綺麗やけど難しいな、画像を大きくすると崩れがちや
ただDDIM系らしく背景には強いわ。二次イラストもバッチリやし、リアル系で緑の多い背景だと写真と間違えるわ
屋外でも室内でも背景が細かく描写されるのは大きな利点やね 実写系でやたらモヤがかかったようなボヤけた画像がよく生成されるんやけど防ぐ手立てあんのかな?
VAEは使ってるけどさ けつ毛の出し方しってる人いない?
ダンボるにある anal_hairで試してるんだけど出ない。Loraとかあるならそれでもいいんだけど >>484
実写向けのvaeじゃないからボヤけるという話ではなくてちゃんと対応した奴使っててもあかんの? >>436
今は置き場こんな風になってるからちゃんと置き直して再起動してみそ
models
(中略)
├── ESRGAN
│ └── ESRGAN_4x.pth
├── GFPGAN
├── LDSR
│ ├── model.ckpt
│ └── project.yaml 一枚一枚hiresかけてるんやけど指定したフォルダの画像を順次かけてく機能とか拡張ってないんかね >>488
i2iのこと? 標準でその機能あるくない? >>461
なんかTSしたおじさんみたいな顔してんな >>476
たぶんSupermerger
https://github.com/hako-mikan/sd-webui-supermerger/blob/main/README_ja.md#merge-loras
>ひとつまたは複数のLoRA同士をマージします
下のloraリストから選んで
lora名:1.0:MIDD みたいな感じでloraを1個と層の識別子を書いてmerge LoRAs chillout一番使ってるけどclipskip2より1の方が呪文ちゃんと聞いてくれるわ なんか手だけやけに老人のような加齢した手になると思ったらeasynegativeが悪さしてやがった
もしかしたら組み合わせの問題なのかもしれないけどeasynegative外したら普通に若返ったわ LoRAの出来を見て、もう追加で1000ステップ回したくなった時ってどうすればいいんや?
ArgsList.py見てもLoraを指定するところはなさそうなんやが・・・。
出来上がったjsonの"lora_model_for_resume"にLoraのパス入れてみたがreturned non-zero exit status 2.
とエラー吐かれる。助けてクレメンス。 >>488
準備したseedでhiresやり直すってことなら、XYZでseedのリスト入れればいいいんじゃない? >>454
教師画像を多くするのもありだと思う
64枚で学習させたら過学習にならずに再現度高くできたで hiresのstepってどのくらいでやる?
step少ないと微妙な感じだし多くすると遅くなるよね >>497
サンガツこれだわ
ガチャ回した画像からhiresかけるのを楽にしたかったんや >>500
教師画像は100枚とか200枚とかなんや正則化はつけなかったり付けてみたり
ただ3Dゲームのスクショだから全部同じ絵柄 UniPCは解像度を高くしたらステップも増やさないとノイズが残るっぽい? LoRAをcatとかで開くと見られるjsonっぽいアレをパースしてcliでjsonとして見られるツールって無い?
出来ればcliがいいけど無ければwui用でもいいんだが ノイズをHires.fixでR-ESRGAN 4x+が頑張って絵にしてただけだった 1111の最新版XYZ plot壊れてるわ
エラーで画像出てこない >>505
additional networksでNetwork metadataに表示されてるんでね? >>507
2週間分貯まってるからなぁ
今修正中前のみんなでバグ出してっていう段階だと思う 1111にアプデが入った時は3日ぐらい寝かしたほうが良い ちちぷいって乳首すらも許すまじなのにロリはいいんだな… 1ヶ月ぶりにアプデしたら同じステップ数で倍以上生成に時間かかるようなったわなんやこれ ttps://imgur.com/W0Cgvb6.jpg
ttps://imgur.com/cNNH4PU.jpg
UniPC step50 R-ESRGAN 4x+ 2倍
なんかそれっぽく見えたけどやっぱりノイズ残ってるな >>505
cliだとこんなんで取れるか……?
cat frog-lora.safetensors | perl -e 'while(<>){if(/^.*?({.*?\]}}).*/){print $1;}}' | less >>429
なんでこんなに生成速度遅いのかって低電圧にしてたburnerはずしたら3090爆速になったけど300wくらい使っててちょっと引いちゃった >>512
ちちぷいって名前のくせにちち許さねーのか 空襲警報で疎開してたんだけどなんかニュースありましたか? >>505
あ、lessだと怒られなかったのにファイルに書き出すとエスケープが足りなくて怒られた。修正版
cat xxx-lora.safetensors | perl -e 'while(<>){if(/^.*?(\{.*?\]}}).*/){print $1;}}' > metadata.json ちちぷいとマジナイっていちおう棲み分けしてんのか
ただの競合だと思ってたわ ちちぷいはアカウント作らないとプロンプト見えないから使ったことないや >>520
すげえなこんな強引なやり方でもちゃんとjqでパース出来たわ職人技やな助かる たぶんちちぷいもマジナイも廃れるよ
原理主義かよってくらい厳しい
civitai位のフリーダムじゃないと >>520
おっと、これmetadata以外にもjson部分全部取り出してるな。というか、あのjsonってmetadataだけじゃなかったのかw サイト運営って難しいのかなやっぱ
日本だとモザナシが厳しいし、海外サーバーでやるとロリが厳しいし
リスク負ってまでフリーダム運営はしないか catの部分はhead -c262144くらいにすると良さそうやな
実際は160000くらいでも余裕ありそうだが ちちぷいかどこか忘れたけどどっかのAIイラスト投稿サービスが資金調達成功してたろ リアル系を肌とかの質感残したままアップスケールするにはどったらええの?…
毛穴とか見えるリアルさにしたいのにi2iでRESRGAN4使ってアップスケールしたらノイズ除去効果のせいかCG感出てノッペリしてまう…
このスケーラー使ったらok、みたいなんあるの?… >>503
いくら画像が多くても構図とか背景が似てると過学習になりやすそうやな DLのガイドラインに沿って長編の1/100 の11ピクセルのモザイクを掛けたら
せっかくうまくマンコかけてるのに何も見えん MidjourneyがV5にバージョンアップ予定らしいけど中々凄いな
リアル系の背景なら最強になりそう
キャラと背景を分けてモデルが進化していくような流れにならんかな >>480
ダンボールのタグポチポチするやつやエロ絵弾くケニヤ人が足らんだけやで >>442
ちょっとdaamで1と2を切り替えてやってるけど、1の方がプロンプトに従いやすいってのはあるっぽい
2だと無視されるワードが多いなあって驚いたりしてるし(その割に装飾品とかちゃんと描いてくれてるから混乱する)
ここらへんはseedとプロンプトとモデルとの相性によって変わってしまうカオスな領域なんだけど、傾向としては出てると言えそう
skip2だとワードからイメージされる要素とdaamによる結果とが乖離してることが多い(いろんなseedで乖離する)
複数のワードがほとんど同じような効き方ってのも起こりやすいみたい
少ない回数でのただの印象だけどね
混乱の要因が、良く効いてるイコール赤色でないとダメって思わされてるのもあるかな
ヒートマップで青でさえなければ緑や黄緑でいいし、黄色ならもう十分な効果があるって考えるならまた印象も違ってきそう >>531
背景はカタヌキとgimpで消してるんや
ポーズをとったのも入れてるが顔と上半身と全身を正面斜め含めてぐるっと9枚ずつ入れてる感じ表情もいくつか入れて
顔だけの学習もあるから顔アップを混ぜてたら多様性出るんじゃないかと安直な考えで
dimやアルファ値下げ過ぎたのかもしれない アップスケーラーはパラメータ変えて試して良いバランスのものを見つけるのが基本 今日噂のApply Lora to outputs rather than inputs when possibleをオンにしたら昔naiで過学習ぽかったのも絵柄がnaiになったわ
これは過学習じゃないって事?それともApply Lora to outputs rather than inputs when possibleオフで出るのがいいのかな?
また学習が分からなくなったw誰か正解まとめてw 繰り返し数とepoch数でどう違うの
過去ログ読んだけどわからん >>544
例えば10枚の学習画像を用意したとするやろ?
これで繰り返し回数10回なら総ステップ数は画像数10×繰り返し回数10=100でLoraファイルが出力されるんや
これに3エポック分回す設定にすれば100ステップ回したLora、200ステップ回したLora、300ステップ回したLoraって感じで3個出力される訳やな
過学習を防ぐためにはステップ数を小刻みにLoraファイルを出力させた方が良い訳だからエポック数の方を増やすべきなんやけどLoraファイルを1個吐き出す度に生成に時間掛かってるのか知らんが遅くなるからエポック数じゃなくて繰り返し回数の方を多くしようとしたがる訳やな 完全にアニメ絵の塗りしか出さないモデルとかある?
lora使うと混ざって困る アニメ絵モデルと言えば7th animeとかちゃう?
ワイの経験的に7th anime3Cが一番アニメ絵なんだけどLoraの効きが悪いから3A辺りがオススメや すまん7thシリーズは使った上でなんや
realisticネガに入れまくればなるかな anime系と3Dネガに入れたらそこそこ求めてるものにはなったわ Loraの問題ならキャラデザを適用しつつモデルの塗りを維持するLora階層とかあるらしいけど試してみたら……って探してる最中に解決したみたいやな
https://seesaawiki.jp/nai_ch/d/LoRA%b3%ac%c1%d8 animeの指直そうとしてリアル系入れると自然とリアリスティックになってしまうから
いっそのことマージの時にリアル系抜いていくしかないな ノイズ凄い出てくるしunipcは調整済むまで使わんでええな unipcはステップ20~30で使うもんだからそれ以上はノイズ出るで
まあそれ以前にlora分離使えないのは致命的やわ >>544
繰り返し数は正則化画像を使うDB以外では全くの無意味だから今後全部1でいい >>542
お~これまたポップな感じになってええな!
またまた使わせてもらうで
いつもサンガツや lora運用からのlocon の導入に
失敗したのですが
原因解る方いたらアドバイス頂けませんか
1枚目エラーコード(学習作業)
2枚目書き換えた箇所
3枚目左書き換えたファイル
右追加したフォルダとファイル
4枚目エラー表記されているファイル?
https://i.imgur.com/FDTM2zU.jpg
https://i.imgur.com/W0KF0GG.jpg
https://i.imgur.com/NBB1q50.jpg
https://i.imgur.com/kv71Rw5.jpg 初心者質問ですまんのだが、以下のディレクトリに生成画像がいっぱい溜まってるんだけど
これ消しても問題ない..よね?
C:\Users\(ユーザー名)\AppData\Local\Temp 3DモデルでCN設定してt2iするだけでこれ出せるんやからほんま異常性癖には良い時代になったわ
https://i.imgur.com/vC3cIER.png >>558
これ3Dモデルは普通の体形でopenpose使ってるんか? >>559
メガネさえなければ最高のキャラなんやけどなぁ
>>560
いや3Dモデルをこんな感じの体型で作ってcannyとdepth使ってる
https://i.imgur.com/v0aaxWv.jpg >>557
Tmpに入ってるのはOSが生成したサムネやな
消しても問題ないけど同じフォルダ開いたらまた生成されるしよっぽど容量カツカツでもないなら消す意味もないと思う >>561
ええやん。これ3Dモデルは何使ってるん? >>556
書き換えたら自己責任や
LoconはLycorisに移行したからもう無いで
pip install lycoris_loraでイケるやろ
使うときは--network_module lycoris.kohyaやで >>564
dazってソフトの備え付けのモデルや
モーフって機能があって製品を買ったりBlenderで自分でいじって体型を変えられる >>566
レスありがとうございます。
書き換え前のバックアップあるので
ロールバックしてリコリス調べてみます。
まとめブログで数日前に最強学習みたいな
記事見たのですが入れ替わり早すぎるw imgerってアメリカのサイトだけどロリに寛容なのはなんでなん?
civitaiでアウトな画像もおkだったりするじゃん
日本基準のモザイクや黒塗りはアメリカ基準じゃ関係ないよね
二次ロリはセーフとかURL共有ならセーフとか基準あるんかな? >>567
体形の変更ってdazよりもBlenderの方がええんか?
ワイもムチムチな爆乳作りたい >>554
マジか、めっちゃ時間短縮できるやん。
サンガツやで。 >>516
何パー引いてたんや?
ワイのA2000ちゃんは元が75wだから90%とかにしかしてないわ
それでも爆熱だけどな >>570
daz内部で自由に変形する方法がないから自由に変形をしたいならBlenderとかのスカルプトモードで変形してdazに戻すしかない
製品モーフを使って大まかな体型を作る→blenderに出して微調整→dazに戻す
って感じのフローでワイはやった >>557
tempでしか引っ張ってこれない画像データってのもあるから、引き上げられるものがないかざっと目を通したほうがいいかも
ControlNetのデータはtempにあるから気づかない人は割といそう
棒人間は今や幾らでも自作できるけど、微妙な角度の調整に成功したのはもはや財産みたいなものだから残しておいたほうがいい すまん今までタグ無しでコマンドライン版LORAやってたんやが、Taggerとかでタグが書き込まれたファイルを用意すれば今までと同じコマンドで勝手にタグ学習してくれるんか?
赤ちゃんですまん >>573
早速インストールしたで!
ただどっから手を付けていいかわからなくてパンクしそうや
体形の変更とか初心者向けで参考にしたサイトあったら教えてほしい >>557
自分で消さんでもそのうち勝手に消えるで >>577
daz モーフ 使い方 or 作り方で検索すると色々出るで lora 系の学習元モデルって
版権再現で推奨とか人気のモデルって
ありますか? 人体モデリングだと、makehumanてのもあるよ
お手軽人体モデリングツール「MakeHuman」をフル活用! アセットと「Blender」連携 - Blender ウォッチング - 窓の杜 https://forest.watch.impress.co.jp/docs/serial/blenderwthing/1384077.html >>571
繰り返し1にしたら、その分epoch数上げなあかんのやな。
あたりまえかw コマンドラインに直接入力してloha動かしてるんやけど正則化画像使わない時ってreg_data_dirを書かないだけでええんか?
readmeには直接書かれてないけど 脳みそチンポマンだけどi2iのアプスケ使えば巷にあふれる低品質jpgガビガビ画像のノイズ除去とか楽ちんだったりする? >>576
タグ無しってことはDB方式でええんか
taggerで生成したtxtファイルを教師画像フォルダに配置して--caption_extension=.txt指定すればいけるで
フォルダ名のタグは無視されるらしい CivitalをDailyのLikeでフィルターしたら「Openpose editor」ってのが出るんやけど、これ使ったら指問題も解決するんかね?
めっちゃ難しそうやねんけど指問題が解決するならチャレンジしようか迷う 何が正解なのか未だにわからない
俺はずっと👶をやっている 枚数*繰り返し数*エポック数=ステップや
繰り返し100エポック1と繰り返し1エポック100のどっちがいいかはわからん openposeとかの画像をcontrolnetに読み込ませるところで拡大縮小させることできる? エポック数で保存するから繰り返し少なめエポック多めのが調整しやすくない >>566
割れものだがNAIが癖がなくて使いやすい
但しAOM3モデルとの相性が悪い
NAIの入っていない学習向けモデルもあるが出てくる絵が微妙だったりする
結局マージするなりして自分で納得できる絵を模索するしかない >>550
ワイが助かるわ
ベースモデルとコンセプトモデルってどういう違いや? >>557
起動時に削除するオプションあったと思うで ワイはdataset-repeats使ってるからフォルダ名は使っとらん
それにmax-train-steps使ってるのでエポック数も指定しとらん >>585
できるで
別にアップスケールしなくても等倍でもガビガビなくなるで
i2iよりExtrasの方が簡単でええと思うが 人物LORA作ったけど背景ほぼ固定、おっぱいの大きさほぼ固定、周りに男指定しても出てこないって過学習になっとる? >>597
そこに書いてある実写をあえてダウンスケールしてからデノイズMAXで拡大してアニメ背景っぽいものを作るって手法はええな >>488
この機能前から欲しくてね
xyzはprompt揃ってないとダメなんだよな
拡張作りたいけどやり方がよく分からんので、どこか参考になるとこない? つくみ島ってPCで録画機組んでた頃に見かけたわ
いろいろやってるのね 久しぶりにautomatic1111更新したけど、
hypernetworkの強度スライダー無くなってる? 公式で次のV3では学習対象から数百万枚のイラストが外れると発表があったけど、
これ具体的にはどういう弊害が出るんや?申請があったイラストレーターの画風とかが取り込まれんようになるんかな 昨日の青い地雷ボタンの件webuiをgit pullしたら更に悪化したけど直ったわ
あの症状がimage browserのsend to txt2 imgにも反映されてもう我慢ならんくなったんやが
requirements_versions.txtのgradio==3.15.0ってなってたのをgradio==3.16.2にしてvenv再生成させたらすべて直ったで
いつ弄ったのか分からんがこれでサックサクやでーお騒がせでスマンな これからは個人で学習するのがメインになっていきそうだし手足さえ安定してくれればそれでいいけど LoRA使おうとしたらAttributeError: 'Options' object has no attribute 'lora_apply_to_outputs'って言われて動かんわ
クイック設定にはちゃんとlora_apply_to_outputsって書いてあるんやが >>597
神ィ
チンポマンが考えるようなことはすでに他の誰かが便利なもん作ってるもんなんだな >>572
普通に検索で出た通りにしてた
ttps://creas-labo.org/computer_parts/hot_rtx3090
こういうの >>608
別にそれ使ってもいいんやが
Automatic1111のExtrasタブに同じ機能があるんやで >>604
イラスト抜くとポーズの表現力めっちゃ下がりそうやな
動きを切り取った写真ってスポーツとかの報道写真ぐらいでネット上に大量にあるインスタとかは棒立ちの自撮りばっかりや
他に動きのある実写コンテンツとなると映画やけど動画から学習させるんかね >>609
見入ってしまった。省スペースPCで熱籠もりやすいから参考にするわ 画像出力は出来るんだけどなんか急にコマンドライン上でエラー出まくるようになった >>613
warningは別にエラーってわけではないで 動画からinsight系で良いシーンだけ抜き出して静止画にして学習とかなら捗りそう。
というかそこまで自動にはできるよなぁ。 例えばあるキャラクターをアニメ風とか漫画風とか自分の理想の塗りかたで出力しようとしたときにかかわってくるのはモデル?VAE?
それともそもそもがちゃんとそういうデータで揃えて学習した奴でないと調整していけない? SD2はLAION-5Bの58億枚のありとあらゆる画像で学習されてるんだよね?
その中で2次元3次元の人物画像って何枚くらい使われてるんやろ 欲張って5人一気に学習したら案外うまく行った気がする
loconやけど、64dimのalpha1よりも64dimのalpha32の方が出来が良かった
普段はalpha1でもいいのができたりするから雰囲気やな…
1枚ずつ出してくっつけたもの
https://imgur.com/A5qUFbq.png
latent couplesで5人同時にきれいに出すのはかなりガチャ運がいるな…
https://imgur.com/koVPQ2E.png
ケイトが一番好きなんよ
https://imgur.com/tAezsQm.png すまん!ちちぷい乳首オッケーだったわ 消されて無かった。自分の勘違いだったワイ 朝鮮人キモいからさっさと死んでくんね?wつか歌舞伎町とかで顔面煽りしても何も言い返せないのマジ草^^
色々なスレにレス置いてるけどアク禁食らったら雑魚共逃げたってことだからな?w >>619
サンガツ。でもできたらそのimgの個別画像も入れてくれい
サムネにそのまま設定したい >>138
Ultimate SD upscaleのRedraw optionsのUpscalerは最初に使われて、その後のタイルごとの処理にはi2iで設定したupscalerを使ってる模様。
でもって後者にSwinIRを設定してるとエラーになる。
TypeとSeems fixがどういう効果なのかよくわからないなー >>582
エポックより繰り返す数で調整したほうが便利やで >>604
エロぬいて2.xの学習で苦労してんだし、さらに追加学習が厳しくなるモデルが出てくるだけじゃないか? >>622
ちょっとhf的にアウトな気がしてるんやすまんな
もうちょい大人しめのをreadme用に作るつもりや >>619
サンガツや!
出張から帰ったら試させてもらうわ >>629
こんなお洒落で立派なスタジオで収録するのは淫語ASMRなんですよね >>619
おお
ありがたく使わせていただくで
サンガツ https://i.imgur.com/vQBYIGM.png
https://i.imgur.com/KkrkLOv.png
https://civitai.com/models/13142/love-hotel
ラブホLoRA作り直してみた
https://i.imgur.com/mwgvyR5.png
lovehotel, LHbedpanel, phone, tissue boxとかプロンプトに書くと枕元のベッドパネルが描けるかもしれない
背景だけなら無限にラブホ部屋生成できるけど、肝心のキャラを入れた絵を描こうとするとめっちゃ使いにくい マジ申し訳ない >>629
はぇーかっこいい
こういう謎の機材ワクワクするんよな いい塗りにする方法ワイもほんと知りたいわ
流行りのモデルだとすぐ2.5Dみたいになっちゃうし
realisticネガ強めただけじゃ肌の色思ったようにきれいにならないし
塗り上手い作家の層別loraやるしかないんかな >>640
いつか誰か上げるだろうと思ってたけど草 多少顔が安定しなくても元からだから許されそう
タクヤさんとかも出そうやな むしろなんで今までなかったんやってレベル
パンツレスリングも >>640
中国語でコメントあるのが面白すぎる
ビリビリとかでも流行ったんだよな 服装は強めに指定しないとすぐ脱ぎます。
いったいどんな素材で学習したんやろなぁ TDNがホモビに出る→別の章もネタになる→別の章の男優がネット上でネタになる→中国のネット上でもネタになる→中国のネットを飛び出てブームになる >>624
せやな、途中経過のモデルだしたらいきなり過学習になってええ感じのやつを見つけるのが難しかったわ。 >>640
これでコラ画像作りがどんどん簡単で判別難しくなっていって野獣先輩の新たなホモビが発掘された!とかスクショ風に貼られて釣りとわかって絶望する姿が見える見える depth使うと全体的に影が多くなるというか逆光みたいな感じになるんだけどそういうもの?
昼の明るい教室にしたいのに夕方の暗い教室みたいになっちゃう
呪文に光関係突っ込んでもネガに影系入れても一向に改善されない チンポ包囲のLoRA好きなんだけどいざアップしようとすると修正めんどくさくてちんちんシナシナですよ プリプロセッサのとこいじってプレビューで出来るdepth画像確認してみたら
渡すdepth画像が真っ白とか真っ黒になってるとか >>651
数年後には新作ホモビをAIで生成して
自給自足してそう >>545
>>554
わかりやすい!まじでサンクス ピクシブに適当にあげてるけど一生懸命構図やモデルを作ったオリキャラより適当に拾ったモデルで暇つぶしに作った版権キャラの方が何十倍もいいね貰って悲しくなるわ >>662
しゃーないオリジナル性癖に切り替えて行け >>619
159のスレで見てからここ1週間それの事しか考えてなかったわ
サンクス 逆に考えるんだ。版権ブーストがない状態が自分の実力、そう考えるんだ
ぶっちゃけ気にしたら負けやで
むしろオリキャラを気に入ってくれた人がいる、と思って喜ぶようになれば気が楽よ >>653
プリピロセッサをnoneモデルだけdepth 自作他作含めてオリキャラのほうが好き
性癖により近いからか >>541
これ使ってHires.fixかけたらいい感じになった
肌がすごくきれいで装飾の細かい所も描き込まれてる理想のハイレゾに近い
これがt2iで寝てる間に出てくるのはすごい
i2iやextensionにかけるのと比べて超お手軽
576x704
https://i.imgur.com/dCybPcI.png
1728x2112
https://i.imgur.com/tHc9aWm.jpg
分割範囲がデフォルトのままだと生成時間は使ってない時とほぼ変わらない印象
細かくするとハイレゾ3倍4倍よりも遅くなる 版権キャラで作りまくってたらネタが尽きて
そこからオリキャラを作り始めた >>613
わいも今それ対応してたというか再発してたで、ASGIエラーで何やるにしてもバンバンエラー流れるやつやろ?
原因は大昔に入れたtag auto comleteスクリプトが残り続けてそれがエラー吐いてたわ
んで>>605のgradioをダウングレードして回避してたのがgit pullして再発したっちゅうわけやな
ここ参考にして該当のスクリプト消したら大量のエラーも出なくなったで
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/6966 ワイも単体でキャラ出すのはなんか物足りないんくなって2人出して絡ませたりばっかりしてるわ
単体より精度落ちるし修正めんどいけどやっぱ2人いると脳が自然と物語を作り出して妄想捗るからおもろいわ やっぱLoRAって複数キャラより一人ひとりのほうがええ感じ…? 一度そこそこのもの作れたLoRAを再度作り直すのは辛いな
要改善点が明確じゃないせいで多分良くなったけど部分的には劣化してるみたいな感じで評価しにくすぎぃ
アナルゼリーが前公開したv2より放出感マシマシになったけど代わりに奇形率が増えて取り扱い注意になった
自分で使う分にはまあいいんだけどなーって感じが強い
https://i.imgur.com/Ssqoa7L.jpg
https://i.imgur.com/VLATKIR.jpg
https://i.imgur.com/29ZyfXq.jpg
https://i.imgur.com/Ic6aHUd.jpg 書き忘れたけど路地裏メイド擬似排泄部やね
やっぱ新規のlora作り続けた方が精神衛生上良さそう
公開するのもそうしていくか 版権キャラでも最新のゲームとか新キャラ実装したときに出力できないからなーloraうまく作れる人が生成してるの見てめちゃ羨ましい そもそもアナルゼリーってなんなん
ゼリーは出てこんやろゼリーは 風船が出るんやからゼリーが出たっておかしくないやろ https://i.imgur.com/AHDUeNS.png
謎の文字を許容できるなら最高やな
狂ったように表紙濫造しとる 有名絵師ですらオリキャラ絵のいいねは版権よりかなり低めになるし
だから版権の有名どころ描いてフォロワー集めてからオリキャラ商売狙う流れがスタンダードになってる
かくいうワイもオリキャラには全く興味ない >>674
これで腹ボコさせられたら神なんたけとlora組み合わせたら行けるんかな そしてイナゴ絵師のおかげでloraが作れるようになると そういやLoraばかり注目されるけど、badプロンプト系のti複数混ぜても全然崩壊しないんだよな
役割違うけど、衣装とか表情とかはtiとか使い分けできないかな 有名作品のキャラと有象無象の一般人が考えたオリキャラのどっちが人気かなんて自明過ぎる >>683
stomach bulge
https://i.imgur.com/8sb7JtN.jpg
pregnant,stomach bulge
https://i.imgur.com/5PoCjyt.jpg
stomach bulgeタグ入れて膨腹な素材も学習させてるけどまあほんのり
ヘソ乳首の副作用あるとはいえやっぱpregnantが強いよな
後渋投稿の話はオリキャラしか渋に投げてないワイに刺さるやで >>541
これ低VRAMには死ぬほど助かるな
ありがたい 正直、最近ゲームしたりとかアニメ見たりとか激変してると、オリキャラも版権キャラも対して変わらんのよね
違いがあるとすれば、版権キャラの方が1キャラにスポットを当てることが多くてシチュに連続性のある絵が多い点か
好みのキャラで自分の性癖にぶっさして来るならオリキャラでも全然良い
そして大体性癖に刺さる絵描いてる人はオリキャラ
つまり何が言いたいかというと、AI画像生成で自分の性癖に刺さるエロい絵が自分で出せる(試行錯誤できる)時代になってうれしい >>599
チルアウトは乳小さくするのはそもそも苦手 >>692
んなこたぁない
普通にちっぱいロリ出せるぞ >>690
ま、まだv3は公開しとらん…
v2でもある程度は同じ感じになると思うがどうかな
ダメそうならv3も公開検討するわ AIイラスト自体はすごい先進的な気がするのにプロンプトの解釈に関してはどうしてこうも馬鹿なのか?と思ってしまう。例えばred eyes、と書いてあるならそうしろよ・・・なんで分からないんだろうって add-netExtensionsのmodels\lora内にフォルダつくって整理したいんだけど
それするとlora読み込めなくなっちゃうの解決方法ある? >>696
ダンボールタグとSDのテキストエンコーダの衝突って感じ 野獣先輩loraで生成した画像ニコニコあげれば簡単に再生数稼げそうだけど淫夢堕ちという言葉が相応しい >>687
特に無いよ、基本プロンプトは気にせず適用だけでOK
出力崩れるなって時は、適用する強さか、層別適用で調整するくらいは要るかもだけど >>697
ロリにせんでもちっぱい姉さんも出来るぞ
flat cheatを強調しつつ20yoとかにすれば >>691
版権キャラは思い出補正があるだけだからな、それがデカいんだろうが
思い出が無ければオリキャラと何も変わらん red eyesぐらいなら一発で出ないか?
インスタ系モデルだとどうか知らないけど 版権キャラでエロ作ってると
有名人loraで脱がしてる時と同じ感覚はある eyesとhairの色で混同したことないな
服は上下で混ざることあるが。
一行目に a girl with blue shirt and red skirt とか文章方式で入力するとヒット率上がる >>706
供給が少ないキャラを自由にいじれるのはホンマ嬉しいわね >>673
同じ作品の5キャラくらいだったらきれいに出し分けわれるで
配布してるやつだともっと沢山キャラ内包してるやつあるし
全く異なる画風の違うキャラだとどうなるかはわからんけど キャラ優先かシチュ優先かみたいな好みの違いはあるやろね
ワイは原作至上主義みたいな感じやから公式絵の乳首描き足すだけで(以前は)抜けてたけど >>716
vaeが適用されてないとかclip skipが1になってるとかやろか kohya氏のsd-scriptsでマルチGPU学習をサポートってなってるんやが
3060を2枚使ってVRAM24GBで学習できるようになったんか?
https://github.com/kohya-ss/sd-scripts#change-history
train_network.py でマルチGPU学習をサポートしました。長年の懸案を解決された ddPn08 氏に感謝します。 ヒマやったんでPaperspace無料版でLoraの学習できるようにしたら
2500ステップで残り時間16時間とかでてきたわ 2次と違って3次の正常位難易度が高い…
騎乗位とは雲泥の差だわ 原神ローラニキのガイド参考にしてみようと思ったんやけどタグの1girl.solo 消して学習するもんなんか? >>719
バッチ数が増えるようなイメージや
3060一枚で4バッチだったものが二枚で8バッチになる
一枚で回せん学習は相変わらず回せん >>714
サンガツ 貰っておくわ
>>716
とりあえず色味はVAE適用できてないからやな
あとはCFGScaleが低いのか >>718
屋外ならパース付けすぎないほうがいい気がする
スマホなら近くで撮らずに
遠距離から望遠かズームで撮る、または切り抜いて使うとか 前の2000個集めてた人じゃないけど、落とす事に夢中になって全然試してない積みLoraあるよね… >>725
キャラLoRAの学習素材って大抵1girl, soloやから
入れっぱなしだとトリガータグ並に影響のあるタグになってしまう(=1girl, soloを入れないと効きが弱くなってしまう)んや >>725
1girlは大概入れるからいいけどsoloは使わんし外すの安定
soloに集約されたって書き込みあったし >>718
あとワイの憶測なんやが
消失点が人と合ってないと思うんよ
ノベルゲー作るとき目の高さで撮った写真にキャラの立ち絵合わせるとキャラがとんでもない高身長になる
なのでワイはへその高さくらいで撮るんや
本職のイラストレーターはどうやってんのか教えてほしいが…… スマホで近く撮ると広角でやや魚眼レンズ気味だから
selfie,povつけると合うかもしれん >>734
>>736
これまじ?ワイずっと知らなかったんだが
だからsexさせるときに出にくいのかな >>726
強いGPU持っとる人がさらなる高みに登る用なんやな残念や >>734
>>736
サンガツ
soloは消してやってみるわ1girlは有り無しで試す lohaもloconと対して変わらないとかもう何を信じればいいのかわからないねぇ
lohaは元々サイズ減らすようっぽいけど AI絵師は転売屋みたいなツイートがバズってたけど
AI肯定、擁護する意見と反AIの意見とで半々くらいやったな
少し前までは反AI一色やったし、なんか風向き変わってきたんちゃうか >>743
アフィリエイと2興味あります!
教えてくだせえ ふと締め切った部屋の温度見たら27℃でワロタぁ…‥
グラボの温度どうこう以前に、人間側が夏生き残れるんか…‥?
エアコンフル稼働は不可避か…‥ >>132
ULTRAは低スペックに優しいて聞いたような気がするから雰囲気で使ってるわ >>745
冬場はエアコン不要で過ごせた分、春夏秋にクーラー付けるだけや
1年通せば平均的になるで、多分 >>743
イラスト屋の漫画のやつか?
AI絵を生み出す目的が「稼ぐぞ~!」一点だったのが違和感を感じたな >>451
原作ラノベ見せたら
そのキャラ再現するくらいにならんかな🥺 >>749
そもそも転売屋はゲームやカードを自分で生成してるわけじゃないんだし比較するのは無理があるな
商品が増えるという性質的にはむしろ真逆と言ってもいい
まあ強い憎しみがあるということだけはわかったけど >>444
chatGTPはしれっとウソ吐くから付き合ってるいつに腹が立ってくる気がする そうだな
4chanの話は4chanでするべきだしRedditの話はRedditでするべきだしふたばの話はふたばでするべきだな >>748
天才か!
心おぎなくエアコン今から付けれる! >>752
だから何故ベストを尽くすのか、と以前からあれほど…‥ 今更コントロールネット入れて精度の高さに驚いたけど
なんだかんだまぁまガチャやな >>677
分かるわ上手くできるテンプレ教えて欲しい
素材集めて加工して無駄になった時の徒労感w >>755
これから先のGPT4やまだ発表されてないAIに期待やなw >>766
controlnetはプロンプトだけじゃポーズ決めにくいキャラや画風LoRAをバンバン動かせるのが実に良い
プロンプトだけだとこればっかりはな 実写モデルだとAI生成でも平気でデッサン崩れてるの出てくるし
絵心ないとその間違いにも気付けなそうやな >>764
指定するようなもの入れてないのに勝手に出てきたんや… 今週はGPT-4もMidjourney5も出るし忙しくなるなあ
春だから外に出たいのに暇がない >>796
はえー、solo外した方が良さげなんか
重複をまとめるアドバイス=hair ornament, star hair ornament, star \(symbol\) を star hair ornament でまとめる は見たことがあるけど、スペルというよりは意味でまとめるのが良いのかな デフォルトのプロンプト保存機能より便利な拡張機能がここで何度か紹介されてたと思うんだけどなんて名前だっけ?
wikiのExtension見ても見つからないや 同キャラ学習したローラがそれぞれこっちの体位はいけるけどこっちはダメ、騎乗位はすごく得意なんだけどパイズリはダメとかなっててめんどくせえw solo入れないと複数キャラ出せなくなるってどっかで説明読んで残すようにしてたわ 1girlも消すと女と認識されなくなりそうではある
ただ原神LoRの人は成功体験を教えてくれてるんだから信憑性は確かだし次からは試しに消してみるわ 少ない素材でマイナーキャラLORAつくって生成したイラストを学習用画像に追加してまたLORAつくって……って感じ繰り返して理想のLORA作ったことある人おる?
うまくいくんかな LoRAで失敗ってどんな失敗なんだ
キャラの片鱗すら再現されないレベルなのか前髪やハネ髪一本が出せないレベルなのか
どっちにしてもタグ付けの問題じゃなさそうだが 顔と胸で女として判定される
男として判定されるのは真っ平らで髪短いキャラだけや >>781
ポーズが出にくかったり服の再現ができてない段階で元絵の塗りに近い物が出てしまったり顔がくしゃったり
だからこれ以上学習させるか引くかが分かりにくくなったり
ただApply Lora to outputs rather than inputs when possibleのオンオフで凄く変わるから分からなくなった
オフの時にモデルの味が出る方がいいのだろうか?みんなオンでやってるのかな? まじで髪短くて胸ないと1boy判定されちゃうわ古いアニメの女キャラikari_shinjiタグまでついて何でだよってなったわ 貧弱GPUでがんばっとる奴おらんか?
低解像度で出力せんとメモリエラー出るわ 理想はnaiで学習したりaomで学習したらそのキャラクターの特徴をプロンプトできちんと出しつつモデルの絵柄と背景で描いてくれることなんやけど
強度を減らしてやってみたり階層loraでもいけるみたいだから悩んでるけど Apply LoRA to outputs~をオンにするのとblock weightでout層に寄せるのって別モンなん? >>787
元のキャラの画風や塗りでモデルとの相性ってもんがあるからコレっていう答えは出ないやろなぁ
そもそもプロンプトの効きが悪いモデルとかもあるし 4080買う予定だけどチップはどうせ同じだから安いやつでええか?
PlaitかASUS狙ってる >>786
貧弱のラインか分からんけど
GTX1080で何とか頑張ってる
Linux入れてGPU使ってるプロセス全切りして
別PCからssh操作で頑張ってるわ
ケチれるメモリ量は精々200MB程度やけどな >>714
サンガツ
汗で溶けるという設定の基に路上でオナニーしてもらいました
ttps://imgur.com/I0ee4vk.jpg すまん質問なんやが初回起動時のダウンロード中でエラー出てしまったんや
ここまでは大丈夫そうなんやが
Launching Web UI with arguments: --xformers
これの後に
なんか無い言われるんや
ModuleNotFoundError: No module named 'font_roboto'
今までスタンドアローン版使ってたんやがsdscriptのために結局pythonとgit入れたんでこっちもインストールしようとしたらエラーでたんや i2iで画像を一部分だけ書き直したり消したりしたくて
Inpaint a part of imageというのができるらしいんやが項目が見当たらん
記事見ても2022年のとかやし今変わってるんやろか
sketchで黒く塗りつぶせるはするけどこれやないよな >>793
4090やんけ!
でも保証はやっぱ長い方がええか三月 エルザはもうNvidiaとは仲良くしません。
って言ってた気がするけど結局4000番台出したんか?どうなっとるんや >>789
僕が知りたいのはリアル系3Dキャラのスクショから2次元に落とし込む安定したレシピとおすすめモデルかなー
それとも塗りでっていうなら一旦アニメ絵loraでi2iした方がいいのだろうか
過学習しないならそのままでも一緒だと思ってたけどモデル相性とかあるならどうなんだろう 最近はじめてt2iしかやってないけどすごすぎない?
>>786
1660Tiでやってるけど512×アップスケール2=1024が限界だった
3倍スケールだとメモリエラーで終わり
低メモリ用の設定もあるらしいけど今んとこ2倍で満足してる >>799
controlnetでdepthとか使って2Dモデルで出力すれば特に苦労せずに出来るんじゃね? 保証は大事って言うけどグラボって早々壊れんよな
初期不良とかはあるからサポートの品質は大事だが >>794
wuiのフォルダで
venv\Scripts\activate
pip install font-roboto --upgrade
exit
してみたらどうだろう >>801
そこで過学習とかがでてきましてどれ使っても似たようなのになっちゃって
階層lora使ってアニメlora適応でもよさそうですけどねw EVGAはNVと関係解消したけどELSAもそんな話あったんか >>802
マイニングや画像生成はメモリジャンクションが簡単に90度超えるから
結構簡単に壊れるでソースはワイ
まあゲーム程度やったら壊れんなあんま >>752
なんやこれ!パワ体の健全なデフォルメボディがスケベボディと化してるの素晴らし過ぎて大興奮物や……
悪いが“一足先”に抜かせてもろたで。さらにニキが抜けるレベルにまで進化したらよりエチそうやな、応援しとるわ >>791
同業者おるな
しかしLinuxでCUIとはかなり腰の据えたことしとるな… >>798
InnoVisionの4000番台を箱だけ変えて出してるな >>619
りぼん、なかよし、ちゃおみたいな画風だなオィ >>737
パースはおかしくないで
おかしいのは建物が小さすぎることや c00はAOM3A1&推奨ネガと組み合わせると特有の目がより出やすくなる
https://majinai.art/i/qgaanLt
https://i.imgur.com/k55J1dy.jpg
https://i.imgur.com/E5sN2hv.jpg
AOM3A1&推奨ネガティブはLoRA無しの素でもロゴっぽいの出やすいから画面がますますカオス化していくけれど 嫁と娘が居たらこういう絵柄の漫画読んでるところを眺めたりしたんかな 確かに写ってたんだ
俺の娘、まるで天使みたいに笑って >>820
イオンでキラレボやってたら小学生の師匠が出来た俺がちょっと通るぜ これをデカ目loraと組み合わせたらどうなってしまうんだ 片目隠れが上手くいかんのやが対処法教えてクレメンス
一枚目みたいにしっかり隠れてくれるのはええんやが二枚目三枚目はうっすら目があってこれHirsやらSDアップスケールかけると浮き上がってきたりするんやわ
https://i.imgur.com/N5ihSCS.jpg
https://i.imgur.com/ZnottIU.jpg
https://i.imgur.com/IQ7e0AZ.jpg >>823
その娘さんの名前は?
奥さんとはいつ何処で知り合い何年前に結婚しました?
そこに写ってるのは、誰と誰です? >>826
髪の毛の処理とか甘くなるけどR-ESRGAN4xAnime6Bのdenoise0.3とかでもアカンか? >>803
>>804
答えてくれてありがとうな
しかしエラー解決せず
スタンドアローン版も一応入れ直して問題なく使えてるからおま環だとは思うんやけどpythonとgitの入れ方ミスったんかな
sdscriptは問題なく動くんやがなぁ
リンク先の内容もうちょい時間かけて試してみるわ >>828
ほーんこれなら目が浮かび上がる可能性は抑えられそうやサンガツ
可能ならアップスケールとかHirs前からしっかり目隠れしてくれたら嬉しいんなけどな チンカスLoRAって誰か作っとらんか?
見せ槍LoRAで寄り目させてたら欲しくなってしもうた colabの1000円プラン使ってたけど、GPU全部使い切ってしまった🥲 >>829
あとやれそうなのは
venvを消してからwebui-user.batを叩くとかやな
(あるいは、そもそもwebui-user.batじゃなくlaunch.pyで直接起動しようとしたりしてないか?) メカクレprompt強調したら大体隠れてくれんか? >>832
colabの課金はコスパ最悪やから課金前提ならpaperspace使った方ええで(無料前提ならColabの方がスペック良いけれど)
同じノートブックそのままアップロードしてngrok使ったりすると機械的にBANされるから注意や >>830
そこはきっちりしたLoRA作らんと難しいと思うで
メカクレ以外にも眉毛なんかは前髪無視して透過してるイラストばっかりやから
プロンプトとか半端なLoRAだとモデルのパワーに敗北するんや >>829
ほならもうLoRAもスタンドアローン版にするかやな
ワイはそうしてるけどやっぱラクやで >>833
wikiの通りにcドライブでGit Bash hereしてgit clone
そんでwebui-user.batダブルクリックで起動しかしてないんや >>826
わいやったらペイントツールで薄く出た目を塗りつぶしてからimg2imgで高解像度化にかけるかなぁ
ちょとっと線まで塗ってしまったとか微妙にはみ出て塗ったとか雑な塗り方でも意外とよきに計らってくれるで >>819
アリだけど抜く訳じゃないし使用用途に困るな >>839
話逸れるんやけどスタンドアローン版でsupermerger使えとる?
元々は白背景のコピー機作って学習元モデルにマージしてから学習すると教師素材の白背景を覚えないってやつやりたかったんや
コピー機lora作っていざモデルにマージしようとしたらエラー出たからスタンドアローン版じゃあかんのかなと思って本体の導入やってたんや >>586
サンガツ
公式LORA説明見て
https://github.com/kohya-ss/sd-scripts/blob/main/train_network_README-ja.md
--caption_extension=.txtって書いとらんように見えるんやが、皆はどこを見てLORAのやり方を学んどるんや?
DB方式とか分けて説明してるページも見たんやが
https://github.com/kohya-ss/sd-scripts/blob/main/train_README-ja.md
「step 3. 学習 それぞれのドキュメントを参考に学習を行ってください。」
⇒train_db_README-ja.mdを見るもタグの事なんか一切触れてない
みたいな感じで全然分からんのや... >>837
Lora自作かぁ逃げ回ってきたけどいよいよ考えなきゃいかんかなモデルの特徴に負けない精度って大変そうね
>>842
ワイもクリスタ持ってってちょいと塗ってやったりしたけどワイの塗りが下手過ぎて塗った部分が違う意味で浮いたりするんよなぁ加筆スキルも必要やな >>847
よくある質問なんやけど fine_tune_README_ja.md にblipのキャプションは.captionて書いてあるで >>847
それぞれのドキュメントってのはそのDBのページであっとるで
でも機能いろいろ追加された時にドキュメントもかなり整理されとるな、確かに今はタグについてなんも書いてない
--caption_extension=.txtについてはtrain_README-ja.mdの中に記述があるで
それはDB+キャプション方式ってやつやな
タグ使うっていうと普通はfinetune方式の方や。こっちはfinetuneのレドメ読んでタグを先にjsonにしとく必要がある LoRAにつけるtxtについては過去スレにこんなんがあった
193 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b128-wXR/) sage 2023/02/26(日) 17:15:58.07 ID:BoU8/2/40
LoRAの学習情報がカオスすぎる件についてまとめ
LoRAは「正則化画像を使い、タグを使わないDreamBooth方式」と「タグを使い、正則化画像を使わないFine-tuning方式」があり、さらにどちらの方式でもキャプション(各画像を説明する文)を使用できる。
LoRA(DreamBooth方式)ではタグを用いた学習はできないのだが、タグをキャプションとして使うことで、擬似的にタグを使用できる。
これによって爆誕したのが「正則化画像を使いつつ、タグも使うDreamBooth方式」。LoRA_Easy_Training_Scriptsはデフォルトでtxtファイルをキャプションとして使うように設定されており、WD1.4Taggerで生成したタグファイル(.txt)をそのままキャプションとして使うことができる。 >>844
すまんな、使ったことないし使い方もわからんのや >>826
ワイも目隠れキャラ好きやからよく作るけど
うっすら眼透かすのってそういう表現もあって間違いじゃないから微妙に困るンゴねぇ
とりあえずNPにeyepatchは必須やな >>826
ワイならベタ塗り修正して
inpaintでどうにかしちゃうかもしれん パラメータ的なやつはそれぞれのpythonスクリプト *.py で
python train_db.py -h
みたいにすれば(kohyaニキが)説明書いてあるで
まとめて見たいなら
https://github.com/derrian-distro/LoRA_Easy_Training_Scripts#list-of-arguments
これをgoogle翻訳で読めばだいたいわかるで >>845
攻殻機動隊の映画にそういう有名なシーンがあるんや
機械化した脳みそをハッキングされて妻子がおると思い込まされ利用された哀れな独身清掃員が出てくるねん
今回の場合「娘とか妻とか妄想やろ!?そうやと言ってくれ…!」という自虐的なボケを孕んだレスな訳やな >>826
See eyes visible through hair をネガティブに入れてみればええんやない? 昨日のアプデ適用したらなんかモザイクとかノイズめっちゃ出るようになってもうた
他の変更も多かったんかなぁ入れ直すかぁ >>811
箱だけ変わったんか……難しい業界なんやな >>826
目隠し150枚くらい作成して50枚くらいは眼帯かアイパッチになってボツ
i2iで解像度あげたら3割くらい目やまつ毛出てきて泣いたわ
全部塗り重ねて再度i2iかけたけど 今までlora学習はeasy使わずにコマンド直打ちでやってきたけど--caption_extension=.txt記入してなかったから用意したタグtxt意味なかったんか!? >>858
多分>>845は笑い男のマークが文字化けしてるんだと思う civitaiみたらクソデカちんぽ3本ぐらいあって草 3060は諦めてSwitch買うわ🥺
今んとこcolabすら万全に使いこなせてない みんなさんがつやで!
つまりスレのみんながやってるのはtrain_README(https://github.com/kohya-ss/sd-scripts/blob/main/train_README-ja.md)
fine tuning 方式
step 1. メタデータを準備する、で.txtと.captionを.jsonに合成して、
step 2. 設定ファイルの記述、で.tomlを作成し、
fine_tune_README(https://github.com/kohya-ss/sd-scripts/blob/main/fine_tune_README_ja.md)
の学習の実行、に記載されているコマンドを実行すればいいんやな?
fine_tune.pyを実行してるから、train_network.py実行時の"--caption_extension=.txt"みたいなコマンドがなくても勝手にメタデータjsonを読み込んでくれるってことやな? ワイ直打ちで全然そんなことやってないけどちゃんとトリガーワード機能しとるよ
いやしてないかもしれへんわ、断言すんのやめとくわ そんなややこしいことしたこと無い
というかwikiにしろnoteにしろTwitterにしろlora始める手順でそんなんやれ言うてるとこある? ワイの中では直打ち民はtrain_network.pyだと思ってたで つかマルチやん discoでも同じ事聞いてる人おるし wiki読んだら従来のdb方式学習loraはtxt置くだけでええっぽいな
新しく対応したファインチューン方式の場合は--caption_extension=.txtせんといかんって事かな?その差がどうなんか気になる所やけど
>>874
自分もそれや、loraは情報が錯綜してて混乱する .tomlで設定ファイル作るのは最近のアプデで追加されたやつだからスレ民でやってる人はまだあんまいない気がする
.txtと.captionを統合するのはオプションだった気がするけどワイはめんどくさいので.txtだけ置いてやってる
統合してやったらなんか精度あがったりすんのかね としあきの.batベースやから
2.のDB方式キャプション.txtあり、正則無しでやってることになるな
1.のキャプション無し正則無しもやったことある
fine tuneはやったことない 色々設定間違えててもとりあえず教師画像さえ指定しておけばそれなりに学習するから失敗に気付きにくいんだよな
タグ設定できてるかの確認はAdditional Networksタブの右下にあるTraining infoを見るとええ tomlで設定すると40_xxxみたいなフォルダいらなくなるから多少便利ではある これ怖いのがaiがなまじ賢いせいでキャプションが全く効いてないのに気付けない可能性あることやな >>870
みんながやってるLoRAってのはtrain_nework.py使うやつや
train_networkで学習する時にtrain_db.py使うときの方式とfine_tune.py使う時の方式どっちも使えるってことや
5ch wikiではfinetuneの説明とかしてないから大半はDB方式でやっとると思うで >>879
俺のタグ学習できてないわ!😭
画像フォルダ名の〇〇 girlしか表示されてねぇ…やっぱりコマンド記入必要なんか? >>826
目関連ってムズイ気がする
前にバイザーやろうとしたけど全然だったわ >>877
よくわかってなくて、勉強がてら昨日colaboでトレーニングするのに色々試したけど、現状だとコマンドラインとtomlと設定がばらけるなーって感じに
datasets.subsets使いこなすとつよつよな気がするけど、いまだにそこまで至ってない自分 finetuneでやってるけどこれだとdatasetにjson記載されて
most frequent tagsが空になるのよね
…配布を考えると都合悪いな? >>873
kohya氏のreadmeではそう説明されてるんや、多分
>>882
つまり学習画像フォルダにTaggerで.txt作って、
train_nework.py + --caption_extension=.txtを実行しとけばとりあえず皆とやってることは同じってことやんな? easy scriptsは--caption_extensionをtxtにしてるな(使ったことない)
自分は直打ちなのに--caption_extensionを指定しないでやってた
でもこれ入れないとダメなんじゃないだろうかという気がして今は--caption_extensionに.txt指定してる
一つ問題なのは入れてなかった頃から学習はやれてたような気がすること
でもソースざっと読んだ限り勝手にそこを忖度してくれるようなコードらしきものは見つからなかった 一週間位前?から「[WinError 64]指定されたネットワーク名は使用できません」っていうエラーが頻出するようになったんだけど誰か解決法知りませんか
OSのクリーンインストールで解決せず、別パソコンに環境を作ってみても同じエラーが出た >>881
始めてLoRAに手を出したときに学習失敗してたのにプロンプトだけでそれなりのものが出せてたせいで「イケルやん!」ってなったの思い出した。 wikiよりまずkohyaニキのREADMEを読むべきや
ワイはFT式やが、webuiのkohya sd-scriptsのpreparationでmake caption→手直し→merge caption→clean caption and tags→prepare latentsしてからtrain-network.pyを実行する.batを叩いとる
なんでlatentsを事前取得するかというと、学習が高速化するからや うせやろと思ってAdditional networkで見てきたらワイの作ってきたLoRAなんもタグ認識してなくて草
"--caption_extension=.txt"を明示的に指定しなくちゃいかんのか?
.captionの統合とかLatentsのキャッシュとかはオプションだった気がするからこの辺はたぶん関係ない……気がする caption-extentionのデフォルト値は.captionや
.txtでファイル作ってるなら指定しないとダメや
で、キャプションを使うとフォルダ名(identifier class)は使用されなくなる
キャプションが読み込まれてなくてもフォルダ名がidentifier classになってれば通常のDB式になってclassに対して学習を行う
この場合、タグやキャプションは意味ない >>718
団地、めっちゃいい感じやと思う。キャラ描きにくいのは背景LoRAあるある
自分もまだめっちゃ試行錯誤してるしなかなかうまくいかんことばかりよ
コツという程のものは無いんやけど、自分が色々試してやってる事なら書いてみる
・タグ付けで付くno humansは消してみる
→キャラ描きやすくなる(出やすくなる)ことがある
・フォルダの繰り返し回数は素材の枚数に関係なく10程度にする&学習時に1~2エポックごとにセーブさせる
→繰り返し回数を押さえることでこまめにセーブさせる感じ
10Epoch程度廻して、2,4,6,8エポックのデータを試す。適度に背景を描けつつもキャラ描画や画風の影響少ないやつを採用 >>895
うわああああまた学習し直しや
loraくんが優秀すぎてタグ学習できてない事に1ヶ月も気づかなかった… >>887
たぶんその認識でええと思うでしらんけど
原神ニキなんかは正則ありのDB方式でやっとるみたいやし何を参考にしたか次第やないか
finetuneは>>891みたいな手順踏まないとあかんから面倒でワイもDB+タグや
ワイはcolor_augとrandom_crop使うっとるからlatent事前取得しとらん。
効果あるのかはわからん。雰囲気で学習しとる 学習後に last.txt っていう学習に使われたタグが
頻度順に並んだファイルが出力されるな
これが出てれば良いんか? 別に今まで問題なかったなら学習し直さなくてええやろ ぜんぜんわからない
俺たちは雰囲気でLoraをやっている >>897
「自分は初めから正則化無しDBで学習派でしたが?(すっとぼけ)」ってことにしとこう ワイのも今確認したらタグ効いてないっぽくて草
雰囲気LoRAの末路やね
これで着せ替えも他のLoRA組み合わせも効いてるんだから逆に大したもんや >>899
.txtというかタグは見てる証拠にはなるね なんも知らんでぼんやり抜いてきたけど慌てて確認したわGUIニキサンキューやで… 10-sks frogってフォルダ名ならsksがidentifier、いわゆるトリガーワードで、frogが学習するトークンや
このフォルダの中の画像は全部frogだと学習するので、カタヌキするか正則化でこの背景はfrogじゃないんですと教えてやらないと全部frogの一部だと思われてしまうわけや 目隠れ関連で皆の意見助かるわほんとなんやかんやで赤くなるまでレス来たの初めてで嬉しい >>900
弱めないと自作画風blue eyesや言うてるのにpurple eyesとかになる事が多かったんや、あと手足がグニャったり
ようやく全ての原因が分かったで ワイ初lora回し中震える
ちょうどええときにスレ見たわ なまじ40_sks 1girlとかフォルダ名指定してたせいでDB方式になってたの気がつかなかったわ
ちゃんと認識してるやつはこうなるんよな
ワイ(たち?)がやりたかったのはFinetuneだったってことか
https://i.imgur.com/TqRcff0.png >>898
サンガツ
とりあえずtrain_nework.py + --caption_extension=.txtでやってみることにするわ >>911
FineTuneでやりたいってのはなんか明確な理由があるんか? キャプション使う場合は
a girl in a sailor outfit is standing in front of the white background
とでも書いておけば白背景はwhite backgroundに吸収されるが、色んな背景の画像を用意してそれぞれに適切なタグなりキャプションを付けないと背景を分離できないんや というかeasy script使えば迷うことなくない?
あちこち情報見すぎて古い情報まで入ったせいでごちゃごちゃになっとるやろ そもそも昔に作ったやつはちゃんと作ってても情報とか何も出んで
最近作ったやつやったら知らんけど >>844
なんかエラー吐くけどマージしたモデルの一時出力はできてるみたいだから無理矢理使ってるわ
正式にモデルマージするのはMBWで問題なくできるし FTは教師画像がそこそこバリエーションないと成り立たないので、教師画像少ないならタグなしDBでええと思うで 夜勤前に6時間超えのLora学習回してから家出たのに嫌なもん見ちゃったよ
タグ学習出来てるか帰ったら確認しねえと 少女漫画ニキおるか?naiで学習してたバージョンも作ってクレメンス キャラなんかはどうやったってそれなりになるからとにかくやってみるとええで
設定詰めるより学習素材厳選したほうが結果はいい タグ、キャプション、ワード、プロンプト
猫でもわかる解説しろって言われたら何も言えない^o^ /h/のshortstack lora良さそうや
ええ感じにアニメ調で背丈小さくてムチムチしたボディになりそう >>915
wikiに書いてあるeasyの設定一覧みとるんやが、txtファイルを読み込ませるコマンドがどれなんか分からないんや。 >>925
ArgList.pyを編集するんやで
あとeasyはデフォで.txtになってるはず ワイもよくわからんでやってるがネ実で配布したプリッシュLoraはよく出来てると言われるし雰囲気でいけるいける >>921
自分が公開してるのは基本全部NAIfullで学習してる >>930
ファッ
AOM3A1以外のモデル全然あの絵にならなかった
不思議やわ >>929
わざわざ先祖返りさせるのか
顔はそんな好きじゃないけど塗りは結構好きやな >>929
発想が草 今でもpixivで散々見かけるから懐かしさは無いな いつぞやの『あわよくばエロノベルゲー作……れたら良いな』第二段
前回は「完全にキャラをloraで覚えさせる」方向性で行って「正直ちょっと面倒では?」と思ったので、今回は方向性を変えて「キャラ特徴だけ覚えさせる」目的でのみloraを使用してみた。「どうせプロンプトで生成してるキャラ顔なら、細部まで覚えさせない方が応用利くのでは?」の発想。髪はあえて学習画像を無視してsilver指定
■コイカツスクショからCN使って顔生成→LoRA化(3060(12GB)で、学習時間25分ほど)あえて汎用性重視で、タグはキャラ詳細付けたまま使用
https://i.imgur.com/NopnW4W.jpeg
■同一キャラっぽいのが生成出来ているはず(lora無しで同じプロンプトを使うと、それぞれ微妙にキャラの髪型や雰囲気が異なる)
強度0.6で使用のため、前髪の分け方がほぼ再現されていないのは残念……
https://i.imgur.com/P5mnhSa.jpeg
■エロ系になると統一感がやや怪しくなる(プロンプト増加が原因、ぎりぎり許容範囲か?)
https://i.imgur.com/yaS2kq3.jpeg
プロンプトが増えると、75の区切りが邪魔しだしてキャラ特徴&配色が崩れぎみ。プロンプトが少ない場合でもBREAKをあらかじめ数カ所おいて、キャラの容姿特徴が崩れないようにしたらもうちょっと応用可能か…‥。目の色写りもBREAKで多少は回避可能なはず…… >>934
すごいやん
でもやっぱり服装の細部が変わるのきついな >>934
エロゲもキャラモデルからCG作れば立ち絵+背景じゃなくて全部1枚絵で構成されるエロゲになるな これは一部のキャプションにpantyhoseと入れてしまった結果、dressからパンストが分離されてデフォ装備がノーパンになってしまったノエルさんや
https://i.imgur.com/PCJVfEU.jpg >>934
やっぱり普通にやると強度下げないと多様性無くなっちゃうよね >>934 のは出力未加工なので、部分的inpaint+別途『服だけLora』作って着せ替えも試す予定
多分大分マシになるとは思う
あと、古き良きエロゲならやっぱ「立ち絵」も個人的にほしいな
立ち絵は比較的作成楽なのは前回で確認済なので、現状で健全ノベルゲーなら十分いけそう
ただ、エロ気にし出すとLoRA強度全然上げれない
体位の多様性どころかちんこ入れてくれない過ぎて困る
この辺は使うモデルの影響も大きいんやろうな…… 少女漫画Loraでくそ下品なポーズさせるの最高やな
金玉いくつあっても足りんわ 二人キャラで個別にポーズとか指定する方法はないんけ Lora覚えてシコりまくってたらこんな時間だよ
しごとやーの >>941
loraって上がってる?
りぼん顔ニキの上げてくれるの待ってたんやが‥ LoRA_Easy_Training_Scriptsでpopup民のワイ低みの見物 >>946
おおお、見落としていたサンガツ!
今lora見てたら無敵看板娘とかマイナーなのあって嬉しい
作者も喜んでいるだろう
昔の作品がこういう形で日の目を見るの面白いな NAIなっつと思ったがこれも確か半年経ってへんのよな
草創期なのもあってスピードやばいでほんま イージー、ポップアップ、としbat、ニキのGUI
これ使ってるならデフォがタグ指定になってるはずなんやが
何使ってたん? おまるLoRAの作成に挑戦してみましたがかなり高い確率で女の子が便器の中に足を突っ込みたがるハードプレイに目覚めてしまうという悲しい結果に終わりました
https://i.imgur.com/hkJtBer.jpg 顔に変化を与える地味Lora2つ
顎周りの丸み
https://i.imgur.com/rHiFT2T.jpg
顔年齢
https://i.imgur.com/8NkiJNv.jpg
効果が不安定なんで、今んとこ上げるつもりないけど、どーかなこういうの?
需要次第ではもうちっと学習試して改善が出来たら上げようかなって感じ >>953
本当は頭身の低い絵柄や性同意年齢に既に達したくらい女の子の画像が欲しいだけのにやむを得ず普段からfemale child, 4 year oldとか入れている身として頭丸くしたりデカくしたりは欲しいなあと常々思ってる >>953
ワイには需要あるな
ニキのいうとこのaddnet-2.0の目の大きさが一番すこなんや 頭身の低い女の子の画像が欲しいからやむを得ずスモック着せておまるに跨がらせている みんな凄いな
俺はmajinaiでケツからパスタの影響でマンコからパスタを捻り出す女を出力しているのに・・・
gapeのマージモデルだとスカトロの影響で思った以上に股から出してくれる感じだ
画像生成してると性癖が増えて困る ずっととしbatで赤ちゃんしてたせいでlycorisの使い方が全然わからん 実はmajinaiは破綻への道が見えてるからちちぷいとかに移行したほうがええかもしれん
投稿されてる全ての画像IDを全て読み込むトンデモ設計になってるから画像が増えるとメモリリークして閲覧ブラウザが死ぬ >>961
まあ現状は全IDで11KBだし10年くらいは大丈夫じゃない? おまるは俺の性癖とは少し違うから分からない世界だが
きもちええ青空の下に設置してあるの見るだけで笑ってしまうわ >>965
カメラ目線でフィストぶっこまれて泣きそうなんかグラス掴む余裕あるんか
左は白目剥いてるし
カオスすぎて草や 青空の元。公園のスプリング遊具とか三輪車もええな
妄想が暴走してきて こまる >>970
間違いなく神だとわかるんだが使いこなせる気がしない >>970
凄そうだな
もう寝るから試せないが、起きたらノウハウが溜まっている事だろう‥ >>970
これ精度やばそうだな
ところでこのサンプルどのモデルだろう >>970
ガチで神拡張やん
これ特に複数人出す時に良くないか?
色移りのオンパレードやったからガチで範囲固定できるなら相当イラストの幅広がるでこれ >>970
きたか…!!
( ゚д゚ ) ガタッ
.r ヾ
__|_| / ̄ ̄ ̄/_
\/ / 色の話しか書いてないけど色だけなん?
どんなプロンプトも侵食しないなら最高だが >>970
混ざるのは気になってたんだよね
同じ顔とかも防げるのか ガチで神やんけ…
色移りにはほんま悩まされたからな 色移りやダブル爆乳化とかそういうの防げるな
Loraとかの学習版権複数出しとかは意味ないねこれ これで完璧に治る訳じゃなかったけど打率上がるから入れておいて損はないな
別入力欄に色要素を入れてあげないといけないけど これ乳輪はでかくしたいけど爆乳にはしたくない時に使えないかな タマありフタナリとタマなしフタナリを仲良く合体させたりできたとしたらこれもうノーベル平和賞やで とりあえずsd-scriptsでコマンドプロンプトから直打ちする際に--caption_extension=.txtの引数を加えることでAdditionalNetworkのTrainInfoにタグが表示されることは確認できた
品質もタグを正常によんでる方がよい気がする。とりあえずメシウマ案件やな
https://i.imgur.com/EF63XGF.png >>970
うーん、、いうて混ざるな。使い方が悪いんかな >>990
とりあえずメシウマの意味が分かってないことは分かった このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 2日 2時間 57分 10秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。