なんJNVA部★117
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★116
https://fate.5ch.net/test/read.cgi/liveuranus/1671621193/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>441
anything+gapeでもchildとかbadyで子供召喚してくるで 初音ミクの何がすごいって、リアル調でも成立するところ
多分いろんな人に描かれすぎて、これといった顔がないからなんだと思う
(髪型さえ合っていれば初音ミクと認識してしまう)
https://i.imgur.com/ksXTRkN.png
涼宮ハルヒと御坂美琴は相当ガチャって雰囲気似てるの出てきたけど、
ミク先輩ほどピッタリ感が出せない
多分しっかりとしたキャラデのイメージを持っちゃってるから「似てる」と思えないんだと思う
https://i.imgur.com/MZ6rZ3k.png
https://i.imgur.com/eFIcgjj.png >>445
マージモデル?
マージしてコスプレ逆輸入は面白そうやな >>445
顔ばっか見ててハルヒの服が和服なのに気づいてなかった
何か勝手に外人さん風にされちゃうからjapaneseって入れてたせいだ
でもjapanese入れても和服着るだけで全然日本人になってくれん
ガチャリまくってたらいくつか日本風の出たけど、やっぱ日本風の顔のが似るな
https://i.imgur.com/fbatJeE.png
https://i.imgur.com/Hh7SQuD.png
>>446
モデルAに0.5 insta wd1.3でマージをしたモデル、
モデルBにNAI NSFWで、
base_alpha 0 1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0,0,0,0,0,0 >>333
DPM adaptiveは過去スレでもあまり言及されてなかったから知らない人多そうなので補完しておくとこれは「収束して絵柄が代わらなくなるまで延々1steps内で続ける」スケジューラ
つまり1stepsで終わるけど1stepsがめっちゃ時間がかかる
2steps以上はやっても意味がない >>447
インスタはアジアン括りぐらいまでしか認識してくれん気がする前触ったときjapanese効果誤差レベルで良くわからなかったな
ネガにアジアン入れて洋物だしてたは >>442
おかしいの内容がわからんけど手持ちのやつはこんな感じゾ
▼Hash(SHA256)
- BloodNightOrangeMix.ckpt
f8aff727ba3da0358815b1766ed232fd1ef9682ad165067cac76e576d19689e0
- BloodOrangeMix_half.ckpt
b2168aaa59fa91229b8add21f140ac9271773fe88a387276f3f0c7d70f726a83
- BloodOrangeMix.ckpt
25cece3fe303ea8e3ad40c3dca788406dbd921bcf3aa8e3d1c7c5ac81f208a4f >>445
三次、二次、SD、ダヨー
なんでも違和感なさすぎてしゅごいでミクさん 差分マージでAとCに同じモデルを設定するとBの出力と全く同じになるのはなんでや……
実は A+(B-C) じゃなくて (A-C)+B だったなんてことはないよなソースコードを見ればわかるだろうし あーわかったAとCが同じだとWeighted sumモードになるのか いや違うわ
A=モデル1 B=モデル2 C=モデル1とモデル2をWeighted Sum0.05したモデル(Aとほぼ同じ)
これをAdd Difference1するとBとほぼ同じ出力になる
Add Difference0.5だとAとBのWeighted Sum0.5とほぼ同じ
これ単にAとBを設定した倍率でWeighted Sumした後にCを引いてるだけなのでは ttps://mega.nz/file/GVRTQJKI#Y5Bn826c_H6O4o9r9GT474Sa_AEhuqfX5Wvw5fGrDC0
クリスマスやし今日いっぱい枕元にこれ置いとくわ絵柄DB2つを階層マージで混ぜて軽めのDBとNAIで更に階層マージして少しだけ過学習抜きしたモデルや
スパゲッティコードみたいになっとるから呼び出し方は適宜変えてくれ・・・普通に使うとおっさんとかは出ん
あと塗りとかが気に食わん場合は付属のHN(呼び出しプロンプト無し)を薄っすらかけると補強できるかもしれんな
拡大する場合は過学習しとる関係上ハイレゾはほぼ必須や
https://i.imgur.com/OETKVK1.png
https://i.imgur.com/OkujSyk.png
ほな・・・ わかったわ
>加重合計:Weighted sumのとき
>A*(1-M)+B*Mです
>
>差分:Add Differenceのとき
>A+((B-C)*M)です。
Wikiのこれは下の方が間違っていて正しくはこうや
A*(1-M)+(B-C)*M
A=モデル1 B=モデル1 C=モデル2
だからこれで倍率1のAdd Defferenceすれば1から2を引いたモデルを得られるで
半分だけ引きたい場合は0.5にすればええんや いや>>460も違うわこれだとA+B+Cで倍率1のAdd Defferenceした時にAの要素が全く入らないことになるやん
もうわからん >>433
もう一人の子のポンポンの位置までジャンプしたんだろw メスガキ危機一髪(グロ注意)
https://i.imgur.com/rlrYjBM.png
体型を維持して拘束具などを付けるの1ヶ月前に比べて大分安定してできるようになった マージってもしかして重複する要素は無視されるんか?
重複する要素は強くなると勝手に思ってたんだが無視されるなら辻褄が合うわ 134やけど一応だれかモデル要る?
ほぼアビスオレンジと同じだけどちょっとだけ116スレ754に寄せてあって
i2iしたときに質感がそのまま出しやすくなってるバージョン
研究:
インスタを優先するとNAIブロンプトが効きづらく、解像度を上げたときに1Girlとかが破綻して大量のキャラが出るとかが起こりやすい
逆にNAIブロンプトを強く効くようにするとi2iの時にNAI(とエニシング)が優先されて質感が悪くなる
結果:
ギリギリ両方成り立つ真ん中のラインで出す サンタさんワラワラでワロタ
クリスマスもええもんやな 名付けてabyss_7th_layerモデル
https://63.gigafile.nu/0101-g464cd14712603de668ae14ff053322f4
ちなi2i以外のタイミングだとほとんどアビスオレンジと変わらん
あとインスタを優先した副次効果でほんの少しだけマジで気のせいレベルで指が破綻しづらい
t2iで一回出したあとi2iでメチャクチャ詰めた勝負をする奴用や 作った絵にAI生成マーク貼り付け強制の動きあるらしくて不安になるわ
そんなもん付いてたら売り物にならんやんけ… リアル系モデルのPFG探しても見つからん…誰か教えてクレメンス 久々dreamboothアプデしたんやけどなんか処理時間早くなってるやん、いつからやろ? 普通に使う場合はAbyssOrangeMix_base.ckptでええんかな
使い分けがよく分からん >>472
サンガツや!こうやってみんなでモデル共有しまくれば叡智の結晶ができるはずや。
ザーメン品質向上部の実験やが、絵師のPSDファイルから抽出した高品質な透過汁素材20枚で10000ステップHNした結果、完全に無意味やったわ。
やっぱ色味とか透明度とか維持されんのやな・・・。どうにかして素材の味を生かして呪文一つでベットベトにしたいんや。誰か知恵貸してくれやで。
素材 https://i.imgur.com/rgHvkKB.png
HN https://i.imgur.com/ExP5AhT.png (強度は0.3.これを超えると汁の滝ができる)
なし https://i.imgur.com/ghkxBlL.png >>477
BaseはAnyにインスタをマージしただけ
乳首やマンコは出せない、もしくは描き込みが薄くなるのでSafe For Work用
NightはそれにNAIのNSFW要素だけ足した奴、乳首やチンポが描かれるようになる
無印はそれにGapeを混ぜたもの、アナルやマンコやチンポがエグくなる
halfはGapeの成分を半分にしてエグくなりすぎないようにしたもの ACertainThingにインスタを階層マージしても全然良いものにならんな >>459
一生初期化中なんだけどダウンロードできた人いる? >>472
指がワイの階層マージモデルよりかなり改善されてるわ
差し支えなければレシピを知りたい
7th layerの重みを替えるんか? ヤマノケ(深夜に現れる、女体にとりつく、憑依に成功するとニタニタ笑いながらハイレタ連呼する)
ワイ(深夜に現れる、女体画像を生成する、paperspaceでいいGPUが借りれるとニタニタ笑いながらハイレタ連呼する) >>462
A*(1-M)+(B-C)*Mが正しいはずや
中身は各重みを加重平均しとるだけやけど大きさが合わん箇所は大きい方のモデルのをそのまま使っとるからM=1でもモデルAの成分が残る場合がある
長文書いたんやが全部消えたから今から書き直すで https://majinai.art/i/EqfIyrX.png
AbyssOrangeでもたまたま線の太い描画出たんやけど
絵柄をこちらに寄せるいいプロンプト無いかな >>488
ネガプロに3D入れて強弱変えてみるとか? HNって作成する時にモデル選んだりしないけど、学習にモデルは関係ないん? >>487
続き↓はあくまでも超単純化した例
A=[1,2,3,4,5]; B=[2,3,5,7]; C=[1,1,2]; M=0.3 の場合
A*(1-M)+(B-C)*M
=[1,2,3,4,5]*0.7+([2,3,5,7]-[1,1,2])*0.3
=[1,2,3,4,5]*0.7+[1,2,3,7]*0.3
=[0.7,1.4,2.1,2.8,3.5]+[0.3,0.6,0.9,2.1]
=[1,2,3,4.9,3.5]
間違ってるとこあったらすまんな A+((B-C)*M)
これで正しいよ 実装されてるコード上は
実際どう動いてるかは神のみぞ知る safetensorsって新しいファイル形式なのか
ckptに名前変えても使えなかったわ
auto1111アップデートしてくる なんか見抜きさせてくれるとのことでせっかくだから二刀流で挑むことにした
https://i.imgur.com/5xIsc6D.jpg
>>490
有るとも無いとも言える
学習用素材と生成結果の差分を保存していくから素材とそのタグによって産まれる画像の差が小さい程スムーズに学習は進む
学習後はどんなモデルの場合だろうとその差分を絵全体に適用しようとする
学習に使ったモデルと元のモデルが違っててもある程度ちゃんと反映される
でもやっぱり限度はあってあまりに元と画風が違うと肌を服の色にしようとしたりする
なるべく元のモデルで使う方が良いが、ちょっと違うだけのモデルなら気にしなくてもいいとも言えるし、結構違うモデルだとしてもよっぽどじゃなきゃ案外行けるとも言える ドヤ顔で書いたけど違ったんか恥ずかしいわ
本家のはどこにあるか分からんかったからmerge-block-weightedの方を見たんやが
読み直したらbase_alphaの計算やったわ忘れてくれ >>492
それだとA・B・AでDiffすればBに含まれているAの要素が抜けてAに差分だけ加えられることになるやん?
でもそうはならなかったんよ……
A・B・A の Diff1 = B
A・B・A の Diff0.5 = A+BのSum0.5
1番目と3番目が同じモデルだと勝手に動作が変わるのかと思って3番めに僅かに変更を加えても同じ結果でもーわからん
>>495
☺ >>485
ものすごいアレな話やけど
一回マージしたモデルをもう一回逆のレシピで戻すと「ものすごく似てるけどちょっと違うモデル」が出来る
それはちょっとだけ性質が違うんで確かそれを素材にしてると思う(違ったかもしれん)
あまりにも深遠すぎる話なんでアビス深界七層から取ってabyss 7th layerや あとAbyss系モデル(ハッシュffa7b160のモデル)はHNでちょっとでも深く学習させるとリアル寄りにしようとし過ぎてメチャクチャ気持ち悪い事になるから
NAIでほんの少し学習させて持ち込んだほうがいい結果出たで マージモデルのデフォルト名はA*(1-M)+B*Mになっとるのって不具合なんやろか
今から寝るわ お騒がせした ちょうど >>472 の
> t2iで一回出したあとi2iでメチャクチャ詰めた勝負をする奴用や
みたいな使い方のイメージで高解像度i2iするときのモデルにええもんないかなと xxxOrangeMixを出し比べてみたやが、元絵によってはノイズが乗るなぁ
なんでなんやろ? 元絵がめっちゃ荒れててもええ具合によろしくやってくれるモデルと不得意なモデルとがあったりするんやろか
>>472 のモデルも試してみようかの
元絵 https://i.imgur.com/gQgUOOs.png https://i.imgur.com/DCgOICh.png https://i.imgur.com/utvUiNz.png
i2i後 左から https://seesaawiki.jp/nai_ch/d/%b3%ac%c1%d8%a5%de%a1%bc%a5%b8#content_6 で作ったモデル、ElyOrangeMix, BloodOrangeMix, AbyssOrangeMix
https://i.imgur.com/AJXkvqd.jpg https://i.imgur.com/IBh8VQO.jpg https://i.imgur.com/7lpSiUz.jpg (denoising strength = 0.6) https://i.imgur.com/XaQjWkE.jpg (denoising strength = 0.7) >>495
>>496
人様のノートを張り付けるのもあれやけどちょっと触れられてるで
ttps://note.com/bbcmc/n/n2d4765b4bd47
実装されてるコードはあくまでもA+((B-C)*M)
ただこの通りに動作してないのも明白で、どう作用してるかを人間は理解していない状態や >>445
画像生成して気がついたけど
ワイらが同一人物だと認識するにあたって
髪型と髪色の影響がかなり強いんやな >>501
つまり俺たちは雰囲気でマージをやっているを地で行くしかないんか😭 なんとなくかけ合わせてなんとなくいいのが出たら保存するとかいう
AI使ってとんでもないアナログ作業をしているワイ達 それはAIを使うのが嗜好の偏りを持つ人間である以上仕方のない作業なんや >>496
A+((B-C)*M)と
A+(B-A)*1=B
A+(B-A)*0.5=A+B*0.5-A*0.5=A*0.5+B*0.5に矛盾は無い気がする >>502
それは記号化に成功している場合は顕著やな
有名キャラクターってのがいかに記号化が巧いかって事でもある
格ゲーなんかでも同じ名称と外見のキャラが何十年にもわたって何十作と出ていたりするが、
よく見ると作品ごとに細部がかなり違ってたりする
それでもユーザーは明確に「同じキャラ」と認識するんだから、記号化による人間の認識力への影響ってのは面白い >>507
見抜きシチュのチンポはどうやって出した?ワイもやろうとしてるんだが、すぐ手コキになったり手からチンポ生えたりするんよな。 科学の基礎研究ってこんな感じなんやろなぁ…
こっちは科学者様と違って欲にまみれてるけど >>506
あれ?ほんまやん
そうか引かれた結果は0じゃなくてマイナスになるんか…… サンタさんのabyssのお陰でワイの好きな画風と塗りが出来たわ
https://i.imgur.com/JiJm0zK.jpg >>509
レス番間違えたわ。すまん。
>>494
見抜きシチュのチンポはどうやって出した?ワイもやろうとしてるんだが、すぐ手コキになったり手からチンポ生えたりするんよな。 >>497
なるほど
アビスについて詳しくなくて申し訳ない マージモデルにはカッコいい名前付けなあかんのか
ならワイのAnyNaiにdanbooruタグの効くインスタ2とDreamlikeを階層マージしたモデルは”El†Diablo~漆黒の悪魔~"って名乗るわ
https://i.imgur.com/NptulYJ.png
https://i.imgur.com/X9Lyn2h.png
https://i.imgur.com/mPJLXyG.png DBでInstance promptに強調って使えないん?
prompt複数設定したら独自の単語だけだと一切特徴出なくて
試しに()で強調して見たんだけど結果変わらず
学習時のprompt入れればちゃんと学習したキャラでてくるから学習出来てない訳ではないはずなんやけど >>514
全く関係ないパイズリのプロンプトで偶然出たものだから再現性皆無や wikiのHNにある
「Gradient蓄積ステップは4または8を設定します。この設定は学習がやや遅くなる欠点の代わりにVRAMの消費を抑える効果があります。
Steps for cycleの値は「学習素材数 ÷ Gradient蓄積ステップ」した値を10倍にした数値を入力します。端数は切り捨てです。」
を設定すると確実に「Applying xformers cross attention optimization.」と出て学習が止まるんやが。
これむしろVRAM消費上がってるんやないやろか。 別スレあるからそこで盛り上がってるんちゃう?知らんけど 本家NAIはUの別スレでほそぼそとやってるスレあるよ クッソ初歩的なことかもしれへんが誰か教えてや
インスタのver. 2が. safetensorって拡張子になっとるんやがこれはこのまま. ckptと同じように使ってええんか? >>514
見抜きとか見せ槍はあらかじめチンポ画像だけ用意していい感じの絵ができてからチンポだけ入れるi2iが基本らしいで
いろんな絵にチンポ入れるために自分のチンポ自撮りしまくってるニキもかつてスレにいた >>522
100日に設定してあるからこの進化速度で3か月後まで使ってるとは思えんけどええで >>528
ええけどSD側アプデしてからやないと認識せんで >>528
問題ない。
もし認識しないようならソフトが古すぎるのでいい加減に更新すべきってことで。
マージとかの生成結果ももう全部safetensorにしてるわ。 ローカルやるにあたってグラボ変えたいんやが3060と3090って全然レベル変わるんか? >>531
>>532
サンガツ!
導入したの最近やから一応最新やとは思うが認識しなかったらアプデするわ >>472
サンキューゴッドサンタ👍
あんたがNo.1指神だ >>534
生成時間も学習時間も全然違う。
得られる結果が変わるのは12GBで足りない処理だけ。 ■ このスレッドは過去ログ倉庫に格納されています