なんJNVA部★193
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
避難所 なんJNVA部★防弾U
http://sannan.nl/test/read.cgi/liveuranus/1679606639/
※前スレ
なんJNVA部★192
https://fate.5ch.net/test/read.cgi/liveuranus/1682266762/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 1スレ目というとまだネットミームにティーダのチンポの余韻が残っていた頃やな >>899
テストしてた時のblockweightがどっか行ったり、テストしてるloraが実は別のバージョンだったり
落とし穴多すぎて草生えるんよ
仕事の時みたいにチェックリストで管理したほうがいいんだろうけど流石に嫌ンゴ ワイ群衆ガイジ、ちちぷいでデイリー1位をとってしまう >>902
階層系とかメタデータすら残って無さそう
見失ったら極端な設定でもない限り再現不能待ったなし >>811
ありがとうございますニキ!
バレリーナにするといい感じの顔になるので入れてました。
取ってやってみます! キュートペニスも悪くないけど、
着衣時の膨らみ具合はwikiにあったbulgeプロンプトもええなと思った
脱衣時はキュートペニス、着衣時はbulgeのふわふわもっこり具合の使い分けでいくで スカートの上からバキバキに勃起した形状が伺えるのみが良いかと思いまする >>908
SDの弱点だから仕方が無い
i2iや手修正で直していくしかない >>908
これを簡単に解決した話は聞いたことないなー
原理上仕方ないとはいえなんとかならんかねえ こういうのは雑コラ法が効きそう
A:写真→i2i
B:キャラクターだけt2iで作る→背景切り抜く
Aの上にB載せて薄目にi2i
Bは3Dキャラからのi2iでもいい multidiffusionの領域していで背景と人物分ければなんとかならんやろか Comfyuiで背景とキャラ別々に出力してくっつけるやり方になるんじゃないか 赤ちゃん質問、既出かもしれんのでスマンやけど、
モデルのverが上がると絵のタッチは変わるのは当たり前やけど、プロンプトの効きも基本よくなってるもんなの?
プロンプトの効きというより調整して学習し直してるのかな
モデルのverが上がって容量が減ってると何か削ったのかなと思ってなかなか切換えに踏み切れないんや 和彫りのLora作ってみたが絵柄が複雑過ぎて反映されてもグッチャグチャ>< >>904
昨夜の検証の続きすっか…でpng infoからt2iに送って生成した時に全然違うの出てファッ!?をワイはあと何回繰り返せば気が済むのか
blockweightの設定が画像データに残らんのがね… サンガツ、やっぱりt2iだけじゃ無理か
赤ちゃんなりに頑張って試してみるで
とりあえずネガに(non-ground background lines:2)とか訳分からん文を入れるのはもう終わりや >>915
効きはむしろ悪くなることが多い気がする
そのぶん安定したクオリティが出る、と 昨日civitaiで消されそうやなってサンプル置いてるモデルがもう消されてた >>919
サンゲツ
any3ではプロンプトだとほぼ無理な絵が4.5とかだと出たりするし、万能なのは無いって感じなのかな >>921
any4.5は作者違うから関係ないで
容量はただの刈り込みで、それが一般化する前の古いのは面倒でやってないってことかと
去年のファイルとかみんな大きい すまんやがcutepenisてどこにあるんや……?
duckduckgoで cutepenis.safetensor いれても見つからへんのよ…… >>920
ちなみになんてやつやろ?名前教えてくれると助かる
anyシリーズは4,5だけDLしてるけど
anyの質感が好きなんで5もダウンロードしたほうがええにゃろか Any 5は3の後継で4.5の質感を期待するとガッカリする
4.5は特異点的な謎モデル >>926
まさかobasan LoRAと一緒にあるとは…
このダマラム一生の不覚!
サンガッツやで・・・ >>927
そうなんやサンガツ
とあるLoraのサンプルでani4.5が使われとって、他のmodelやと全然その質感が再現できひんかったのが
any4.5やとドンピシャやったんが印象的やわ Loraはモデルとの差異をLora側に寄せるから元のモデルが違うならまた違う動きになるよ >>932
画像に登録したタグを使って指定されたモデルで出力してみて、教師画像との違いを学習していくって理解している
だからモデルが最初から近すぎると何も学習しないし、遠すぎても狙った要素を学習しない
だからリークモデルとか元祖に近いものが良いとされる ちびたいのdiscoにbotの新着通知あるから画像くらいは見れる
>>934 >>915
この界隈で恐ろしいのがバージョン上がったからと言って上位互換とは限らない
むしろ、初期バージョンの方が安定するとか最新版は過学習気味とか往々にしてある
流石にautomatic1111や拡張機能等のソフト面は違うけど 昨日だかもNAIちゃんのプロンプトの言うこと聞きっぷりに感動とか言われてたしな NAIで効いてたプロンプトを好きなモデルの絵柄で出すためにLoRA当てたりするからな stable-diffusion-webuiインストールするのに
pythonとgitをインストールするやり方と簡易インストール版みたいなpythonインストール無し
でセットアップする方法あるけど、やっぱりやり込むならちゃんとpythonとgitをインストール
するやり方の方が良かったりしますか? >>940
どれだけやりこむかなんてわからんのやからとりあえず一番楽なやつでやっとけ >>939
米企業は利上げで総崩れしてるだけやからまだセーフ
完璧な三面図が出せるようになったらモデラーに依頼してVRM作ってもらう予定なんや https://jisakuhibi.jp/news/nvidia-rtx-4000-sff-ada
「NVIDIA RTX 4000 SFF Ada」の仕様
GPU: NNVIDIA RTX 4000 SFF Ada (CUDAコア数:6144)
VRAM: 20GB GDDR6 (ECC対応) >>936
初めて触ったのがany3だったので、まだ出て思い出って感じじゃないけど、any3はイラストと絶妙な立体感が好き
ただエロは出しにくいな、nsfw版とかあったのか分からないけど、それくらい赤ちゃんで触ってたわ
>>940
pythonもgitも入れた方が楽だよ
というよりpythonのライブラリを使って動いているので、pythonのインスコ無しってのはどういうのか分からない
gitもポチポチで入るから楽だよ >>940
学習方法然り何するにも基本とされるやり方が一番良い
ユーザーが多ければトラブル対処もしやすい >>943
VRAMほしいけどパワー不要ならこれ一択なんかな? noteのインストーラー使ったらvaeが認識しなくて
普通にgitとPython使ったら使えるようになったな >>943
皮ジャン4090以外は売る気ないかと思ってたけど、いいの出すやん
値段次第だけどw loraかなりの確率でエラーでるんだが
Vram8GBじゃやっぱきついのかな
cuda out of memoryってことはそういうことよな
50枚のloraもつくれないのか8GBじゃあ >>951
設定詰めるしかないな
省メモリとか解像度とか色々すればvram6GB以下に出来たはず
拡張機能でなくsd-scripts単体だけで動かせば行ける >>951
AdamW8bit
gradient checkpoint
batchsize=1 or 2
あたりは? >>943
寸法169mmのTDP70W……? 値段次第ではケース狭い民の救いになりそうやが >>951
もし本当に解決したいのなら学習のオプションをスクショなりテキストなりで丸ごと載せるしかないで
探り合いしても時間が無駄になるだけや ケース狭い民じゃないなら4080・4090・3090中古でいいってことになりそうだなあ 4090で快適なAI生成したいと思ってBTO覗いてみたけどカスタマイズ込みで見積90万超えてしまった
欲しいけど高いよ
分割で買うか迷う所だわ >>943
確か処理速度は3070並みとかいう話だったとおもうし、それで20万越えなら4080で良いかな感は否定出来ない
まぁ夏場には優しいワッパなのはすてきだが 業務用やから下手したら20万とかするかもわからん
そもそもTGP70Wとかじゃ演算速度遅くてしゃーないやろ
70WじゃAdaとはいえほぼ間違いなく3060より遅い データセンターには良いんだろうが個人なら4090の方がいい >>959
自作抵抗無いなら4090を26万から計算してみたらどうや >>959
カスタマイズするなら自作でいいよ
旧ryzen5000クラスでGPU以外10万以内+4090の24万でええやろ 正直AI画像生成特化だけなら、50万ベースで十分組めそうには思えるけどな
よく4090はcpuボトルネックとは聞くけど、逆を言えばcpuのボトルネックさえクリアできたら、あとは適当にRAM64GBぐらい積んでストレージ気にするぐらいに思える 40~45万くらいでいけるんじゃね?
ただその金額を払えるかは別問題
自分は3060を5万で買うかどうか決断するのに半年かけたからな >>940
どっちでもいいけど、pythonとgitくらいインスコしても罰は当たらないぞ、めちゃ簡単だし
俺は最初不要版で入れたけど、なんかエラーや変なことがあるたびにこれのせいじゃないかと思ったり(多分違う)、今後もAI業界に触れていきたいという思いからインスコし直した >>969
顔だけ勝手にディティール修正してくれるってことか 俺が今買おうかと悩んでるのは色々いじって4090のCPU13700kでm2の1TB(Cドライブ)と2TB2個積んでメモリDDR5の64GBで55万円だなー ワイも最初仮想環境最強でしょwとか思いながらdocker版入れたけど結局生環境に入れ直したわ
やっぱ"生"が一番やぞ AI目的ならCPUはいくらでも削れるでしょ
逆に90万の構成が気になるわ 学習あんまやらんからわからんけど推論では確かにCPU全然使ってねーな AIしかやらんわけでもないだろうからある程度のもん載せるに超したことはないやろけど
ミドルレンジのでええとは思う わかる
やっぱり"生"がいい
まあwslじゃなくlinuxホストのdockerなら生でも包まれてても体感的な差は無いとは思うけど ミドル~ミドルハイくらい積んでおけばゲームでも苦労せんしね radeonなら24GBが16万やで
AI方面に対応してくれたらなぁ… モデルマージとかやりまくるのであればSuperMergerでメモリ上にモデル置いたりしたいから
16GBじゃ心もとないから32GBくらいほしいなとか、
モデル読み書きを早く終わらせるためにSSDはNVME必須とか
CPUよりもそっちのが重要な気がする しかしLinuxにしちゃうとゲームやりたくなったらいちいちデュアルブートですか?ってのがダルい…
H100とかより手軽に手出し出来る民間用のai特化が欲しい
レイトレ様チップとか全く無くてcudaコアとvramだけに全特化したやつ >>982
対応してないから安い、という見方もあるかもしれなくもなくはない 今もメモリ安いし最初から64GB積んでもいいかもね
CPUは3万くらいのでいいよ GWの為に自分の出来る限りのローカル環境は準備した
あとはひたすら生成するのみ……‥っ! 4090は自分には高すぎるから3090使ってるけど、loraとかモリモリするとやっぱ生成に時間かかるけど、割り切ってるわ
問題はアツアツになりすぎる事だ
TDP70%にしてるけど、それでもあつあつ
4090とかは50度もいかないって聞いた 自作やった事ないから自作不安なんですよね
後で拡張とかを少なくする為に盛りに盛ったからかもしれない 自作でマザボの差し込み口が、物理的に外れたときの「ざわざわっ」感はスリリングで楽しいぞ!(なお、もう二度と体感したくない模様 ワイもBTOで頼んでメモリぐらいは変えた事があっただけだけど、SDにハマってもうケース以外は変えた
以外と雑にやっても壊れないよ、動かない時はあるけど メモリはかなり食ってるよね
グラボのメモリパンパンにするぐらいなんだから当然なんだけど
グラボの2倍はメモリ用意したいところ >>983
NVMeにモデル置くのは切り替え頻繁にするときはホント効果実感するわ
ほとんど10秒以内、大体は数秒で読めて快適すぎる
>>988
買うなら早めにやな 言われてみるとメモリ32GBだと不安になってきたなあ
フォトショとかも他に起動しているし >>990
パワリミ70%だと生成途中エラー出ない?
自分は75~80%にしてる >>997
すまん、分かってる風に書いたけど、TDPじゃなくてパワーリミットってのを70にしてる
これがTDPかはしらない・・・
結構真っ黒でるのはこのせいなんかな レス数が1000を超えています。これ以上書き込みはできません。