なんJNVA部★138
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512 !extend::vvvvv:1000:512 !extend::vvvvv:1000:512 よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/ danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups ここの画像を勝手に転載するのは無能のやることやで スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな ※前スレ なんJNVA部★137 https://fate.5ch.net/test/read.cgi/liveuranus/1674660572/ VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>663 おお、ゴミ捨て場同好会の同志やん 可哀想はヌケる アップスケールの倍率が高いほど 元のショボい絵からガンガン余計なもん書き込んでくるから 人物がたくさんいる絵を作るには面白いんや しかし明瞭な画質を得るにはストレングスを0.75か0.8くらいにせないかんので元絵と全く違う完全なガチャになるのがつらいとこや 最近クラウド環境で復帰したけど 月1000円くらい払えばA4000で生成しまくれてええな >>778 その「変な物」が割と目当てというか 装飾盛り盛りに転化してくれるっぽいから 顏が増えたりもするけど呪文がゴテゴテに金ピカ指定だからか多くの場合顏の増殖よりも服とか宝石などの装飾が増殖してくれてる 装飾が素晴らしく繊細かつやたら華美になってくれてすげえ嬉しいんだけど、引き換えに目まで華美になって破綻しまくる・・・ >>782 やってみたら1536*2048が4分弱になったわ でも描き込みの質は低下するかな? 時間がかかるやり方だと細部までぼやけはなかったけど今回は結構突発的なぼやけや滲みっぽいのがある そしてデスピサロになった・・・😢 >>786 多分モデルの差かもな NAIしか使ってないんか? >>786 もしかしてwebnaiで金ピカ姫画像生成してたニキかな latentでキャラクローズアップした絵を拡大するとデスピサロ化しやすいよな latentは描き込みが魅力ではあるけど破綻率が許容外だからワイはそれ以外でhighresしてる 正則化画像については昨夜以降はみんな使うのを試しとる感じなんやろか 学習用素材の10倍をランダムに作るってのが、普段やらんことなのでおっかなびっくりになっとる 正則化画像の質や内容も学習に大きく影響しそうで >>787 直近ではNAIばかり 最初に導入したのはブラッドオレンジとエルダーオレンジ バジルとアビスも入れたけどこれらは呪文を長くしたら上手くいかないようなのでNAIちゃんに戻ってきたような形 体中を装飾品で派手にしまくるのに向いてるモデルってのが他にあれば教えていただきたいマジで majinai見てもhuggingface漁ってもスッキリ落ち着いた絵が好まれるっぽいから自分の趣向が異端なのかなって思ってるけど同志はいると信じてる 版権物の再現に全く興味がわかないのもローカルに手を出した中では異端かねえ >>792 協力したるから まずは直近の絵を見せるんや Dreambooth extention消したけどあれの前処理ツール有能だったからまた入れた方がいいかもしれん >>718 回線繋がってないんちゃうの? 他にファイアーフォールで弾いてるとそうなる ワイは結局ケーブル買ってくる以外に改善方法わからんかったわ 起動するんやからオフラインでも起動してもええと思うんやけどな 前やったときはxformersもDreamboothもあかんかった >>795 やっぱりかwwwww あまりに個性的過ぎるからよく覚えとるで ローカル導入したんやな、おめでとや >>795 取り敢えず目がおかしくなるのとリアルな歯が生えるのはアニメ絵にRestore faces(顔修復)にチェック入れてる時の症状やで >>795 個性的でええな abyss orangemix2 nsfwか anything v4.5 あたりにアジャストしたらええかも プロンプトをモデルに適応させるんや サンプラーはDDIMでステップ20-40 あたりがええかもな 宝石系盛るのはモデルよりもサンプラーとハイレゾの影響が大きいで あとrealistic:0.8くらいかけてもええかも まあまあマシなの出来た https://i.imgur.com/k3thiTJ.jpg こっちはwebNAIちゃんで作った奴だけどこういう雰囲気のハイレゾを作りたい https://i.imgur.com/hqijZJa.png https://i.imgur.com/klRwoPE.png こういうのを維持しつつ全身を飾りたい >>797 やっぱり個性的なんか・・・それはちょっとショックや、同志がいない可能性に繋がる >>798 サンガツ、外した 性癖が特殊なほどいいと思うわ 多数派の研究は誰かに任せてニッチな部分攻めていけ?????? lama-cleaner便利だオススメだって言われるからようやく導入したわ 一体何がそんなに凄いんだよってずっと思ってたけどこれ凄いな 破綻した場所を指定するとソフト側が勝手に判断して消してくるんか ハイレゾガチャして良いのだけi2iで拡大してる。それても元々の2.5倍くらいか stepも節約できるしなんなら仕上げのモデルも変えられる 誰にも強制はせんが くそでか画像t2i一発出しは漢のロマンなんや >>800 ここでもエロスレでもぶっちぎりの個性派なのは確かやで だが同志は必ずおると信じて進み続けるんや 自分の好きなもん楽しんで作るんが一番やでな 個性尖らせて誰にも作れんもんつくってこ こんな感じで明らかに学習完了できてると思うんだけど いざLORA適用してみると全く出力画像に変化がない https://i.imgur.com/Z6xz3Yb.png 同じニキおる? (画像は1epochだけど50epochで2時間ぐらい回したときも同じ。また4chanで拾った野良LORAなら出力画像に変化あるからWEBUI側の問題ではない、と思う) >>800 おぉw コテハンも何もないのに、一発で「あの人」って断言できる安心感w ローカル導入おめでとう >>806 嬉しくねえええwww😢 まあなんとなく気付いてけどな・・・ そもそもNAIちゃんに飛びついた理由が豪華な姫を提供してくれる夢のツール(サービス)だったからだし それまでは触れてきたあらゆる検索エンジン、あらゆるサービスでドレスやら姫やら入力してがっかりしてきたけど、 それは言い換えると需要がないから供給もないってことなわけで そんな中NAIちゃんが唯一真正面から応えてくれたわけだけど、それで世の中の需要が急に変わるわけでもなし まあ個性が武器になるならクオリティの高い物を寄せ集めれば売り物になるかもな その為にはエロをやらなならんのやけど、裸でさえ数多いるニキ達が苦労しまくってるのにゴテゴテ着衣なんてハードル高すぎるわ >>808 ワイはxformersが原因で変化しないLoRAモデルが生成されてたな xformersオプション無しで学習したら適用できたから試すのもありかも とはいえ普通に導入してれば安定版のxformersが入ってるはずなので恐らく参考にならんとは思うが xformers導入して使おうと思ったら、「エントリポイントが見つかりません」エラーが出てしまうわ 前スレ・前々スレあたりで同様のニキがおったから対処真似て、 venv に入って「pip install xformers==0.0.16RC425」とか試してみたけど 全然解消されんな…何がアカンのやろか メーテルwwwww 二次創作界隈が盛り上がるなwww こんな時代にメーテルの二次絵を見るとは思わんかったわ >>809 ありがとう ゴテゴテをやってる人が他に皆無だったし参考になるものも見つけられなかったんで自分的にどういった事がやれるのか全く見えず1ヶ月位ためらってた でもこうやってレスしてる合間に自動でバンバン生成してくれるってええね 出先でもスマホやタブレットでローカルにアクセスしたいけど、そっちはそっちでハードル高そうやなあ NASの導入も成功したけど使いにくいシステムに手を出してしまって半ば冬眠させてた有様だし これを機に叩き起こしてもええかな8TBあるし >>799 anything v4.5とDDIMの組み合わせなかなかええなサンガツ https://i.imgur.com/nRHyRte.jpg でも呪文を整理して短くするとストレートに装飾率が下がるのよね・・・NAIちゃんにしてた理由はそこなんで難しい >>816 使用VRAMを減らしてくれて画像生成速度を早めるすげえ奴や 詳しい原理は知らない😎 >>815 前スレのディードリットのloraもらって抜いてから そうか色々作ればいいんだと一念発起したわ スレイヤーズも作りたいんよ >>813 すげえええええ感動した そのものやないか こんな事出来るんやな 学習には憧れる でもワイは何を学習させたらええんや そういう素材がそもそもこの世に存在して無いから嗜好として苦労してきたのに >>822 豪奢な冠とかドレスとか学習させれば簡単に出せるようになるんちゃうか 学習画像集めしてたら学習画像で抜いてしまって満足してしまって学習やめる あると思います 上の方に書いてあったけど4070tiだとアスカベンチ10秒なの?4090と変わらないじゃん 4090考えてたけど4070tiでもよいのか? AI流行る直前に3070買ったばかりだから躊躇してたけど変えてしまおうかな >>792 取り敢えず今使ってるプロンプト公開してくれんか? 試そうにもどんなんやってるか分からんからムズいわ 頭の上の装飾が構図から外れてまうからプロンプトに天井入れて回避する、みたいな話しとったニキか? 違っとったらスマンやけど懐かしいなローカルおめやで wikiにあるNAIのディティール一覧学習素材にして そこに女の子ぶっこめば装飾派手にならんかな >>813 イイネ!今風になるとまた違ったエロさがあるな 2.5D作りたくなってきた >>811 サンガツ でもxformers周りはなにもいじってへんのや lora再インスコするか… >>773 こういうのはhuggingfaceは無理だろうけど、思考停止してる末端乞食ご用達のCivitaiには搭載すべきだよなぁ このスレに居なきゃ気づきもしない事なのかもしれないけど、ツイカスなんて破損モデルマージしてドヤ顔でバラまいてるのも多いし >>825 4070tiはメモリが少ない(4090比)なので 生成だけならコスパ高いけど学習がしたいなら注意やな 以前話題になった時にtoolkitで直るて言われてたやつやけどまだ破損あったってことか >>830 同一シード・プロンプトでlora適用前後で全く変化しない? 変化があるなら学習自体はしてるはず 正則化画像についてなんやが、オナホコキloraを作るとした場合は以下の考え方で合っとるか? ①教師画像としてオナホコキ画像を20枚用意。タグは「onahokoki,onahole,fleshlight,handjob」と設定。 ②正則化画像として上で設定したタグと高品質系呪文をプロンプトにつっこんで、適当に画像を生成。ここではオナホコキ画像なんて出んけど、できた画像200枚(素材の10倍)を正則化画像フォルダに突っ込んで学習開始。 >>823 歴史的な教皇冠とかかね あと「Polki Earrings」で画像検索したら出て来る先とか でも派手なアクセってアジアンな雰囲気が多くなるから使いにくいのよね 今作ってるものにElfを入れてるのもその為 別にエルフフェチではないがNAIちゃんにElfを描かせるとすごい安定するのよね >>826 今回してる奴でいいのかな、大分削ったあとだけどそれでも長い(webNAIベースだから) https://majinai.art/i/bpRporQ.webp 削る前ならこっち https://majinai.art/i/O2spi_7.webp webui版のsd-scriptsでlora学習開始すると必ずこのエラーで止まるんやが何が原因なんやろ? https://i.imgur.com/RaQ0uT3.png >>830 sd-scripts再インスコが早いし確実やね あと作者がデータセットとコマンド配布してるからそれで動くか試すとええかも note.com/kohya_ss/n/nb20c5187e15a >>831 ごめんそれやってたのワイやねん そこに載ってる奴はもちろん載ってないワードも倍くらい試した結果、そこまで有効ではないって結論に至った 正しくは効果はあるから要所で使ってるけど多用するとすぐブレるというか https://fate.5ch.net/test/read.cgi/liveuranus/1673586879/158 でも指摘してるんやけど、強調させるワードは劇薬になることも多い それをあえて使わないと嗜好が満たされないジレンマ・・・ 巨大冠なんてワードと{}か(数字)で強調しないと全く出てこないから他の要素とバッティングがどうしても起きて破綻しまくる それでもそのお姿を拝むために乱用せざるをえないんや・・・ 自分の気に入る画像生成してそれを学習させればええやん アジアンが嫌ならVictorianとかArt Decoとか華美な時代の装飾品画像持ってきて インスタみたいにキラキラ加工してから学習させるとか? なんとかLoRA学習始められたけど画像が少ないのか学習が足りないのか効きが悪いわ LoRA切ったら画像が明らかに変わるから適用はできてるんだけどこれはもっと試行錯誤しないとあかんなぁ taggerで作ったtxtを一括で読み込んで整理できるツールとかない? 10個くらいならテキストエディタで手動でやってたけど100個とかだとキツイ >>842 尚更自分の気にいる画像学習させてプロンプト駆使せんでも着飾る様にした上で調整としてプロンプト重ねた方がええんちゃう >>833 Loraで十分かなと思ってるけど、確かに今後なにがでてくるかわからんからなぁ >>836 ほんとや 上の方で10秒3って言ってて、wikiのアスカベンチでも4090で10秒台だから変わらないと思ったんだ 4090さすがに高すぎてかなり躊躇気味なんよ もうwikiに少し結果でるまで待つか >>846 stable-diffusion-webui-dataset-tag-editor kohyaニキのloraでタグ書いたファイル使う場合はメタデータの埋め込み必須なんか?他の人の手順見てるとwd14taggerでtxtファイルを学習画像のフォルダに出力した後そのまま学習開始してるように見えるんやけど 4090の生成速度はまだCPUでリミッターかかっとるようなもんやから… 13900KSでもリミッターにかかるからあいつの全力を出せる機材となるともはや富嶽でも用意せなあかんやろ >>853 waifu2x-caffeというアップスケーラーフリーソフトがあるんやが、これ一括でpng出力できるし設定した長辺に合わせて無劣化で画像拡大してくれるから使ったらどうや? 手持ちのモデルを片っ端から >>773 で破損チェックしてるけど性病検査みたいになってきた とりあずanyは3.0も4.5も破損しまくってるしマージしたヤツも酷かった civitaiで配布されてるモデルにも派手に壊れてるのが混在してるわ マジで梅毒かクラミジアみたいに思える Instance Tokenがsks Class TokenがGirl で学習してLoraのファイル名がWD13_3900.ptを学習してtxt2imgで生成する時の呪文は NSFW, sks girl, <lora:WD13_3900:1>, solo, で合ってるん? 背景を透明にした画像13枚を3900step学習した程度だと全然足りないん? 期待より全然似なかったんだが https://i.imgur.com/8Q0gupb.png https://i.imgur.com/FiJ3BJK.png 教えてクレメンス yamlファイル付モデルとそうでないモデルってマージできへんもんなん? マージまではできたけど、旧モデル名のyamlファイルを新モデル名にしてもできへん…… SD2.x系列とSD1.x系列はマージできへんで yaml必要なのSD2系列やったりせんか? >>858 fp16とかだと端数切捨てで問題ないケースが多い ただ32とかサイズの大きいモデルだと細かい数字でエラーして破損とかしてそう 被害の大半は7GB超えのfullモデルだから、loraやHNでもサイズ大は要注意かもしれん >>852 自分がドキュメント読んで理解した限りでは、Taggerでタグ付けして、なおかつキャプションつけるときにそれらを統合する手順を踏んでねって感じだったような。ただキャプション付けはエアプなんで合ってるかわからん どれも最新でclip changer未だにエラーで使えんやが使えてるやつおる? RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument index in method wrapper__index_select) って出るからこれの対策ググってやってもかわらんな wikiのアスカベンチのページ見てたらRTX4090だと10枚で10秒弱ってマジかよ こっちはRTX2070で50秒はかかるのに >>856 異常トークン吐くモデルの生産は止まったけど、既に広まったモデルは各個人で修正しないと治らないからなぁ そこそこ知識ないと、そもそも何がおかしいのか伝わらないし根深い問題やな >>860 すまん途中で送信してもーた 某フィギュアモデルがSD2.0っくて、別のがSD1.5やったわ >>835 あー変わらんかったわ ちな昨日拾った搾乳手コキは絵が変わった これは学習できてないですね間違いない >>840 サンガツ試してみる >>856 多くのマージ元であるany3が12個くらい破損してるから殆どのモデルも破損してるんや 破損個所確認すれば大体any3と同じかそれより増えてる aom2からのマージであるany4.0系もその破損引き継ぐのは自然なこと bbc-mcさんのおかげで日本人のマージモデルは修正一足早かっただけや LoRAに正則化画像300枚入れてrun_popupで10エポック実行しようとしたら、強制的に5エポックで打ち止めにされてまうな 10回回したいときはどうしたらええんやろか? 4070tiをボトルネックにしないcpuってどこが最低ラインですかね…? core i5でもいいのだろうか 1111を更新したら、昨日kohya_ssで作ったloraが働かなくなったのだけど、そういう人おる? 更新前の昨日は動いてたんだけど >>864 少しocして連続でやると3周目くらいに9秒台出るで 2枚x5回で8秒台が一番速いのかな Paperspace は Generate forever が使えないの不便ね >>871 12世代以降のi5ならゲーム用途でもなんでも問題なくいける 生成のベンチはハローアスカ10連があるけど性能差がより顕著に出そうな学習のベンチはないんだよね ワイの3060(PL58%)だとkohyaニキのデータセットで学習に13:31秒かかったけど4090とかなら高速で終わりそう ちなみにkohyaニキのスクショ見ると3:35秒で終わってるけど3090と4090のどっち使ってるんだろな 暇なニキもおったらハローカエルしてみて note.com/kohya_ss/n/nb20c5187e15a run_popup で以前のログやLoRAモデルを読み込むってのもやってみてるが、output に何も出てこない… 最高の画像一枚で1000ステップ そこそこの画像10枚で100ステップ てきとうに100枚で10ステップ、どれがええんやろね loraにpixiv上げように修正とエロ同人制作と 身体とpcと時間が足らないンゴねぇ パチンコいかなくなったのは良かったんやが >>870 正則化使うと設定したエポックの半分になるらしいで つまり10エポック分回したいなら20エポックで設定 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.4 2024/05/19 Walang Kapalit ★ | Donguri System Team 5ちゃんねる