なんJNVA部★169
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512 !extend::vvvvv:1000:512 よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/ danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups ここの画像を勝手に転載するのは無能のやることやで スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな ※前スレ なんJNVA部★168 https://fate.5ch.net/test/read.cgi/liveuranus/1678402781/ VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 4080買う予定だけどチップはどうせ同じだから安いやつでええか? PlaitかASUS狙ってる >>786 貧弱のラインか分からんけど GTX1080で何とか頑張ってる Linux入れてGPU使ってるプロセス全切りして 別PCからssh操作で頑張ってるわ ケチれるメモリ量は精々200MB程度やけどな >>714 サンガツ 汗で溶けるという設定の基に路上でオナニーしてもらいました ttps://imgur.com/I0ee4vk.jpg すまん質問なんやが初回起動時のダウンロード中でエラー出てしまったんや ここまでは大丈夫そうなんやが Launching Web UI with arguments: --xformers これの後に なんか無い言われるんや ModuleNotFoundError: No module named 'font_roboto' 今までスタンドアローン版使ってたんやがsdscriptのために結局pythonとgit入れたんでこっちもインストールしようとしたらエラーでたんや i2iで画像を一部分だけ書き直したり消したりしたくて Inpaint a part of imageというのができるらしいんやが項目が見当たらん 記事見ても2022年のとかやし今変わってるんやろか sketchで黒く塗りつぶせるはするけどこれやないよな >>793 4090やんけ! でも保証はやっぱ長い方がええか三月 エルザはもうNvidiaとは仲良くしません。 って言ってた気がするけど結局4000番台出したんか?どうなっとるんや >>789 僕が知りたいのはリアル系3Dキャラのスクショから2次元に落とし込む安定したレシピとおすすめモデルかなー それとも塗りでっていうなら一旦アニメ絵loraでi2iした方がいいのだろうか 過学習しないならそのままでも一緒だと思ってたけどモデル相性とかあるならどうなんだろう 最近はじめてt2iしかやってないけどすごすぎない? >>786 1660Tiでやってるけど512×アップスケール2=1024が限界だった 3倍スケールだとメモリエラーで終わり 低メモリ用の設定もあるらしいけど今んとこ2倍で満足してる >>799 controlnetでdepthとか使って2Dモデルで出力すれば特に苦労せずに出来るんじゃね? 保証は大事って言うけどグラボって早々壊れんよな 初期不良とかはあるからサポートの品質は大事だが >>794 wuiのフォルダで venv\Scripts\activate pip install font-roboto --upgrade exit してみたらどうだろう >>801 そこで過学習とかがでてきましてどれ使っても似たようなのになっちゃって 階層lora使ってアニメlora適応でもよさそうですけどねw EVGAはNVと関係解消したけどELSAもそんな話あったんか >>802 マイニングや画像生成はメモリジャンクションが簡単に90度超えるから 結構簡単に壊れるでソースはワイ まあゲーム程度やったら壊れんなあんま >>752 なんやこれ!パワ体の健全なデフォルメボディがスケベボディと化してるの素晴らし過ぎて大興奮物や…… 悪いが“一足先”に抜かせてもろたで。さらにニキが抜けるレベルにまで進化したらよりエチそうやな、応援しとるわ >>791 同業者おるな しかしLinuxでCUIとはかなり腰の据えたことしとるな… >>798 InnoVisionの4000番台を箱だけ変えて出してるな >>619 りぼん、なかよし、ちゃおみたいな画風だなオィ >>737 パースはおかしくないで おかしいのは建物が小さすぎることや c00はAOM3A1&推奨ネガと組み合わせると特有の目がより出やすくなる https://majinai.art/i/qgaanLt https://i.imgur.com/k55J1dy.jpg https://i.imgur.com/E5sN2hv.jpg AOM3A1&推奨ネガティブはLoRA無しの素でもロゴっぽいの出やすいから画面がますますカオス化していくけれど 嫁と娘が居たらこういう絵柄の漫画読んでるところを眺めたりしたんかな 確かに写ってたんだ 俺の娘、まるで天使みたいに笑って >>820 イオンでキラレボやってたら小学生の師匠が出来た俺がちょっと通るぜ これをデカ目loraと組み合わせたらどうなってしまうんだ 片目隠れが上手くいかんのやが対処法教えてクレメンス 一枚目みたいにしっかり隠れてくれるのはええんやが二枚目三枚目はうっすら目があってこれHirsやらSDアップスケールかけると浮き上がってきたりするんやわ https://i.imgur.com/N5ihSCS.jpg https://i.imgur.com/ZnottIU.jpg https://i.imgur.com/IQ7e0AZ.jpg >>823 その娘さんの名前は? 奥さんとはいつ何処で知り合い何年前に結婚しました? そこに写ってるのは、誰と誰です? >>826 髪の毛の処理とか甘くなるけどR-ESRGAN4xAnime6Bのdenoise0.3とかでもアカンか? >>803 >>804 答えてくれてありがとうな しかしエラー解決せず スタンドアローン版も一応入れ直して問題なく使えてるからおま環だとは思うんやけどpythonとgitの入れ方ミスったんかな sdscriptは問題なく動くんやがなぁ リンク先の内容もうちょい時間かけて試してみるわ >>828 ほーんこれなら目が浮かび上がる可能性は抑えられそうやサンガツ 可能ならアップスケールとかHirs前からしっかり目隠れしてくれたら嬉しいんなけどな チンカスLoRAって誰か作っとらんか? 見せ槍LoRAで寄り目させてたら欲しくなってしもうた colabの1000円プラン使ってたけど、GPU全部使い切ってしまった🥲 >>829 あとやれそうなのは venvを消してからwebui-user.batを叩くとかやな (あるいは、そもそもwebui-user.batじゃなくlaunch.pyで直接起動しようとしたりしてないか?) メカクレprompt強調したら大体隠れてくれんか? >>832 colabの課金はコスパ最悪やから課金前提ならpaperspace使った方ええで(無料前提ならColabの方がスペック良いけれど) 同じノートブックそのままアップロードしてngrok使ったりすると機械的にBANされるから注意や >>830 そこはきっちりしたLoRA作らんと難しいと思うで メカクレ以外にも眉毛なんかは前髪無視して透過してるイラストばっかりやから プロンプトとか半端なLoRAだとモデルのパワーに敗北するんや >>829 ほならもうLoRAもスタンドアローン版にするかやな ワイはそうしてるけどやっぱラクやで >>833 wikiの通りにcドライブでGit Bash hereしてgit clone そんでwebui-user.batダブルクリックで起動しかしてないんや >>826 わいやったらペイントツールで薄く出た目を塗りつぶしてからimg2imgで高解像度化にかけるかなぁ ちょとっと線まで塗ってしまったとか微妙にはみ出て塗ったとか雑な塗り方でも意外とよきに計らってくれるで >>819 アリだけど抜く訳じゃないし使用用途に困るな >>839 話逸れるんやけどスタンドアローン版でsupermerger使えとる? 元々は白背景のコピー機作って学習元モデルにマージしてから学習すると教師素材の白背景を覚えないってやつやりたかったんや コピー機lora作っていざモデルにマージしようとしたらエラー出たからスタンドアローン版じゃあかんのかなと思って本体の導入やってたんや >>586 サンガツ 公式LORA説明見て https://github.com/kohya-ss/sd-scripts/blob/main/train_network_README-ja.md --caption_extension=.txtって書いとらんように見えるんやが、皆はどこを見てLORAのやり方を学んどるんや? DB方式とか分けて説明してるページも見たんやが https://github.com/kohya-ss/sd-scripts/blob/main/train_README-ja.md 「step 3. 学習 それぞれのドキュメントを参考に学習を行ってください。」 ⇒train_db_README-ja.mdを見るもタグの事なんか一切触れてない みたいな感じで全然分からんのや... >>837 Lora自作かぁ逃げ回ってきたけどいよいよ考えなきゃいかんかなモデルの特徴に負けない精度って大変そうね >>842 ワイもクリスタ持ってってちょいと塗ってやったりしたけどワイの塗りが下手過ぎて塗った部分が違う意味で浮いたりするんよなぁ加筆スキルも必要やな >>847 よくある質問なんやけど fine_tune_README_ja.md にblipのキャプションは.captionて書いてあるで >>847 それぞれのドキュメントってのはそのDBのページであっとるで でも機能いろいろ追加された時にドキュメントもかなり整理されとるな、確かに今はタグについてなんも書いてない --caption_extension=.txtについてはtrain_README-ja.mdの中に記述があるで それはDB+キャプション方式ってやつやな タグ使うっていうと普通はfinetune方式の方や。こっちはfinetuneのレドメ読んでタグを先にjsonにしとく必要がある LoRAにつけるtxtについては過去スレにこんなんがあった 193 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b128-wXR/) sage 2023/02/26(日) 17:15:58.07 ID:BoU8/2/40 LoRAの学習情報がカオスすぎる件についてまとめ LoRAは「正則化画像を使い、タグを使わないDreamBooth方式」と「タグを使い、正則化画像を使わないFine-tuning方式」があり、さらにどちらの方式でもキャプション(各画像を説明する文)を使用できる。 LoRA(DreamBooth方式)ではタグを用いた学習はできないのだが、タグをキャプションとして使うことで、擬似的にタグを使用できる。 これによって爆誕したのが「正則化画像を使いつつ、タグも使うDreamBooth方式」。LoRA_Easy_Training_Scriptsはデフォルトでtxtファイルをキャプションとして使うように設定されており、WD1.4Taggerで生成したタグファイル(.txt)をそのままキャプションとして使うことができる。 >>844 すまんな、使ったことないし使い方もわからんのや >>826 ワイも目隠れキャラ好きやからよく作るけど うっすら眼透かすのってそういう表現もあって間違いじゃないから微妙に困るンゴねぇ とりあえずNPにeyepatchは必須やな >>826 ワイならベタ塗り修正して inpaintでどうにかしちゃうかもしれん パラメータ的なやつはそれぞれのpythonスクリプト *.py で python train_db.py -h みたいにすれば(kohyaニキが)説明書いてあるで まとめて見たいなら https://github.com/derrian-distro/LoRA_Easy_Training_Scripts#list-of-arguments これをgoogle翻訳で読めばだいたいわかるで >>845 攻殻機動隊の映画にそういう有名なシーンがあるんや 機械化した脳みそをハッキングされて妻子がおると思い込まされ利用された哀れな独身清掃員が出てくるねん 今回の場合「娘とか妻とか妄想やろ!?そうやと言ってくれ…!」という自虐的なボケを孕んだレスな訳やな >>826 See eyes visible through hair をネガティブに入れてみればええんやない? 昨日のアプデ適用したらなんかモザイクとかノイズめっちゃ出るようになってもうた 他の変更も多かったんかなぁ入れ直すかぁ >>811 箱だけ変わったんか……難しい業界なんやな >>826 目隠し150枚くらい作成して50枚くらいは眼帯かアイパッチになってボツ i2iで解像度あげたら3割くらい目やまつ毛出てきて泣いたわ 全部塗り重ねて再度i2iかけたけど 今までlora学習はeasy使わずにコマンド直打ちでやってきたけど--caption_extension=.txt記入してなかったから用意したタグtxt意味なかったんか!? >>858 多分>>845 は笑い男のマークが文字化けしてるんだと思う civitaiみたらクソデカちんぽ3本ぐらいあって草 3060は諦めてSwitch買うわ🥺 今んとこcolabすら万全に使いこなせてない みんなさんがつやで! つまりスレのみんながやってるのはtrain_README(https://github.com/kohya-ss/sd-scripts/blob/main/train_README-ja.md ) fine tuning 方式 step 1. メタデータを準備する、で.txtと.captionを.jsonに合成して、 step 2. 設定ファイルの記述、で.tomlを作成し、 fine_tune_README(https://github.com/kohya-ss/sd-scripts/blob/main/fine_tune_README_ja.md ) の学習の実行、に記載されているコマンドを実行すればいいんやな? fine_tune.pyを実行してるから、train_network.py実行時の"--caption_extension=.txt"みたいなコマンドがなくても勝手にメタデータjsonを読み込んでくれるってことやな? ワイ直打ちで全然そんなことやってないけどちゃんとトリガーワード機能しとるよ いやしてないかもしれへんわ、断言すんのやめとくわ そんなややこしいことしたこと無い というかwikiにしろnoteにしろTwitterにしろlora始める手順でそんなんやれ言うてるとこある? ワイの中では直打ち民はtrain_network.pyだと思ってたで つかマルチやん discoでも同じ事聞いてる人おるし wiki読んだら従来のdb方式学習loraはtxt置くだけでええっぽいな 新しく対応したファインチューン方式の場合は--caption_extension=.txtせんといかんって事かな?その差がどうなんか気になる所やけど >>874 自分もそれや、loraは情報が錯綜してて混乱する .tomlで設定ファイル作るのは最近のアプデで追加されたやつだからスレ民でやってる人はまだあんまいない気がする .txtと.captionを統合するのはオプションだった気がするけどワイはめんどくさいので.txtだけ置いてやってる 統合してやったらなんか精度あがったりすんのかね としあきの.batベースやから 2.のDB方式キャプション.txtあり、正則無しでやってることになるな 1.のキャプション無し正則無しもやったことある fine tuneはやったことない 色々設定間違えててもとりあえず教師画像さえ指定しておけばそれなりに学習するから失敗に気付きにくいんだよな タグ設定できてるかの確認はAdditional Networksタブの右下にあるTraining infoを見るとええ tomlで設定すると40_xxxみたいなフォルダいらなくなるから多少便利ではある これ怖いのがaiがなまじ賢いせいでキャプションが全く効いてないのに気付けない可能性あることやな >>870 みんながやってるLoRAってのはtrain_nework.py使うやつや train_networkで学習する時にtrain_db.py使うときの方式とfine_tune.py使う時の方式どっちも使えるってことや 5ch wikiではfinetuneの説明とかしてないから大半はDB方式でやっとると思うで >>879 俺のタグ学習できてないわ!😭 画像フォルダ名の〇〇 girlしか表示されてねぇ…やっぱりコマンド記入必要なんか? >>826 目関連ってムズイ気がする 前にバイザーやろうとしたけど全然だったわ >>877 よくわかってなくて、勉強がてら昨日colaboでトレーニングするのに色々試したけど、現状だとコマンドラインとtomlと設定がばらけるなーって感じに datasets.subsets使いこなすとつよつよな気がするけど、いまだにそこまで至ってない自分 finetuneでやってるけどこれだとdatasetにjson記載されて most frequent tagsが空になるのよね …配布を考えると都合悪いな? >>873 kohya氏のreadmeではそう説明されてるんや、多分 >>882 つまり学習画像フォルダにTaggerで.txt作って、 train_nework.py + --caption_extension=.txtを実行しとけばとりあえず皆とやってることは同じってことやんな? easy scriptsは--caption_extensionをtxtにしてるな(使ったことない) 自分は直打ちなのに--caption_extensionを指定しないでやってた でもこれ入れないとダメなんじゃないだろうかという気がして今は--caption_extensionに.txt指定してる 一つ問題なのは入れてなかった頃から学習はやれてたような気がすること でもソースざっと読んだ限り勝手にそこを忖度してくれるようなコードらしきものは見つからなかった 一週間位前?から「[WinError 64]指定されたネットワーク名は使用できません」っていうエラーが頻出するようになったんだけど誰か解決法知りませんか OSのクリーンインストールで解決せず、別パソコンに環境を作ってみても同じエラーが出た ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる