なんJNVA部★138
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★137
https://fate.5ch.net/test/read.cgi/liveuranus/1674660572/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured top-down bottom-upでクッと上げたケツ見たいのに
こっちばっか出してくるわ
https://i.imgur.com/7NpByl0.png
たまにそれやでAIちゃん!って感じの出してくるけど崩壊してる
https://i.imgur.com/qYIz6t2.png LoRAをやってみたくて、LoRA自体はインストール出来たんだけど、
「WD1.4 Tagger」でキャプションつけたくて1111のextensionsに何回追加しても1111に表示されないんだけれど、何が原因とかあるのかな?
ちな1111のバージョンは最新
extensionは他にダイナミック、層別、イメージブラウザ、pix2pix、ピクセル、additional networks(LoRA)です。 サンイチ
https://i.imgur.com/kNPz7mL.jpg
ゼリー注意
ぱんつずらしはできるけど流石にぱんつが重さで垂れ下がる感じはそれ専用で学習しないと難しいやね
あと家の回線規制されてもう一週間近くになるの辛いやで >>18
stable-diffusion-webui-wd14-tagger https://github.com/toriato/stable-diffusion-webui-wd14-tagger.git
これで合うとる?
Tagger ってタブや、 1回目動かすときにダウンロード入るからターミナルなりコマンドプロンプトなり見て動いとるか確認してや サンイチ
前スレ899のやつ試してみた
https://i.imgur.com/AxxMdpQ.png
プロンプト毎にサイズと座標を決めて合成する感じかな ワイには難しい >>25
すまん解決した。
入れてたのはそれであってた!
WebUIだけやなくて、
webui-user.batも再起動しないとアカンのね……
他のextensionはWebUIだけ再起動で
表示されてたからてっきり
感謝🙏 前スレ後半に貼られてた4090のBTOパソコンめっちゃ安ない?
ワイの場合4090の真価発揮するには今のPCだと電源cpuマザボ諸々を
買い替えないといかんからかなり魅力的だ… >>26
めちゃくちゃすごいけどなぜナパーム残して風船足したんや 989 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5f28-Z6M9) sage 2023/01/28(土) 00:38:13.98 ID:YLSceTSY0
質問ええか?
PEP8に「Python では、単一引用符 ' で囲まれた文字列と、二重引用符 " で囲まれた文字列は同じです。この PEP では、どちらを推奨するかの立場は示しません。」
とあるんやが実際には'の方を使う人が多い(気がする)のはなんでなん?
ワイは左手だけで簡単に打てる"の方が好みなんやが
これはコーディングスタイルによりけり
ちなBlackのデフォは"
なんで'が多いかわからんがワイが思うにシェルスクリプトとかでは'で囲まれた文字列はコードとかが含まれてても実行したり展開したりせんのやけど"は実行するので基本的には'で囲うと思うんや
それの名残?シェルの代わりに使えるとか言われたりもするときあるし 丸一日さわり倒してlora大分理解進んだけど正則化の必要性だけは分かんない https://i.imgur.com/2T3UMHX.png
すごく簡単な話でしてよ
US配列のキーボードでは " より ' の方がタイプしやすいのですわ 薄々勘づいていたが強調は波括弧じゃなくて普通の括弧だったのな
ちょくちょくマジナイにも上げてたのになんで誰も教えてくれなかったんや NMKDがアプデしたら壊れたから(グラボは回るが画像が出力されない再インスコしても同様)、ArtRoomインスコしたがRun押しても動かんポンコツや
でもWebUiは嫌やからなぁ
GUIで何か良いのない? >>47
他のguiがあるのか知らないけどNMKD側の問題なら治るまで1111氏の使っててもいいんじゃないかな?導入が簡単になってるらしい なるほどなあそうなると基本的に'で統一した方が良さそうやな
でもワイは"を使い続けるんや☺ BooruDatasetTagManager落としてみたけど.slnで草
どうやって起動すんねん >>47
マイナー環境の愚痴を言われても誰も解決出来ない定期 tagといえばプロンプトの候補を出してくれるautotagがアプデしてから機能しなくなったんやけどワイだけなんかな タグじゃなくてキャプション編集するソフトってあるんです? 寝床で考えた机上の空論なんだけど、手の修正LoRa作れないか?
着せ替えLoRaの生首だけ学習を応用して、手首から上だけ学習させる
プロンプトに使えば手の崩壊を防げるし、i2iに使えば自己修正なしでガチャだけで修正できるはず
パーの形だけで学習させて強制パーLoRAとか、特定の手の形だけで学習させるのが強そう 初めて一からlora導入するのにおすすめのサイトありますか エクステンション版のkohya使ってみたんやが学習画像がありませんってどうゆうことや?あとtritonがどうとかもエラーで出てくる >>56
LoRAではないけど、かなり前に手だけのinpaintモデルを作って試したが上手くいかなかった
顔とか服は近いものを強く学習してる上、いくつか切り分けられる特徴もあるから、それだけで学習させてもある程度は認識する
手はそれだけで学習させても肌色のなにかとしか認識されないって結論になった
もしかしたらLoRAでやれば上手くいくかもしれんから、試してみる価値はあるやろな >>60やはり先駆者ニキおったか
キャラ再現LoRAで遊んでたら手の崩壊率が低いことに気づいたんや
人差し指立てたポーズとかそのキャラっぽい指を学習してるから崩壊少ないんやろうなと仮説を立てた
手はモデル自体に使えるデータが多すぎて船頭多くして船山に登る状態やと思うんや
そこでLoRAが船頭に立てば手の崩壊率はかなり下がるはず
誰か一緒に研究しようや inpaintで全然破綻直らんなあとおもったらVariation強度が0だったわ
ワイもAIにコピー機させてしまってた majinaiに投稿された画像使って学習したらどうなるんだろう?
基本良かったものを投稿してるしタグは画像に埋め込まれてるしで、めちゃくちゃ高精度なモデルできないか?
数がまだ圧倒的に足りないだろうとは思うけど >>45
これで言うとカッコ内に,入れてプロンプト併記して強調入れてる人おるよな
前スレで効かないって話を初めて知った ピクセル化面白いんやが背景の透過情報維持してくれたらええのにな
それともワイが見つけられてないだけでそういう機能あったりするのか
切り抜くのがめっちゃ面倒や >>64
プロンプトと無関係な偶然の産物を上げるケースもあるし
そういうのはノイズになるんじゃないかな >>65
前スレで指摘されてたのは:の後に数字じゃなくて,が入っとっるからあかんって話やないん?
文法に沿ってカッコ内に併記するの自体は文法間違えなきゃ効くはず 出力された画像を素材に再学習するのは聞いた事ある気がする
あんまり知らんけど 解像度768で学習しようとしてみたらVRAMじゃなくて物理メモリの方が足りないっぽくて開始すら出来んかったわ…
16GBじゃ無理なんか?買いに行くかな AUTOMATIC1111のInpaint、まともに機能しなくなってないマスク関係ないところを残して、しかも不自然にくっつけてくる。 だだっこさんのスタンドアロン版無料Colabで学習出来た人おる?
note通りにやったんやがepoch出てすぐKilledされてもうた
有料版でシステムメモリに余裕ないとアカンのかなぁ 最近毎度活動してるアナルゼリー部や
3080でも768学習できると知ってそれで作り直してみた
後alpha1のlr1e-3も良いと聞いたので試しに設定
https://i.imgur.com/o18GxIQ.jpg
わりと絵柄へのLoRAによる侵食を抑えられてるんやないかなこれは
まあAbyssOrangeにしては背景死んでるんやけどね… >>31
ワイもこれ一敗してるわ
このエクステンションでしか遭遇しない事例やから気付きにくいねんな 金があるならマジでRTX4090一択だな・・・
いつものゲフォなら最上位ってその下と対して変わらないのに4000世代だけは最上位が強すぎる
https://i.gzn.jp/img/2023/01/26/stable-diffusion-gpu-benchmarks/01.png >>78
3060の4倍の性能やんけ
しかし3060なら10台買えることを考えるとコスパはやべーわ
そんなにパソコン組めへんけど kohyaでxformers動かなくて困ってるって言及してるpaperspace民って多分みんなproのA4000民なのかなって思ってるんだけどgrowth民で成功してる人っておるん?
A100でxformersだと解像度どれくらい行けるもんなんやろ ふたなり玉無しスクワット両手に茎派のワイ
今日も金玉描写とまんkにtmp挿入されて惨敗
なんか基本的に間違ってんのかなほんと、、、 >>82
キンタマくらいなら消しゴムで消せばええんや 百合と言えば前スレの冒頭にいたあだしま可愛かったわ >>72
うおおサンガツ!いろいろ楽しませてもらうわ🙏 katanukiで綺麗にならなかった時って残りは手動でやるしかない? そもそも背景削除はオリジナルをCLIで使う方が精度高いからkatanukiより使ってないわ
単に使ってるモデルと設定値の違いだろうからソース書き換えれば同じことkatanukiでも出来るんだろうけど 挿入されてるのをインペントで消したり金玉を消したりしても
こういう風になってしまうのよね、、
https://imgur.com/RmQzOTg
>>83
インペイントで消してもまんk書かれないで金玉が生えてくるんや、、
>>86
ふたLoraって金玉ついてこない? >>89
フタナリlora入れて金玉だけネガに入れたら消えたような…testiclesってネガに入れてみたらどうや? プロンプトでもそこそこ玉無しふたなりは作れたとは思うけど打率低いのよな
ワイが作る時はpenis使わずにerectionで生やしてる >>68
ほんまや誤読してたわ
そんで:の後じゃなくて直前に,やった
(6+girls talking, looking at each other, laughing,girls clowd,armpit,fun water play,happy,:1.5)
:1.x)の前にカンマ入ると効かなくなるんか今まで生成しまくってて知らんかったわ…そうとうやらかしてたで LORA学習したい画像突っ込んでbat叩いて<lora:ほにゃらら:1>で反映させてるだけで満足した結果が出てるんやが、
画像に同梱するテキストファイルやらタグ付け?やらまさのり化画像はあったほうがええんか? 前スレ>974
catboxは画像上げるとこやと思うやで。
近くにmega.nzのURLあらへん? >>38
試したんやがあの独特な形のモデルが無いからかスヌーピーに出てくるチャーリーブラウンみたいな奴しか出んかったわ
学習率が悪いのかもしれん >>35
俺が10月下旬に買った時より10万安い
SSD4TB追加してメモリ128GBにして同じくらいになる
かなり安い 最新の最高性能のパソコンって『(少しでも早く高性能な環境を使うための)時間をお金で買う』っていう面が強いだろうしな
お財布厳しい勢としては、素直に3060の次世代ポジションを待ってる マンコが破綻するのをどうやったら直せるんや…
わいは疲れた
basilとddim使ってるんやが😭 そこそこのPC買っても夜通し生成とか電気代かかるからやらんくなったし
3060で1024×1512のhires.fixなら3分で出来るから、適当に起きてる間にガチャって良いの出たらシコッてPixivに貼るだけになったわ
100枚貼っても1枚貼っても閲覧数変わらんしな
学習目的で買うにしても1024×1024の学習ならクラウド前提みたいやし >>99
少し高いが4070tiしかないやろ
ローエンドでVRAM12GBのグラボはもう出そうにない LoRAするときの学習用画像と一緒に入れるtxtファイルの内容は、結局どうするのがベストなんや
「呼び出し用ワード,1girl,simple background」だけにしとるんやけど、これよりもっとええやり方がある感じなんか?
タグとクラスとキャプションの違いもようわからん >>99
残念ながら後継は絶対に出ない
そもそも3060にvramが12GBも載ったのはイレギュラーなんだよ
だから珍品扱いなんさ >>105
civitaiのLORAあんま良いのないけどな
ブルアカのLORA上げてる人のがアビスオレンジなら使えるぐらいか 錦鯉ののりのりまさのりダンスのLora作りたくて吉田アナの解説動画使って学習させてたんだけど服装ばっかり真似してポーズは全然真似してくれないわ…
案外ポーズの学習って難しいのかな >>102,104
よ、4年後ぐらいには出てるからっ…… >>101
1024での学習なんて意識されとらんかった時期と現実にそれやる奴が現れだしてからの今じゃ判断の基準が完全に別物になってると思うわ
今から学習やろうと思ってる層は4090買うよりA100借りる方が良い >>101
>>10 >>11 の画像、2048x1536で1枚23秒や
1024x768のアプスケ2倍 step25 DDIM hires.fix で4090だとだいたいそんな感じや
10連アスカベンチ10秒3くらいで32it/sくらいだから
13900kf4090の組み合わせで高速最適化した場合の平均はここらへんやね
4090は高いとは思うが
そろそろみんな4070tiにするべきや ■ このスレッドは過去ログ倉庫に格納されています