なんJNVA部★138
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★137
https://fate.5ch.net/test/read.cgi/liveuranus/1674660572/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured (1otu:138)
https://majinai.art/i/etv7Qhk.png
https://majinai.art/i/F8kmU1E.png
https://majinai.art/i/Bpd9J6P.png
パンコキLoraの汎用性が少し増したのでうpするやでー。 https://79.gigafile.nu/0204-67d3b9b4943e363e1bb8cc6606584a3e
2は前に配布した奴や。素材自体がチンポら辺切り取ったやつやから、パンツのクオリティは高めなんやが顔が見切れることが多い。
3の方が汎用性ある奴や。こっちの素材は全景やから汎用性はあるものの、素材の絵柄に引っ張られることがある。あと等身が高くなりがち。姉好きにはこっちのがええかも。
おすすめはこの2つをマージするんや。すると両者のバランスが取れていい感じになる。ワイのおすすめは旧:新=7:3あたりやな。別に併用するんでもええで。
とはいえ手コキ系なんで指回り安定せんし、POV構図以外はあんまし有用やないかもしれへんから、適当に遊んでくれよな! top-down bottom-upでクッと上げたケツ見たいのに
こっちばっか出してくるわ
https://i.imgur.com/7NpByl0.png
たまにそれやでAIちゃん!って感じの出してくるけど崩壊してる
https://i.imgur.com/qYIz6t2.png LoRAをやってみたくて、LoRA自体はインストール出来たんだけど、
「WD1.4 Tagger」でキャプションつけたくて1111のextensionsに何回追加しても1111に表示されないんだけれど、何が原因とかあるのかな?
ちな1111のバージョンは最新
extensionは他にダイナミック、層別、イメージブラウザ、pix2pix、ピクセル、additional networks(LoRA)です。 サンイチ
https://i.imgur.com/kNPz7mL.jpg
ゼリー注意
ぱんつずらしはできるけど流石にぱんつが重さで垂れ下がる感じはそれ専用で学習しないと難しいやね
あと家の回線規制されてもう一週間近くになるの辛いやで >>18
stable-diffusion-webui-wd14-tagger https://github.com/toriato/stable-diffusion-webui-wd14-tagger.git
これで合うとる?
Tagger ってタブや、 1回目動かすときにダウンロード入るからターミナルなりコマンドプロンプトなり見て動いとるか確認してや サンイチ
前スレ899のやつ試してみた
https://i.imgur.com/AxxMdpQ.png
プロンプト毎にサイズと座標を決めて合成する感じかな ワイには難しい >>25
すまん解決した。
入れてたのはそれであってた!
WebUIだけやなくて、
webui-user.batも再起動しないとアカンのね……
他のextensionはWebUIだけ再起動で
表示されてたからてっきり
感謝🙏 前スレ後半に貼られてた4090のBTOパソコンめっちゃ安ない?
ワイの場合4090の真価発揮するには今のPCだと電源cpuマザボ諸々を
買い替えないといかんからかなり魅力的だ… >>26
めちゃくちゃすごいけどなぜナパーム残して風船足したんや 989 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5f28-Z6M9) sage 2023/01/28(土) 00:38:13.98 ID:YLSceTSY0
質問ええか?
PEP8に「Python では、単一引用符 ' で囲まれた文字列と、二重引用符 " で囲まれた文字列は同じです。この PEP では、どちらを推奨するかの立場は示しません。」
とあるんやが実際には'の方を使う人が多い(気がする)のはなんでなん?
ワイは左手だけで簡単に打てる"の方が好みなんやが
これはコーディングスタイルによりけり
ちなBlackのデフォは"
なんで'が多いかわからんがワイが思うにシェルスクリプトとかでは'で囲まれた文字列はコードとかが含まれてても実行したり展開したりせんのやけど"は実行するので基本的には'で囲うと思うんや
それの名残?シェルの代わりに使えるとか言われたりもするときあるし 丸一日さわり倒してlora大分理解進んだけど正則化の必要性だけは分かんない https://i.imgur.com/2T3UMHX.png
すごく簡単な話でしてよ
US配列のキーボードでは " より ' の方がタイプしやすいのですわ 薄々勘づいていたが強調は波括弧じゃなくて普通の括弧だったのな
ちょくちょくマジナイにも上げてたのになんで誰も教えてくれなかったんや NMKDがアプデしたら壊れたから(グラボは回るが画像が出力されない再インスコしても同様)、ArtRoomインスコしたがRun押しても動かんポンコツや
でもWebUiは嫌やからなぁ
GUIで何か良いのない? >>47
他のguiがあるのか知らないけどNMKD側の問題なら治るまで1111氏の使っててもいいんじゃないかな?導入が簡単になってるらしい なるほどなあそうなると基本的に'で統一した方が良さそうやな
でもワイは"を使い続けるんや☺ BooruDatasetTagManager落としてみたけど.slnで草
どうやって起動すんねん >>47
マイナー環境の愚痴を言われても誰も解決出来ない定期 tagといえばプロンプトの候補を出してくれるautotagがアプデしてから機能しなくなったんやけどワイだけなんかな タグじゃなくてキャプション編集するソフトってあるんです? 寝床で考えた机上の空論なんだけど、手の修正LoRa作れないか?
着せ替えLoRaの生首だけ学習を応用して、手首から上だけ学習させる
プロンプトに使えば手の崩壊を防げるし、i2iに使えば自己修正なしでガチャだけで修正できるはず
パーの形だけで学習させて強制パーLoRAとか、特定の手の形だけで学習させるのが強そう 初めて一からlora導入するのにおすすめのサイトありますか エクステンション版のkohya使ってみたんやが学習画像がありませんってどうゆうことや?あとtritonがどうとかもエラーで出てくる >>56
LoRAではないけど、かなり前に手だけのinpaintモデルを作って試したが上手くいかなかった
顔とか服は近いものを強く学習してる上、いくつか切り分けられる特徴もあるから、それだけで学習させてもある程度は認識する
手はそれだけで学習させても肌色のなにかとしか認識されないって結論になった
もしかしたらLoRAでやれば上手くいくかもしれんから、試してみる価値はあるやろな >>60やはり先駆者ニキおったか
キャラ再現LoRAで遊んでたら手の崩壊率が低いことに気づいたんや
人差し指立てたポーズとかそのキャラっぽい指を学習してるから崩壊少ないんやろうなと仮説を立てた
手はモデル自体に使えるデータが多すぎて船頭多くして船山に登る状態やと思うんや
そこでLoRAが船頭に立てば手の崩壊率はかなり下がるはず
誰か一緒に研究しようや inpaintで全然破綻直らんなあとおもったらVariation強度が0だったわ
ワイもAIにコピー機させてしまってた majinaiに投稿された画像使って学習したらどうなるんだろう?
基本良かったものを投稿してるしタグは画像に埋め込まれてるしで、めちゃくちゃ高精度なモデルできないか?
数がまだ圧倒的に足りないだろうとは思うけど >>45
これで言うとカッコ内に,入れてプロンプト併記して強調入れてる人おるよな
前スレで効かないって話を初めて知った ピクセル化面白いんやが背景の透過情報維持してくれたらええのにな
それともワイが見つけられてないだけでそういう機能あったりするのか
切り抜くのがめっちゃ面倒や >>64
プロンプトと無関係な偶然の産物を上げるケースもあるし
そういうのはノイズになるんじゃないかな >>65
前スレで指摘されてたのは:の後に数字じゃなくて,が入っとっるからあかんって話やないん?
文法に沿ってカッコ内に併記するの自体は文法間違えなきゃ効くはず 出力された画像を素材に再学習するのは聞いた事ある気がする
あんまり知らんけど 解像度768で学習しようとしてみたらVRAMじゃなくて物理メモリの方が足りないっぽくて開始すら出来んかったわ…
16GBじゃ無理なんか?買いに行くかな AUTOMATIC1111のInpaint、まともに機能しなくなってないマスク関係ないところを残して、しかも不自然にくっつけてくる。 だだっこさんのスタンドアロン版無料Colabで学習出来た人おる?
note通りにやったんやがepoch出てすぐKilledされてもうた
有料版でシステムメモリに余裕ないとアカンのかなぁ 最近毎度活動してるアナルゼリー部や
3080でも768学習できると知ってそれで作り直してみた
後alpha1のlr1e-3も良いと聞いたので試しに設定
https://i.imgur.com/o18GxIQ.jpg
わりと絵柄へのLoRAによる侵食を抑えられてるんやないかなこれは
まあAbyssOrangeにしては背景死んでるんやけどね… >>31
ワイもこれ一敗してるわ
このエクステンションでしか遭遇しない事例やから気付きにくいねんな 金があるならマジでRTX4090一択だな・・・
いつものゲフォなら最上位ってその下と対して変わらないのに4000世代だけは最上位が強すぎる
https://i.gzn.jp/img/2023/01/26/stable-diffusion-gpu-benchmarks/01.png >>78
3060の4倍の性能やんけ
しかし3060なら10台買えることを考えるとコスパはやべーわ
そんなにパソコン組めへんけど kohyaでxformers動かなくて困ってるって言及してるpaperspace民って多分みんなproのA4000民なのかなって思ってるんだけどgrowth民で成功してる人っておるん?
A100でxformersだと解像度どれくらい行けるもんなんやろ ふたなり玉無しスクワット両手に茎派のワイ
今日も金玉描写とまんkにtmp挿入されて惨敗
なんか基本的に間違ってんのかなほんと、、、 >>82
キンタマくらいなら消しゴムで消せばええんや 百合と言えば前スレの冒頭にいたあだしま可愛かったわ >>72
うおおサンガツ!いろいろ楽しませてもらうわ🙏 katanukiで綺麗にならなかった時って残りは手動でやるしかない? そもそも背景削除はオリジナルをCLIで使う方が精度高いからkatanukiより使ってないわ
単に使ってるモデルと設定値の違いだろうからソース書き換えれば同じことkatanukiでも出来るんだろうけど 挿入されてるのをインペントで消したり金玉を消したりしても
こういう風になってしまうのよね、、
https://imgur.com/RmQzOTg
>>83
インペイントで消してもまんk書かれないで金玉が生えてくるんや、、
>>86
ふたLoraって金玉ついてこない? >>89
フタナリlora入れて金玉だけネガに入れたら消えたような…testiclesってネガに入れてみたらどうや? プロンプトでもそこそこ玉無しふたなりは作れたとは思うけど打率低いのよな
ワイが作る時はpenis使わずにerectionで生やしてる >>68
ほんまや誤読してたわ
そんで:の後じゃなくて直前に,やった
(6+girls talking, looking at each other, laughing,girls clowd,armpit,fun water play,happy,:1.5)
:1.x)の前にカンマ入ると効かなくなるんか今まで生成しまくってて知らんかったわ…そうとうやらかしてたで LORA学習したい画像突っ込んでbat叩いて<lora:ほにゃらら:1>で反映させてるだけで満足した結果が出てるんやが、
画像に同梱するテキストファイルやらタグ付け?やらまさのり化画像はあったほうがええんか? 前スレ>974
catboxは画像上げるとこやと思うやで。
近くにmega.nzのURLあらへん? >>38
試したんやがあの独特な形のモデルが無いからかスヌーピーに出てくるチャーリーブラウンみたいな奴しか出んかったわ
学習率が悪いのかもしれん >>35
俺が10月下旬に買った時より10万安い
SSD4TB追加してメモリ128GBにして同じくらいになる
かなり安い 最新の最高性能のパソコンって『(少しでも早く高性能な環境を使うための)時間をお金で買う』っていう面が強いだろうしな
お財布厳しい勢としては、素直に3060の次世代ポジションを待ってる マンコが破綻するのをどうやったら直せるんや…
わいは疲れた
basilとddim使ってるんやが😭 そこそこのPC買っても夜通し生成とか電気代かかるからやらんくなったし
3060で1024×1512のhires.fixなら3分で出来るから、適当に起きてる間にガチャって良いの出たらシコッてPixivに貼るだけになったわ
100枚貼っても1枚貼っても閲覧数変わらんしな
学習目的で買うにしても1024×1024の学習ならクラウド前提みたいやし >>99
少し高いが4070tiしかないやろ
ローエンドでVRAM12GBのグラボはもう出そうにない LoRAするときの学習用画像と一緒に入れるtxtファイルの内容は、結局どうするのがベストなんや
「呼び出し用ワード,1girl,simple background」だけにしとるんやけど、これよりもっとええやり方がある感じなんか?
タグとクラスとキャプションの違いもようわからん >>99
残念ながら後継は絶対に出ない
そもそも3060にvramが12GBも載ったのはイレギュラーなんだよ
だから珍品扱いなんさ >>105
civitaiのLORAあんま良いのないけどな
ブルアカのLORA上げてる人のがアビスオレンジなら使えるぐらいか 錦鯉ののりのりまさのりダンスのLora作りたくて吉田アナの解説動画使って学習させてたんだけど服装ばっかり真似してポーズは全然真似してくれないわ…
案外ポーズの学習って難しいのかな >>102,104
よ、4年後ぐらいには出てるからっ…… >>101
1024での学習なんて意識されとらんかった時期と現実にそれやる奴が現れだしてからの今じゃ判断の基準が完全に別物になってると思うわ
今から学習やろうと思ってる層は4090買うよりA100借りる方が良い >>101
>>10 >>11 の画像、2048x1536で1枚23秒や
1024x768のアプスケ2倍 step25 DDIM hires.fix で4090だとだいたいそんな感じや
10連アスカベンチ10秒3くらいで32it/sくらいだから
13900kf4090の組み合わせで高速最適化した場合の平均はここらへんやね
4090は高いとは思うが
そろそろみんな4070tiにするべきや ワイは3080 12GBで当分は戦うで
Loraってやつに感謝だ てか海外産のLoraほとんどアビスオレンジでしか使えないよな >>109
一枚のloraでデフォルメ顔まで再現されんのか
もう魔法だろこれ >>108
フォトショとかで色相を変えたりimg2imgを小さくかけて服の統一感をなくしてみるとかどうや?
いっそアニメ塗りにしたのを混ぜるとか >>105
盗賊王が毎回アニメキャラタグトップに来るのほんまさぁ… >>119
それがよさそうやな
実写ならいっそ学習元をbasilにってのも考えたけど上手く行かんかった
str0.6くらいでポーズ保ちつつi2iしてある程度背景や服装をランダム化、そもそもの学習素材を調整する、って手法はポーズ学習には汎用的に使えるノウハウな気がする >>116
webui知る前ゲーム用に3080の10G買った俺は涙目や >>129
ええやんええやん
1400stepsに2時間とか言われたがA4000でも一応1024学習が動き出したわ は?大きな事言って非公開にしてなかったか?
当人じゃない別人とかじゃないの 今朝物理メモリ足りなくて768で学習できない言ってた者やけどページングファイル拡大したらいけましたわ >>74
時間おいて同じ条件で再チャレンジしたら学習し始めたわ
同じGPU・環境なのに何でさっきは Killed で止まったのかさっぱりわからん…… キャラ再現loraで解像度上げる意味ってあるんかな 解像度上げると瞳の再現度が上がる気がするわ ※個人の感想です >>141
もうワークフロー書き換えたんですけど😡 4chのLoRAってみんなMEGA課金してるんか?
無料やと速攻止まるわ
liteに1ヶ月だけ入ってその間に全部DLする感じなんかね 全部落としてもどうせ試せないから説明文見て刺さったのしか落とさない 前に更新した時にHN設定バグってるの気付かずに生成してたんやが、バグ修正してからその時の絵柄を再現できんくなってしもうた・・・。あの頃に戻りたい・・・。 欲しいのは体位LoRAやわ
作ろうと思った体位LoRAをシュバッと刺してジュボッと挿入してビュバッと生成できるようになれば最高 トレンドでジェット風船って見てそんな勢いで出すのかと思っちゃった 試しに解像度1024でもやってみたら使ってるVRAM10GBくらいなんやね
RTX3090で正則化画像なし7600ステップで4時間程度かかる見込み
https://imgur.com/a/er21iGu.png 噂のローラが気になってとりあえず🤗から色々落として使って見てるんやが
これ二次エロ同人捗りまくるんやないか? >>152
ギンッてなるやつが出てきたらもちろんビュッやで 小紅ちゃんの生首画像集めて着せ替えlora作って胸を盛りまくりたいけど学習データ作るのが一番面倒やな 画像加工もだけどタグ管理も大変やね
量産してる人には頭上がらんわ キャラLoraで四肢や手の奇形率上がったんやけどこれ解消するには素材の手足消せばええんかな? 去年末から画風LoRAで試行錯誤しとるけどAIちゃんのご機嫌とるの疲れてきたわ。「この変数がええんか?こっちのオプションがええんか?」 どうだ、暖かくなったろう(エロ絵ドババババババババ) >>154
DLサイト、ファンザ「はい審査に2ヶ月~半年待ち!」 >>164
AI技術が進歩早すぎて陳腐化待ったなし😢 NovelAIしか無かった頃ならまだしも学習で絵柄変えればAIだと判別出来なさそう >>165
今頃審査にかかってるやつなんてマスピ顔の量産型やから、
今出たところで、あの頃の絵柄だなぁってホッコリしそう
ホンマに流れ早いわ 5月に販売で1個審査通ってるが発売直後に差し替えてええやろか >>165
いやホント
まだ販売待ちなのノベルaiのマスピ絵やろし >>169
差し替えも審査あるけど待ち時間どうやろな? AI自体を規制する方向より、AI利用したらAIってちゃんと記載するみたいな人間側にルールを課すみたいな方向性の住み分けになりそうだよな
まぁdeepfakeなんかと同じだよな
それはそうと配布Loraそのまま使うよりデータセット貰って自分で学習した方が自分の使ってるモデルと親和性高くなるわ
パラメータなんかはほぼ同じなはずなんやがな🤔
https://i.imgur.com/xJolN37.png >>171
それ怖いから発売した瞬間に差し替えたろかなと
そこから半年伸びたら知らんわ あのTHE☆NovelAI産!みたいな顔のことをマスピ顔と呼ぶことを今知る
楽だから許して >>161
たまに考えると怖くなるけど実際どうなんだろう?
RTX上位機種で毎日長時間学習を1ヶ月は結構高くなりそうだけど
3060ぐらいで1時間程度の学習を月に10回程度ならそこまでいきそうにない気がする >>177
3060だとPL70%で120Wくらいらしいで AIで絵師は駆逐される!みたいな話もささやかれるけど言うほどそうならない気がしなくもない
だってAIはAIでクソめんどいもん… 1月の電気代が6万円だった・・・
さすがに震えてる >>180
金持って時間余裕あるやつがより先に進むと思うわ
資産家の中学生キッズが液ペンタブだけじゃなく4090も持つ時代くるで パワーリミット50%でも大して生成速度変わらん事に気付いたわ
ちょっと性能増やすのにどんだけ電力バカ食いする設計にしてんねん アフターバーナー設定しながらFFベンチマークやると無駄にぶん回してるのよく分かるわ いまさらサンイチ
https://i.imgur.com/IFTXxgH.png
https://i.imgur.com/r1iAw5Z.png
lora触ったけど画風はやっぱDBやないかな・・・
キャプション付けても呼び出しがとっ散らかるからイマイチだし
DB方式でやるとDBに勝てんしで
逆に呼び出しが一貫するキャラ再現やとDBよりキャプション付けたloraな気がするわ知らんけど >>184
うちの3060だとPL55%で速度80%だったわ 体位LORAが絵柄に致命的な影響与える時点で絵師が死ぬことはないわ
なお複数人描けて複雑な構図をこなせる絵師に限る
フルネルソンは成功率めちゃめちゃ高いし絵柄に影響無いの謎すぎるで >>180
現状ゲーミングPC持ってて、ある程度PCに対する知識を持ってて、英語やGitHubみたいな技術系のサイトに抵抗がなくて、エラーに直面したときに自力で解決出来るくらいの検索力も持ってる…って考えると結構ハードル低い訳ではないのかも
そこからさらにAI絵に加筆修正できるだけの画力もって考えると相当限られてきそうではある
イラストレーターやそれを目指す人はAIなんて下手に使ったら逆に企業とかフォロワーの信用落としそうだし、表現も画一的になりそうだから使わない方が良さそうだけど… >>161
497 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2bff-DlTd) [sage] 2023/01/10(火) 19:45:42.28 ID:U2IF4s890
>>485
4090を1時間ぶん回したとしてグラボ単体の電気代が10円前後、1日5時間1ヶ月回して1500円とかそんなもんよ
らしいで
>>182
マジで?
それって画像生成やりだしてから?以前はいくらやったん? 絵柄に影響を与えないLORAってデータセットの絵柄とキャラが全部バラバラなんやろうか?
同じ絵柄が2枚あるだけで影響出ちゃうならデータセット作るのめっちゃ大変そうやな >>179
学習じゃないけど画像生成してる時の消費電力見ると最大158W程度だからPL70%だとそのぐらいか
電気料金の単価が大幅に上がらない限りは気にする必要なさそう LoRA流行ってる中、DBリアルモデルニキ待ってるワイ… 電気代喰うのは学習なんよ
DBブン回してみればわかるで 多分絵柄に影響ないやつ数少ないLoraは正則化ちゃんと使ってるんちゃう?
4chは正則化使わないのが主流みたいだし >>189
十分ハードル高いわ・・・今の20歳前後とかキーボードもまともに打てんのやぞ kohya-ss,0.4.0からlr 1e-3がって話あった気がしたけど、ドキュメント見当たらないけどこっちがいいのかな?デフォの1e-4でいい? >>180
このスレでそんな事思っとるやつほとんどおらんやろ
AIで出来る事と出来ない事はっきりしとるし
AI生成やればやるほど手描きできたらなーって思うで お気持ちだけど、絵を描くっていう行為が楽になっていく方向性は正しいと思うわ
漫画家とか腰やら目やらぶっ壊しまくってるしな >>196
俺らの頃はタイピングゲームで自動的にホームポジション覚えてたのにw 今のところ1e-3で困ってないわ network dim は脳死で64か128にしてる 個人的に学習データが悪さすることの方が多い気がする lora再チャレンジをとしあきの方法で試したんやが
バッチ起動したら文字化け~は、内部コマンドまたは外部コマンド、操作可能なプログラムまたは、、みたいな表示が出て止まってしまう
何が悪いかわかる人教えて欲しい LoRAでソシャゲ再現やってるけど服装が学習素材に引っ張られまくるわ
自由に服着せるには顔だけ切り抜いて学習するのが良いんか? もっと抽象化して「イメージを具現化する労力が減少するのは良い」っていったほうがいいか
>>197
1e-3は0.001、5e-5は、0.00005、 1e-4"は0.0001で極小になるほど精度が上がって最適解に収束するらしい >>203
画像のタグから頭の上関連のタグを抜いてオリジナルのタグを付けるとその顔とタグが紐付くってやつ今のところ上手くできてる >>178
NAIちゃんよくペン置いて人間アピールしたがるよな 学習率下げれば精度は出るが時間がかかる
自分は1e-3でダメだったら1e-4に落としてそこから調整する
1e-3でダメな奴って大体素材が悪い奴 アナルゼリー排泄におトイレ行ったけどギリギリ間に合いませんでしたわ部や
https://i.imgur.com/1DsW4jO.jpg
https://i.imgur.com/fR2C4N4.jpg
https://i.imgur.com/1YQYe8A.jpg
https://i.imgur.com/xpbDdrX.jpg
本気で出来いいのできたら配布したいなぁと思いつつ
作れば作るほど粗も見えてくるから公開にはまだ遠い
これいい感じになったけどdildoに一部学習が吸い取られてて、
ひり出すにはdildo入れないとでゴミ生成率が割とあって未完成
前貼りも頭見切れやすくて未完成
サクサク公開できてる子が凄いやで >>207
学習元がドヤ顔でペンコロコロしまくってるんやろなあ 正則化画像が絵柄に与える影響か
kohya版で正則化画像無しでloRA作るには正則化画像のフォルダを引数に渡さなければ良えんか? >>205
学習素材に自動タグ付けした後に頭部プロンプトを置き換えるってことか
試してみるでサンガツ >>201
んー、収束するまでの時間の問題、もしくは値を大きくしたときに収束しないかも、問題
で収束しやすい改善はいってるし、結局素材なりによるからあとは自己判断でかな
ありがとう、1e-3試してみます >>180
手描きの労力舐めすぎ
AIクオリティの絵描こうとする努力に比べたらそんなん大したことないだろ
10000時間でスタートラインとか言われる世界だぞ >>199
漫画家の例えは限定的過ぎてピンと来ないわ
漫画は作画楽する道も既にあるし
正しいとかではなく、そうなるのが時代の流れだなと思う 弱火で1時間ぐらいコトコト煮込むなら1e-4
レンジで5分なら1e-3やな
1e-3で色々試していい感じになってきたら1e-4で完パケ目指すのが良さそう
ワイは3070なんでいつでも1e-3や 人が増える度に業界の未来について考察(笑)するのはそう言う習性か何かか? 電気代は爆上げ中だから注意ね
30円くらいの古いデータで計算してるところもあるんで
使ってる電力会社とエリア(関東・関西など)によって違うけど
関東なら今は42円/1kWhくらいじゃないかな
来月から政府の割引が始まれば35円くらいか
実家暮らしなら一声かけとかないと家族会議になるぞ 6GBでlora出来たって人グラボは何なん
うちの1660を活用したいが上手くいかない… 生成で電気代ヤバいって言ってる人は一体何代並列で回しとるんや VRAM6GBでLORA出来るならワイも始めてみようかな >>216
ワイも直感的にはそう思うし自分自身絵描きで絵を描く難しさは知ってる人間なんやが
実際には絵を描く努力とAI方向の努力では性質がだいぶ違うみたいやで
身近にAI難しくてできないって投げ出した絵師がおる コスチュームがあんま決まってないキャラ(Lain)のLoRAだったら着せ替えは普通にできた
黒白ストライプのサンタ服とか花柄のねずみ色のセーラー服みたいなイミフな服も生成された
たぶんがっちりキャラデザされてるキャラだと生首方式のほうがいいかもしれない
https://i.imgur.com/yU0aRSR.png
https://i.imgur.com/tne4kvp.png どんな要素が被って思い通りになっとらんのかとか
どのワードが効いてないんかとか
総じてAIちゃんの気持ちにならんとプロンプト作れんからな
ワイも乳首要素弱いプロンプトなのに乳放り出されて難儀しとる エクステ側は設定手順も含めると正直微妙や
としあきのbat書き換えて使うか前々からのGUI使った方がええと思う 1kw28.46円、消費電力1000Wだとしても24時間稼働で683円やし…
30日間24時間営業なら2万円くらいになるけどそんなマイニングやないし常時稼働はしないやろ? >>228
他のモデルでも通用するかわからんけどワイの自作マージモデルでは衣服の強調を強くしたら隠してくれるようになったで NMKD1.9.0
出力ファイル名でタイムスタンプが復活したのは良いんだが
出力フォルダーを開くがドキュメントフォルダーを開くになってしまっとる
InstructPix2Pixを試してTake off her underwear等で裸にさせようとしても肉塊になるんだが
Dye hair black
https://i.imgur.com/0Fihs7C.png
黒くなりすぎや >>231
breastcurtainsのLoRA入れてて
乳首が透けたり布から乳輪はみ出たら嬉しいなおもて[light pink puffy nipples:0.8]だけ入れてるんやけどな
乳首放りだしよるねんな
服のプロンプトが乳首に負けとんねんな
どうにも狙った感じの服が出せんわ
https://i.imgur.com/IMFo4FF.png
https://i.imgur.com/Bi9oASB.png ワイLoRA出てから学習触ってるからイマイチ分かってないんやけど
Dream Booth モデルに新規の学習をさせて希望の絵を出やすくする
LoRA モデルの補正を強くして希望の絵を出やすくする
って感じで合ってるんか? loraならvram8で行けると聞いて初チャレンジ~~頼むでーー >>235
Dream Booth ベースモデルに新規の学習をさせた新しいモデルを作る
LoRA ベースモデルに新規の学習をさせたモデルの差分ファイルを作る
本来はLoRA+ベースモデルのマージで新規のDBモデルを作って使用する形だったが
マージしなくてもLoRAだけ適用して使えるように進化した
またDB-ベースモデルの差分をLoRAとして取り出すことも可能 5万5000円でVRAM16GB積んだグラボがあるらしい() コスプレ用にキャラの顔LORA手軽に作るのトライしてみたんやけど案外うまくいったで
・キャラの顔がいい感じの画像を集める
・証明写真のように切り抜く
・キャプション無しの連番で10_(トリガートークン) faceにぶち込む
・学習走らせる
・(トリガートークン) faceで呼び出す 強度が足りなければ調整するか、惜しいところを(トリガートークン) hair、eyes等とプロンプトに追加して様子を見る
注意点は
・服が入り込むようなら同じ服着てる画像をたくさん入れない、なるべく色々な服を着てるようにする
・頭にアクセサリー付けてて残したくないなら消すか他のアクセサリー付けてる画像や付けてない画像混ぜてランダム化する
・もちろん背景も白かランダム化する
ぐらいやね >>222
メモリを節約する代わりに遅くなったり微妙に制度落ちたり内容ブレたりするオプションがいくつかあるんだけどそれを全部盛る
--xformers
(メモリ足りてても速くなるから使えるなら入れた方がいいが環境を選ぶ)
--mem_eff_attn
(xformersが使えない環境でメモリが足りない時に使う、xformersと同時には使わない)
--mixed_precision="fp16"
--gradient_checkpointing
--use_8bit_adam
--cache_latents
(使わなくてもメモリ足りるなら外す) >>239
これでコスプレ先のキャラの頭部装飾とかまで受け入れてくれたからお手軽でええんやけど
・元が証明写真みたいな画像なので顔のアップという概念を学習してしまう
・顔の絵柄を学習してしまって生成画像全体がそっちに寄る
のが目下の問題点やね
顔のアップはこの概念を表すズバリなワードを学習に追加するか、生首法みたいに位置大小様々な顔を作ればなんとかなるか >>237
はえ〜
絵の出来だけ見るとどっちでもええって感じなんやね 新たなloraの使い分け方法を発見してしまった…これは革命だ… どうでもいいけどToolkitでAnythingV3のVae抽出して使ったら
どんなモデルでも色褪せた絵を作れるようになったわ >>242
普通に使う分にはVRAMも少なくて敷居の低いLoRAの方がええ
ただ色んなモデルに適用出来るとは言え、向かないモデルに対してLoRA使っても劣化した絵にしかならん
そう言った場合は同じデータでモデルつくるか、配布LoRAならマシなのに適用して層別マージとかで調整するとかやな
LoRAも万能やないで 今ってネガティブプロンプトは前のように入れまくるのが良いのか、バッドプロンプト、ロークオリティ位にシンプルにしてそれから付け加えていくのかどっちがええんやろなあ。
マジナイに上がってるなんか良いやつってプロンプトもネガティブもシンプルだったりするのよね >>246
マージモデルは込み入ったプロンプトを入れると崩壊する傾向があるからな
構築初期は短い方がええと思うで ネガ滅茶苦茶多いのってseed固定して調整した産物やないの?
初めから多いといざ消したい要素出てきた時に邪魔になるだけやろ https://i.imgur.com/TEX15Nc.png
Loraで作り直したほうが配布が簡単で野獣AIが普及する可能性が濃いすか? 学習時にキャラ(モチーフ)、画風、なりを選べるといいけどね。
処理レイヤーはだいたいわかってるから、できそうだけど
とはいえ、レイヤーはnaiベースだからだいたい決まってるだけ、かなあ キャラの顔を学習させたいときに、造形だけを学ばせて、絵柄はベースモデルを維持するには
結局のところどうしたらええんや
LoRAであれこれやってみてるけど全然アカン…元の絵柄に引っ張られまくりや InstructPix2Pix使いたいんやけどモデルのinstruct-pix2pix-00-22000.ckptを読み込むときにエラーが出てしまうわ
エラー見ても全然わからん誰か助けてくれ
RuntimeError: Error(s) in loading state_dict for LatentDiffusion:
size mismatch for model.diffusion_model.input_blocks.0.0.weight: copying a param with shape torch.Size([320, 8, 3, 3]) from checkpoint, the shape in current model is torch.Size([320, 4, 3, 3]). >>253
naiでLoRAするとうまくいくけど過学習ちゃう
てきとーアルクでもAOMの絵柄になるで
https://majinai.art/i/LxtUZrJ.png >>233
instructPix2Pixは出力の際にフィルタリングしてて
NSFWの出力が出ないようにしてるって昨日見かけた
詳しく知らんけど裸にならないのはもしかしたらそれが影響してるからやろかな ハッシュidを過去verしても丸々過去環境にならないのかな。12/29のDBが欲しい。 Lora よりもそれ以前のdream boothの方が再現度がいいんだよな、うちの環境だと。 >>249
これはきっと、後世に伝えるべき歴史の幕開けの1ページになる >>180
でもイラスト界隈でもこっそりAI使って生産性あげてる絵師が優位になってるのはある
ボディビル業界でプロは隠れてステ使うのが前提なのと同じ感じになっていきそう >>249
なにか始まりそうで全く何も始まらなさそう 造形の学習はうまくふんわり行ったけど
なんか白黒というか色がうっすーーくなるようになってしまった
これはなんでなんです? プロンプトにLoRA書けるようになったからdynamic promptsで必要なときだけ使えるかと思ったんやけど
もしかしてdynamic promptsよりも前に適用されるんか? 初心者でウブなワイ、学習なんてまだとても手が出せないのでt2iでシコシコ画像を作る日々
色んなモデル試したけど、装飾とか盛り盛りにしたいので結局は元のNAIちゃんで作るのが一番ツボるらしいと思い始める
他にも華美とさと下品さの両立ができるモデルってあるのかな?
今作ってるのはこんな感じだけどもっとアニメ的でもリアル系でもいい
https://i.imgur.com/myh27Tl.png
https://i.imgur.com/GoM8muU.png
派手とエロが両立できればたぶんなんでもいい
ワイの性癖的にアジア系はアカンのでbasilは合わんかった
自分で作った画像を集めて学習させればええのができるんやろか
フェラだけでなくバックとかも出したいけどNAIちゃんじゃフェラくらいしか安定しないし >>259
それは間違いない
AI使えて絵も描ける絵師が一番強いやで
ただ、そこまで増えるわけではなさそうと思った >>249
mad動画の素材つくり放題だけど使いこなせる人が少なそう
要求される技術が多すぎてmadの数自体が減ってる >>255
naiをベースにしてやってみたんやけど、全然アカンかったんや
ベースはnai固定にしておいて、学習のパラメータとかいろいろいじってみるか… >>267
呼び出すときにキャプションに使ったプロンプトも入れて見たらどうや?
インスタンスプロンプトだけだとワイは微妙だったは >>269
学習用素材はほぼ顔アップにしとるんやけど、
素材入れとるフォルダ名は 「10_呼び出し用タグ」 にして、
テキストファイルの中身は全部 「呼び出し用タグ,1girl,simple background」 でシンプルにしとる
これだけやと過学習おこしやすい感じ? 10_balloonのフォルダしか置かないなら1_balloonにしてepochかstepsの最高値を10倍にしても一緒って認識なんだけど合ってるよね? >>270
ワイはそこまでやり込んでないから分からんわスマン >>12
このタッチキレイ。モデル、何を使ってるんです? https://i.imgur.com/f2eXway.png
あー可愛い
昨日の学習よりは奇形も減って良くなった
katanukiして更に消しゴムで残ったエフェクトとか消さなアカンやな
でもAOM2hardなのに背景がしょぼすぎるわ majinagiにあったね。
同じモデルでも絵のクオリティが高いなー >>272
いや、アドバイスくれたおかげでもうちょっとやってみようって気になれたわ
サンガツ >>240
サンガツ
オプション入れ替えてやってみるわ LoRAで学習素材にタグ記述したテキストファイルを用意する必要があると思っとるんやけど、
これってTIやHNの事前準備で画像のPreprocessで作成されるテキストファイルを流用するんじゃアカンの?
あれもDeepdanbooruで自動生成したタグを列挙したファイルやと思うんやけど、wd14_tagger使わんとアカン理由とかあるん? >>278
人間産のイラスト眼鏡ってパース狂って折れ曲がってるのばっかなのにAIのほうが上手いな >>281
そもそもイラストは学習元のほんの一部で大部分は写真から学習してるからね
なぜかイラストのみから学習してると勘違いして的はずれな議論してる絵師様が多いから忘れそうになるけど 俺みたいな赤ちゃんでもLoRA拾ってきたらキャラ再現できるな
すげー技術だ >>280
WD4の方がタグ付けの精度高いと言われとる
解像度1024で学習し終わったが512でやったときとクオリティ変わらんなぁ…学習画像が良くなかったんかね
あと体位LoRAだからキャラの特徴いらんだろと思って省いていったら逆に全然狙った体位出なくなったわ >>284
どんなワード省いたの?体位Lora作りたいからもうちょい詳しく教えてくれ これだけloraで自由にできるならもうwikiのプロンプトの項目全部いらないんやないか 画像3枚を5分ちょっと学習させただけでワイの10年画力再現されて草生えますよ
フォロワーはワイの絵がAIに切り替わってることに気付いてない 早く帰ってloraの古見さんパンパンに肥えさせたいンゴねえ >>288
3枚で再現するレベルまで学習してると過学習で同じようなアングルばかりになりそうやな >>287
wikiはnovelAI部と共用なので消したら怒られますね キャラ再現のloraって顔画像だけにしたほうがいいのか? >>285
髪型、髪色、目の色、表情、服装、年齢辺りやで
んで自分は足コキを作ろうとしてたから1gil,1boy,hetero,spread_legs,footjob〜みたいのを残した感じや そもそもあのwikiはトップに堂々と「プロンプトを研究するwiki」的なこと書いとるしな >>294
集めた足コキ画像のタグからまとめて消したって事かなサンガツやで
ワイもちょうど無駄そうなタグ消そうとしてたから気を付けるわバックアップしといた方がええな さすがに「プロンプト要らない」は暴論だと思う
それでもプロンプト要らないと言うのなら、それ相応のLoRAを大量に放流していただかないといけませんねぇ……うっへっへっ(ゲス顔 いらん要素はいらん要素で別のタグにちゃんと吸収してもらわなあかんのか プロンプト研究大事やでー
モデル生成後に色んな構図とシチュをダイナミックプロンプトでランダム生成するのが楽しいんじゃ
バリエーションは多いほど良え 体位Lora作るときに無駄そうなタグ削るのって、要はとしあきWikiのマルゼンスキームと一緒だよな?
やっぱあれ成功しないよなワイも駄目だった 現状LORAはキャラ再現に使うのが一番向いてるわ
体位再現はhires.fixで崩壊したりキリが無さすぎひん? 拾ってきたバキュームフェラLora凄い
ただAbyssOrangeでも絵があんまり奇麗にならないのはモデルのせいなんかな >>281
AIって不自然さを自然に見せるのが上手いから目の良しあしで騙されやすい
少なくとも今のとこ人間よりAIの方が描けてるって下手に言うのあまりおすすめせんで LoRAで興奮してたがモデルの画風が損なわれるのに不満を感じ出してて欲望に再現がないと思う キャラ再現は割とキレイにできるのに
ポーズ再現はなんで画風が崩れるんやろな
やはりSD本体の進化を待つしかないのか git pullしたら大量のエラー出てgenerate出来なくなったんだけどどうすりゃええんや……
助けてクレメンス >>308
DBでポーズ埋め込めばええやん
結構的中するで Loraを弱めに適用して元の画風を残した画像を出す
当然意図した体位になる画像は減る
しかしそれを厳選した上でそいつを素材にして学習をやり直す
これでAnything顔Loraの完成や
時間と二酸化炭素排出量ががいくらあっても足りんな やり方は色々やな
ちゃんとキャプションを書いて覚えさせない要素をそこに吸引する(トリガーや1girlに覚えさせない)
覚えさせたい部分以外がランダムになるように学習画像を調整する(覚えさせたい部分以外を収束させない)
等々
ただマルゼンスキームは絵空事やと思う
キャラ出すためのLORAとコスプレ用のLORAや顔LORAは分けて作った方がええ Colabの制限がきついんでKaggleつかってみたけどよくわからんな
Colabとメモリの量変わらないっぽいのにVAE使おうとするとメモリ不足になるわ モデルデータの画風を出しつつコスプレさせたいなら厳密な意味でのな再現では無いのだから
自分が認識できる程度にそのキャラの要素が残ぐらいにLoRAの適用弱めにするのははもちろん学習自体も緩めにするとええで
顔の細部ディテールや細かい装飾は維持しつつコスプレさせて塗りや造形だけモデルデータのものってのはかなりの難易度や
学習は塗りや線のタッチも含めて学習してるわけやし >>309
エラーも貼らずにエスパーしろってのは難易度高いで
その情報だけならgit cloneやり直せ/venv消せぐらいしか言えんわ >>315
やっぱ venvフォルダ丸ごと削除して起動し直すのが手っ取り早そう git pullでコミットが一気に取り込まれるあの感覚は快感なんすよね venvが悪いんじゃなく何も考えずにpullする人間さんサイドに問題が エラーの波が押し寄せてくる
SD scriptsの更新手順踏んだら<は予約済みだから使えませんとか言われて詰んだから入れ直したググッたらPowerShellの仕様みたいだけど書いてるってことは普通は出来るんやろな 古い拡張機能とぶつかってるパターンもあるからな
更新する時はまずコミット履歴見てからアプデすべきか検討して
IssueとDiscussionで不具合の話題を確認してるわ >>315
まずは拡張機能を全部無効化して起動できるか試せ
(extensionsの中身を一回全部移動させる)
俺も午前中にgit pullしたらエラー大量に出たけど
拡張機能の一つが古かったのが原因だった ワイも昨日今日でエラー出たけどdynamic prompt拡張が原因だったわ 言われたこと全部やってみたけどまだエラー出るわ
おわた どうせpullせずにいられなくなる機能や新しい拡張がここまで2週間に1回くらいのペースで来てるんだからpullして動かなくなっても自分で解決出来る人間になる方がええよ エラーコードをChatGPTにぶん投げれば大体解決するだろ >>202
ワイ多分同様のエラー出たけど
rem ※オプションの追加、削除時は^記号に注意
rem 最後の行には^は付けずにそれ以外は ^(半角スペースと^)を付ける
の2行を丸ごと削除したら上手くいったわ 1111ニキにふるい落とされないよう環境は3つ立ち上げて対抗する ワイ、分からなくなったときは0から立て直しマン
調べて試行錯誤するより早いねん 画像用意して学習させるんじゃなくてガチャして出てきた画像を元にLikeとBadで学習させる機能が欲しい 全てのバックアップを取って0から組むのが1番勉強になるわ >>338
1111仕事早すぎだろ
git pullしてくる サブのリポジトリのコミットハッシュが一部は指定されてるけど全部じゃなくてしかも起動の度に勝手に引っ張るからメインのリポジトリをpullしないまま保全しといても安定版として担保する機能働いてないからpull見送る行為にあんま意味無いんだよなautomatic1111の場合
むしろしてないばかりに動かないパターンもあるから拡張含めて常に最新保つ方が安定するまである ガチャガチャいじってたら直せたわ
そんで前と同じ画像生成しようとしたら違うもの出てきたんだけどこれなんか仕様変わったんか? hiresfix変わったのか
これ何がどう変わってるんや すげー
既存モデルをpix2pix用にコンバートできるんか
これで構図完全保持でモデルの絵柄に寄せたりできるやん マルゼンスキームは成果報告皆無
技術部で服だけ覚えさせて着せるのは成功してる
としあき 無能 4chのマリーちゃんの配布Loraがほぼ別キャラ並に違う別の髪型と衣服(同じLoraでやっててもほぼ完璧にプロンプトだけで呼び分けられるからあの方向性目指してるんだけどマルゼンだけじゃ足りない何かがあるのかなあとここ数日ずっと試行錯誤してる pix2pixのプルリク作った兄貴980Tiで頑張ってるのか
それに比べてワイらは4090で精子を垂れ流すばかり そういやあのマリーちゃんってデータセットも配布されるんだった
そっち検討するの忘れてたわ
と思って見てみたけど大して凝ったタグの切り分けはしてなかった
単に素材が良いってことか LoRAに付いていくのがやっとでpix2pixぜんぜんわからん 最近勃たないんだよな
NAI知った数日間は枯れると思ったのに ワイはNAI系じゃ全くチンピクしなかったのに
Basilで一気に暴発したわ 画像数が各衣装で120以上あるな…
やはり数が正義か…
あんまり厳選しようとせず数をはたすら集める方がいいのかな
質は数が均してくれるか anlasを追加で購入しようとしたら、error code 188が出て購入できない
残高は十分にある
paypalでvプリカを利用しているんだがどうしたらいいんだ >>356
噴出されるウンコをアナルゼリーに替えてくれる奴 pix2pix自体はstable diffusionの遠いご先祖様。絵から絵への変換(i2i)を初めて実用的なレベルで可能にしたAIモデル
いま騒がれてるのはInstruct-pix2pixっていうi2iに特化したSDのモデル loraで出したキャラ再現の背景だけpix2pixで変えられるんかな? なんとなくは理解したけどwikiニキが分かりやすく書いてくれるの待つ🥺 >>353
すまんちょっと参考にしたいんだけどリンクかページ特定できるワードとかもらえません、、? すごいi2iでフルネルソン構図一枚で色々なキャラや背景に置き換えられるようになるんか 素材集めてる間に適当なプロンプト流用で生成しとこうと思ったら
おもったよりエロイ強制露出メスガキポリスが出来て弄ってる間に日没
arms behind head, squatting, すれば雑に反応する下半身が憎い
https://majinai.art/i/KTec7LV.png 色んな構図はおっさんがエロポーズしたものになるのか >>354
自分も基本はその宗派なんやけど逆に数がひたすら多い学習って一度もやったことなかったから1回くらいはやってみようかなって思ってる所や
>>364
/folder/2uYkWQiA#GlVNAYXubskusIMbrmVOGQ
URL貼るとよそやれ食らってまうから上にmegaのドメイン足して 身体固くてフルネルソン自撮りを自力ではやれないからホモに後ろから支えてもらう必要があるな >>254だけどwebui最新にしてvenv消したらInstructPix2Pix使えるようになったわ
同じ症状の人いたらとりあえずwebui最新にしてvenv消しとけ >>369
サンガツ!マリー再現うまく行かんくて困ってたから助かる Instruct-pix2pixてちょっと前ツイとか技術部で触れてた人居たけど1111に来るのか
CG人形から精度高いi2iしてたけどそれかまた革命や! >>360
自撮りでも良いし、アニメとか映画のワンシーン切り出しても使えそうだな 一日単位で浦島太郎になるような機能を載せてくれるなぁ・・・ pix2pix昨日使った時は髪型変えようとしただけで
キャラの顔が欧米バタ臭顔に置き換わったり
全然指示に従わなかったりで使い物にならないと思ったのだけど
顔がイケてるモデルを使えるならワンチャンあるのか 4か月前から触ってるからある程度理解できて応用できるけど今から入ってくる奴ら大変そう
ってか4か月しかたってないやん 新入部員「画像を精度良く編集できるようになったんすね!先輩達はすげえや!」
部員「何それ知らんわ怖い」 pix2pixはプロンプトの書き方が分からなすぎて制御出来んのやが、
>>338のならもうちょい言うこと聞いてくれるんやろか つかマリーちゃんの人はどうやってトレーニングしたのかのノウハウもREADMEに詳しく書いてたな
あんまりタグ削ってないように見えたけど表情やカメラアングルに関してはむしろかなり丁寧に足したとある
そういう所のほうが重要ってことか >>380
pix2pix用プロンプトこそ割とchatGPTの得意分野な気がする やっぱおかしいわKaggle
なんでwgetで4Gのモデルダウンロードしただけで
Disk7.7GB、RAM6.2GB消費してるんだよ
しかもダウンロード終わったのにメモリ消費したままなんだよ Paperspace Pro アカウントにしたのに 1 つしか notebook 動かせないよお
Running Notebook limit: 3 って言ってたじゃんかよお
まあ 1 つしか動かせなくても全然安いからいいけどお
https://i.imgur.com/panjHd8.png 二か月前のワイ「novalaAIとかいうサービスでエロ画像作り放題や!」
一か月前のワイ「ローカル環境ならもっと好みのエロ画像作り放題や!」
2週間前のワイ「TI使えばさらにとがったシチュやキャラ盛り込んでエロ画像作り放題や!」
一週間前のワイ「LoRA使えば手早い学習でエロ画像作り放題や!」
今のワイ「pix2pixならもっとエロ画像作れるんか!?」
ワイという出力用フィルターだけが進歩していない んあー?free tier notebook が 1 つだけってことは 1 時間幾らの追加料金のかかるやつなら 3 つまで動かせるってことかよお
なるほどなあ LoRAとipix2pixって用途的に競合しなさそうかな? 前スレでLoRAのワークフロー貼ってくれたlainニキ、
ABさんの絵柄学習したLoRA見かけたから貼っとくやで。
mega.nz/folder/tJBjmCYD#Lvl1ykKDsFOeZp-DlnAjfg/folder/pAZSFBoC もしかしてpix2pixならラフを完成まで持ってくとかそういうのできるんか? majinai眺めとったらしずかちゃんいて草 もう何でもいけるな 野原みさえですらいけてしまいそうな勢いだし、しずかちゃんとか余裕のよっちゃんよ pix2pix
元絵 https://imgur.com/a/IojWW61.png
↓
プロンプト Change from night to day
↓
出力絵 https://imgur.com/a/KI58GaC.png
こんな感じかな?
プロンプト制御がまだよく判らんが…… 本体アプデしたらout of memory出るようになっちゃった
生成中の画像表示が良くない気がするんだけど、設定で無効にできるかな colab無料民やからlora拾ってキャッキャしてるレベルなのにまたなんか新しいのが増えるんか
ワイが次のボナでグラボ買うときにはどうなっとるんや😨 VRAM6GB やけどLORA回せたわ
このクソ雑魚環境で学習出来る日が来るとは思わなんだ >>395
英語でこれをこうしろと言うだけでそこだけ変わるんか…やべぇ Live previewsのShow live previews of the created imageのチェック外すんや 上のデータセット見たら文字入りだろうが裸だろうがセックスだろうがなんでもいいんだな
しかも背景そのままか >>395
なんか違和感あるなと思ったら人のライティングが一切変わってないやんけ!
朝やったらもっと青を入れた塗りにならなアカンで ワイの1660Tiでも拾ってきたLoRAちゃんが大活躍しとるで
西城秀樹の傷だらけのローラ聴きたい気分やわ >>395
これちゃんとライティングも変わってるように見えるけどプロから見たら違うんかな >>405
ワイも一敗したでそれ
pix2pix用のモデルそのものを持ってきてそれにモデルを切り替えてからやらんとアカンのや >>407、>>408
やっぱり専用モデルが必要なのか
instruct-pix2pix-00-22000.ckptが見つかったから今ダウンロードしてるわ
あとは素とマージモデルで確認か
こりゃまた大変なものが出来たかもしれん
つかこれ思ったけど、手とか指が崩れたNAI絵に対して
change from hands to hands with (手の形)
ってやったら、inpaintガチャしなくても指定した手の形になるんでねこれ
というか単純にhigh-quality handsでも良いかもしれんな loraって学習時にvae指定してやらないとだめ? pix2pix、なんかフォトショの色相彩度フィルタで雑に調整したみたいな色合いになるの草 change from balloon to jelly あとは表情のピンポイント差し替えが出来るなら
ノベルゲーの差分作りが楽になるかも Let that girl take a balloon.
Her expression should be shy.
Lose all the pussy hair.
And don't forget to modify the child's pussy to be closed so that you can't see the pussy's labia. 人はあんまり描く気ないんだけど、
背景とか物を描くのが得意なモデルってなんだろう?
リークNAI以外で何か無いかな >>417
実写系なら素のsd,絵ならcounterfeitになるんじゃないかな >>305
それワイも同じの拾ってきて使おうとしたけど発動せんかったのよな。タグはvacuumとかで発動した? pix2pixの一応モデルマージの方法
modelA instruct-pix2pix-00-22000.safetensors
modelB 任意のモデル
出力名 任意
できあがりはinpaintモデルみたいに拡張子が .instruct-pix2pix.ckpt と専用のものになる
https://imgur.com/a/beYrRWJ.png まずstable-diffusion-webui-instruct-pix2pixエクステ導入してpix2pixモデルも拾ってお好きなモデルとマージ
instruct-pix2pixタブでi2iする流れでええんか? >>421
せやで
モデル名を変更するのを忘れんようにな 赤ちゃんワイやっとlora学習も試すもCUDAエラーで無事死亡
そんなことやってる間にまた新しい技術来てて腰抜かしますわ としあきLoRAの出来がいいのはOptimizer変更とかやっとるんか >>421
ちょっと朝を夜にしたいとか光の感じ変えたいとか軽く試してみるだけならマージ無しで素でやっても行けるで >>406
夜絵はモニターを光源とするぼんやりした明るさだけど、昼絵は窓から差し込む太陽光が光源だから明暗のコントラストがもっと強くなるんじゃない?
人間が描くなら、胸の部分でもっとくっきりした光と影を入れて2枚の差分を意図的に強調しそう >>380
うまくいかないのは、そもそもSd1.5ベースのモデルだからアニメとかエロとかがお辛いわけよ
なので、 >>338でそこが改善されるだろうってわけね
あと、プロンプトは命令口調で書くとうまく通りやすいらしい 色々触ったけど背景弄るのが一番助かるな
これこそ漫画の背景とかCGイラストの背景の調整に使えそうだけど >>422
サンガツやで
プロンプトは何かを置き換えるとか追加するって感じな書き方なんか >>426
なるほどなぁ 修正モデル使うには絵の知識とか美的センスいると思ったわ LR1e-3でやる時ってnetwork alphaは1にしとるんか? >>430
この画像に関しては青は効いてるけどそれ以上に右のオレンジ光源の影響受けてると思うわ
一発で全部変換は難しいんやろな pix2pixモデルと自作のDBモデルとマージしたやつでお試し
誰もスライム化しろとは言ってないが?
https://i.imgur.com/O1A7INf.png
↓make her nude
https://i.imgur.com/vSsgnZq.png 今楽しもうとしたら自分で学習なのか
適当に呪文入れるだけじゃなく basil_mixをautomatic1111でdreamboothしようとしてるんやが、どうも学習中のサンプルとかが一番初めからbasil_mixと思えないぐらい質が悪い。
VAEがいつも使ってるやつが適用されていないんじゃないかと思ってるんやが、指定の仕方がわからないんやがわかる人おるか?
ここから指定するんかと思ってるが、何入れてもエラーが出る
https://imgur.com/a/BplUyBD >>420
A = instruct-pix2pix-00-22000.safetensors,
B = Whatever model you want to convert
C = v1-5-pruned-emaonly.ckpt
issueにはこうあるけどそっちでええんかな? >>435
これ何気にすごくね?
海の中の足までちゃんとスライム化してるやん >>435
でもherでちゃんと全身認識してるの凄いやん
水中の足まで判定しとる
ビキニを脱がすみたいなピンポイント指定が必要なんかモデル相性あるんかは知らんけど 学習素材用の背景きり抜き拡張機能とかも同じだけど
自動処理の類はあんまり万能じゃない感じだ
結局は手描きで修正してinpaintがマシとかに戻りそう
一括処理は魅力的だけど精度は悪いね >>435
背景白にしろって言ったらKatanukiみたいなもんになるんか? automatic1111がだめならじゃあDreamBoothをLinuxで動かすののベストは何なんや今 >>438
あー、ならそっちが正しいか
自分でやった奴やから、issueに従った方がええと思うわ、すまん サイズの保持どうやるん?output image width変えても微妙に変わっちゃうな 死ぬほど見づらいけど同一seedで所有モデルを全部出力してみた。
参考にしてくれ
https://i.imgur.com/rxON5JT.jpg 暗めの画像を学習させると白黒だと判断されて、lora入れたときに白黒だらけになるようや
素材の7割は普通の色なんだから空気読め、とはいかんのやなぁ >>438
これ元のissueどこにある?
モデルマージが平均か差分追加かを確認したい 実写チックな肉体にアニメ調の顔がくっついてるのが性癖ということにAIくんが気づかせてくれた ipix2pixのせいでまーたプロンプト研究からやり直しかよ >>443
やってみた、が…
make the background white
https://i.imgur.com/upiDuCZ.png デジタル絵描きってレイヤーを重ねていくのが主流だけど、いまのAI技術なら一枚の完成絵からレイヤーを逆生成できそうだよな
背景、人物、表情、髪、服装、風船、光源みたいにレイヤーを抽出して特定の層だけ再生成できたら色々捗りそうなんだけど >>449
おむつモデル草
25E2好みなのしれてよかったわサンキュー >>459
make baloon as chocolate AOM2-r34-SF1.1
https://huggingface.co/kiluade/AOM2R34/tree/main
多分AOM2にr34からエロ関係追加されてるやつがふたばで話題になってた
一週間以上前からあるっぽいけどAOM2マージモデルかなりの数があるからもうわからん BooruDatasetTagManager
すまんこれどうやって使うんや
色々ググったところslnファイルを実行してビルドすればよいのかと考えてVisualStudioを落としたんだがビルドするとエラーが出るんや
重大度レベル コード 説明 プロジェクト ファイル 行 抑制状態
警告 参照コンポーネント 'Translator' が見つかりませんでした。 BooruDatasetTagManager
詰んだ >>465
ワイも引っかかったけどよく見るとzipある 今日は2つのjsonファイルをマージして処理に応じたメッセージを表示するのとスクリプトをpyファイルにしてimportする方法を覚えたわ
ワイもうプロ名乗ってええやろ☺ >>465
あ、releasesのとこねv.1.4.1
>>464
元スレ見たけどいい感じやな >>449
やはりリアル系だとバジルは革命だったな
破綻少ないし LoRAでのキャラ学習がだいぶ改善できたわ
素材のテキストファイルに書き込むタグをずっとシンプルなものにしとったんやけど
覚えさせたくない要素もタグに記述するように変更したら、かなり良くなったわ
いろいろ情報書いてくれてるニキ達に感謝や、サンガツな なんかこういかにもまだ終わってなさそうな段階で終わってしまうんやがこれで正解なんか? としあきのWiki見てやったんやけど
文字化けテスターやったら「'?それ以外?'は内部コマンド……」だそうで
https://i.imgur.com/LQz0Smx.jpg >>449
これはありがたい
モデルの癖掴む前に新しいの出てくるから追いつかないのよね 赤ちゃんワイ半日かかってやっとlora学習に成功する
マージ沼どころの深さとちゃうでこれは皆ようやっとる 今日の気づき
ダイナミックプロンプトが入っていれば末尾に{を入れてその後ろをメモ帳代わりにできる
でも間違えてページリロードしたりすると消える(1敗) >>472
batのコメントが文字化けしてるだけだと思う
safetensorsが保存されてれば大丈夫やで 同一シードでモデルに比較したいときって、vaeはどないすればええんや? userなんたらのところにあんまり使うべきとちゃう日本語とかが入ってるんちゃう
普通に出来とると思うけど場所替えたら automatic1111更新したらsetting内にhypernetworlkないんだがどうやって適用するんだ? >>481
だまされたと思ってプロンプトにfemale wrestlerを入れるんや >>480
もういらない子やし無くても誰も困らんやろ >>469
ユニティアっぽいと思ったらユニティアか
上手いこと素材加工して正面とかも出せるようにできるんかな 君がいないとダメなんや!ってチヤホヤされてたのに
次の女が出てきた途端にいらない子とか誰も困らんとか言われるHNちゃん可哀想 ガチャ要素が強いのか設定ミスってるのか良く分からん
使いこなすにはまだまだ時間かかりそうや……
https://i.imgur.com/X259btQ.png
https://i.imgur.com/g6tpNPc.png
モデルマージは
A = instruct-pix2pix-00-22000.safetensors,
B = Anythingv4.0
C = v1-5-pruned-emaonly.ckpt
Multiplierは0.3 git pullしたらずっと欲しかった縦横サイズ入れ替えボタン追加されてるやん >>477
>>479
全部アルファベット、で、学習できてたっぽい。サンガツ
これAってモデルを作るとA-000001ってモデルも一緒に作られるのはなんのためや? >>493
実はもつあきLoraやったりせんかこれ ようやく4chanのLoRAに再現性近づいたわ。
同じデータセットで条件一緒にしてんのに全然及ばなかったからlr1e-4から5e-5に変えたら一気に近づいた
他のoption変えて試してみるやで >>493
自己レスやがこのプロンプトで100枚くらい生成したのを見てエロさが感じられるならmotion line、spoken text、spoken heart、sound effect、sound textあたりを使ってくと良いで
大いに破綻してるが勢いだけはあるで >>482
>>484
ありがとう!試してみます! AIが言語習得の切っ掛けを掴んだ歴史的瞬間であった… 10個くらい前のスレだったと思うんだけど
この単語をnegativeに入れてたら制服とかがバラバラになるのを抑えられるっていうのがあったんだけど覚えてる人いますか?
自分で探してみたけど見つけられなかった😭 >>237
今年一番の革命やな。HDDにも優しいし
Civitaiも微妙なマージベースをckptで出してた人が、LoRA変換した物のアップ始まってめっちゃ使いやすくなってありがたいわ
ピンポイントの学習の為にGB単位で使わなくなったのはエコでいいよね
学習できる環境なら誰でもLoRA使えるってのも魅力的だ loRAで正則画像有無が画風に影響与えるかテストしたわ
結論から言うと正則画像使わないと学習元画像の絵柄に寄ってマージ先モデルの絵柄は消える
A1正則画像あり、B1透明PNG、C1正則画像無しで比較
https://i.imgur.com/HRkqRyQ.jpg
https://i.imgur.com/Uti4Xue.jpg Inpaintがここ数日ぶっ壊れた動作するんだが・・・。
マスクした箇所と無関係の領域を書き換えてくる。
なぜか知らんが元画像がPNGだとまともに動作せず、JPEGなら普通に動く。 >>508
学習素材はアニメキャプ画像のみ40枚
絵柄統一、無加工、WD 14taggerでタグ付けあり
https://i.imgur.com/oSyOHht.jpg >>508
正則画像は学習元のモデルから生成したもの(一番上のLora未適用の画像)? >>508、>>511
40枚でこれが作れるって
あと1~2年したらアニメもバリバリ作れるようになってそうだな >>508
正則は学習に使ったモデルで生成?それとも出したい画風のモデルで生成? 1024*1024で5時間かけてSTでDBしてるワイ、時代遅れになっとるやんけ! 正則化画像あり>正則化透明png>正則画画像なし、で出来が変わってるのか
正則化画像は大事って事か >>512
いや、正則画像は1girl,マスピ等高品質タグと汎用ネガティヴで事前に生成したダークエルフと関係ない画像
cinnamonかabyss orange mixでハイレゾにチェック入れて生成したやつ使い回してる あかちゃん過ぎて最近わけわかんないんだが、
『正則画像』ってそもそもなんぞ?
精巣画像ならなんとなくわかるけど >>515
わかりやすい
透明教もけっこう意味あったんやな >>520
そこまでしなくてもええんやなサンガツやで 正則って使うことによって学習元の影響を中和するもんだと思ってて検証的にもあってたと思ったんだが違うのかな >>508
検証サンガツ!
プリヤcinamon正則ニキかな。1girl正則あったほうがええな!量産するわ! >>227
生首方式ってアップでもいいの?なら顔切り抜くだけで簡単そうだけど、それとも空白明けた方がよさげ? >>518
STとLoRAは似て異なる手法やから時代遅れってわけやないと思うで
STで作ったモデルにLoRAをひとつまみ、って感じにするんや >>493
効果音つきの画像混ぜて学習するとほんと出易くなるんよな ふと思ったんやが落としてきたloraってファイル名変えて使っても問題ないんかな?何のloraか分からんなるから名前変えてるんやがなんか全然効いてる気がせんのよな >>514
これです!ありがとうございます!
ネガとポジを覚え違いしてたんですね申し訳ありませんでした >>529
コピーして一方だけ名前変えたら簡単に検証出来るで
多分変えても問題ないけど >>527
しかし時間がかかりまくってかなわんわ
キャラ再現はLoRA学習のがいいかもしれへんわ手軽やし >>508
loRA使って絵柄が塗り潰される言うのは学習時の正則画像の可能性あるかもしれん
あとは過学習
C1正則画像無しを過学習まで回してみた
どのモデルでもほぼ同じ絵柄になった
basilは人物は実写風だけど背景がアニメ絵になったのおもろいな
https://i.imgur.com/4V4HKsF.jpg 再現度合違うから個人的には寝る間はST回してる
起きている間はLoRAで回転率上げて、寝る間とか仕事の間はSTでDBする感じ >>515
透明画像と1girlのキャプションはそれぞれなんやろか? >>508
正則化画像は何枚用意したんやしましたか? >>515
生成結果見た感じ画風再現LoRAでも透明PNGは入れといた方が具合良さそうやねぇ…
検証サンガツ 正則化画像にFallout 4のスクショを適当に突っこんだらFalloutっぽい絵になってしもうたわ
適当にやったらいかんのやなぁ
https://i.imgur.com/hnOV1nu.png
https://i.imgur.com/SxoePPw.png 服の着こなしは大分マシになってきた
①舞風が謎のセーターを重ね着する、②萩風がツーサイドアップになる、③萩風が全体的にブス、辺りをなんとかすればある程度形にはなるか
https://i.imgur.com/q5Brzal.jpg
https://i.imgur.com/pcP3St1.jpg
https://i.imgur.com/xSwkPA8.jpg
https://i.imgur.com/o2eAPde.jpg
ある程度形になったら1024で作り直すつもりだしまだまだ先は長いな…
あまり企図してなかったけどpaw glovesがかなりまともに出るようになった
https://i.imgur.com/CPPlGGJ.jpg >>542
これはポストアポカリプス的なコンセプトを出したいわけではないのにFOっぽくなったということか? paperspaceでLoRA学習出来たで!
xformers使わないやつでやったで!!
>>240
ありがとやで ウォーターマーク出てくる時って高確率でオレンジのロゴついてくるけどどこの企業やろEAか? 正則に引っ張られるんやな。ほなnai,cinamon,7thV3,counterfeitあたりの混合でつくってみよかな >>515
複数のモデルでloraを使うつもりなら透明pngでもいいから正則化画像は必須に思える
正則化画像なしはやっぱりピーキー過ぎて避けた方がいいのか・・・ instruct-pix2pixはワイの化石グラボだと使用率90%まで爆上がりしてビビったは
ちょっとおっかないな様子見すとこ >>544
ほんとの目的は絵柄と変えずにハンドガンを両手で構えるポーズだけほしかったんよな
正則化画像がどういう効果になるんかなぁと思って、学習用画像にFallout 4でハンドガンを構えたポーズ(背景抜き)、正則化画像に同一キャラの立ち姿(背景を横着して抜かず)とやってみたんや >>508
正則化画像と透明pngはキャプション無しや
正則画像はダイナミックプロンプトで髪色髪型体型ポーズ背景をランダムに変えとるで
今回使用された正則画像は学習素材x10倍やから400枚やな
https://i.imgur.com/xgGCXBu.jpg
正則画像サンプルにマジナイに1枚上げとくわ
https://majinai.art/i/YSpqfa9.png >>449
25E2モデル好きだけど知らんわ
調べても出てこんしどこにあるんや・・・ >>542
ワイの経験上ベースモデルの得意とする絵からかけ離れた画像を正則化画像にするとその絵も学習されやすい気がするわ 他の沢山学習してる人も同じようなこと言ってた記憶があるわ 透明は俄然意味あるのか・・・謎すぎるな
ちな透明pngが効果があるんじゃないかと提唱した者
偶然見つけたんやけどほんとになんなんや マージのとこにcopy config fromってのができてるけどデフォルトのA,B or Cでええんかな 透明正則化は怪しいんだけどその怪しさを否定できる材料が見当たらないからなあ
迷信程度かなあと >>550
学習用画像にない要素だから正則化画像の中からはじかれる要素にならなくて取り込まれたんやろか…? すまん助けてくれ
pix2pixインストールして最新に更新したのにUI上に表示されない
from modules.ui_common import create_output_panel
ModuleNotFoundError: No module named 'modules.ui_common'
とか出てモジュールが無い?っぽいけどどうなってるんや…
あとvenv消してpix2pixモデル読み込んでもエラー出るしワイのPCだけ規制食らってるのかな??? >>542 から正則化画像を透明PNGだけにしてみたところ背景ちゃんと変わるな なるほどなぁ
https://i.imgur.com/hSyCJNu.png
https://i.imgur.com/SOfmCnY.png
>>554 ほーん ベースモデルはNAIちゃんにしとるが、まぁ確かにNAIちゃんはFalloutみたいなゲームに似た背景はあんまし出さへんもんなぁ 正則化画像は「普通の画像」
学習画像は「トリガーによってのみ想起されるべき画像」
学習画像を見てネットワークをいじると当然全体の傾向にも影響を及ぼしてまう訳やけど
そこで正則化画像を見て、普通とズレとるでと直す
そうすると自然とトリガートークンだけから学習要素につなげないと学習が進まん状態になって
トリガートークンに要素が集中することで局所学習が達成される訳や
当然「普通」がズレてたら結局全部ズレてまうから意図的にズラすんでもなければ変なもの入れたらあかんで ちなみに透明正則化はDB方だとクラスプロンプトで呼び出すと意味不明な学習させた記憶のないキャラが出てくる(何故?)のと
調子に乗って超大量に用意すると過学習の原因になるからおそらくこれにも適切な量が存在するかも >>561
ほーん ようわからんがようわかった
なにごともやってみなわからんもんやなぁ huggingfaceにファイルのアップロードができない😣
昨日まではできたのに
61kbのファイルだけはなぜかアップできるんだけど 正則画像無しと透明PNGは出てくる絵は若干違うけど誤差の範囲な気がする
透明PNG使うなら無しの方が学習早いし無しでええんちゃう?って個人的には思うなぁ >>561
普通ってのは学習用画像に付いてるキャプションで生成可能な範囲の画像って認識でええんか? >>554
多分こんな感じのやつのことやろ
左からLoRAなし、正則画像なし、正則画像あり
https://i.imgur.com/fkKlRWa.jpg
Anyで生成した1girl正則画像が学習モデルのNAIに影響しちゃってる hug顔🤗にアップ出来ない仲間がおるのか
検証に作ったloRAアップしよ思とるけど同じく上げられへん 例えば学習素材のキャプションがgirl, ecchi, dosukebeだとしたら
正則化画像はt2iでgirl, ecchi, dosukebeを指定して生成した画像を使えばええんやないかな? そうだぞ
正則化をちゃんと用意するときはそれで画像用意するだろ? ここ数日はいろんなLoRAの検証系があってめちゃくちゃありがたくて現人神たちを拝んでるけど
メジャーなキャラじゃないと見てる方は似てるのか似てないのか
どこまで反映されてるのかされてないのかがよくわからないから
正直、結果を見てもなんと言っていいのかわからないんだよね
もっとわかりやすいドラゴンボール・ドラえもん・アンパンマンとかでやってくれたら嬉ションしちゃうよ!
パーフェクトに抑えて(クローザーして)ほしいな >>568
補正と選別はした方がええよ
モデルから出てきた画像はまともな画像から学習した結果(のはずやけど)それでも精度が足りずに手がグチャったりする訳であって
学習段階で最初からグチャってたらそれに拍車がかかるからな
要はキャラ学習させたい場合は、そのモデルの持ち味が出ている絵柄と品質であって
学習画像に似た感じで
けれども描かれてるのは超ランダムなモブやし
背景もランダムやし
というモデルの自慢をするためのサンプル画像的なものをしこたま用意したものが正則化画像になるんや >>552
利用したいんやがjpgには対応してないんか?
pngとtxtがセットの時以外は動かない感じやけど
>>574
やらなきゃいけないこと見えてきたわ日頃から生成成功した奴はとっておいた方が良さそうやな
サンガツやで もしかして正則化画像は覚えたいプロンプト以外のプロンプトの組み合わせで作った大量の画像を用意した方がよかったりする?
ググったら正則化画像の枚数は学習画像枚数x100程度って出てきたんだが 前スレの手順を詳しく解説してくれたニキには頭が上がらんわ つまり透明画像ではなくきっちり正則化画像も使った学習がしたいなら
学習用画像を用意する
↓
学習用画像のキャプションつくる
↓
キャプションt2iで学習に使いたいモデルデータで正則化画像を生成する
↓
その正則化画像を使って学習
ってことよね?
正則化画像の作成自体はどのモデルデータで生成しても構わんのか
今までのレス見る限りあんま平均値からかけ離れたとがった画像出すようなモデルは使ったらイカンというだけで なんというか服装もポーズもぶっちゃけ体系もプロンプトでガチャするんだから
男性か女性のキャラの頭って形で顔やら髪形やらを学習させられんもんかな 正則化画像は学習するクラスのランダムな画像がええんちゃうかな
あんまり絞ると画像が偏ると思うで たとえば学習素材にschool uniformってキャプついてたら
school uniform正則画像を作るべきなんか?{serafuku|sweater|shirt}みたいなランダム正則画像を作るわけではないんか >>581
サンガツやで
pngに変換させればええか >>543
おお凄いついでに本家の立ち絵も差し替えてくれ 透過画像を使う場合でも、枚数は学習用画像の10倍くらいがええんやろか? sd_scriptsだと多すぎる正則化画像は使われないから、大量に放り込んでていいんじゃね? 俺もそろそろキャラ学習じゃなくて性欲を満たす学習するか >>585
プレイLoRAありがたいつかわせてもらうわ NMKDがぶっ壊れた件、ファイル名にプロンプト記入が有効なってたのが原因やったわ
一行プロンプトならイケたからもしかしてと思ったら案の定
しっかし、設定ファイルコピペしても勝手に設定変わるとかあるんやね めっちゃ根本的かつ初歩的なことかもしれんのやけkohyaのスクリプトってキャプションファイルが存在するとフォルダ名(identifer class)は使わないよね? つまりワンピースのキャラを学習する為に正則画像としてフェアリーテイルの画像をたくさん用意すればいいんやな! つまりワンピースのキャラを学習する為に正則画像としてフェアリーテイルの画像をたくさん用意すればいいんやな! >>573
誰でも知っとるようなのはNAIでキャラ名打てば出るからしゃーない
マイナーで画像もあんまないものじゃないと手を動かす(意味深)気になれへんやろ >>573
誰でも知っとるようなのはNAIでキャラ名打てば出るからしゃーない
マイナーで画像もあんまないものじゃないと手を動かす(意味深)気になれへんやろ 5chおかしくなっとるな
どこもそこも多重投稿騒ぎや Loraのインストールで助けてほしいことがあるんや
こんなエラー出たんやけど、これ管理者権限無いって言ってるんやよな?
でもwebui-user.batを管理者権限で動かそうとしたら一瞬ウインドウ出てすぐ消えるんや
どうすればええんやこれ
https://imgur.com/a/HnYDMNl >>600
なんかuXXXXとかいうUnicode出とるしフォルダのパスに日本語含まれとらん? 全体像は満足したから着せ替えLora始めたけどtaggerは生首でもちゃんと認識してくれるんだな凄ヨ >>602
日本語はないはずなんやけどなぁ
outputの使われないフォルダでも日本語あったらだめなん? Lainニキの手順とスレのアドバイス参考にしたらいい感じにLoRA作れたでサンガツ
学習素材の衣装が全部別なおかげか顔切り抜かなくてもある程度自由に衣装着せられたわ
https://i.imgur.com/WbrCmLv.png >>602
日本語はないはずなんやけどなぁ
outputの使われないフォルダでも日本語あったらだめなん? スマンなんかエラーまみれになりつつインストールされてたわ 何日か前からPython3.10のColabでLoraの学習できないって言ってたけど原因わかったわ
Colabだとaccelerate configで項目を選べないんから設定ができないんやけど
設定ファイルを読み込むことならできるんで、別のとこで作ったファイルを読み込むようにしてたんだわ
それを読み込まないようにしたら動くようになったわ
せやけど設定されてないって警告が出るんでちゃんと学習できてるかはわからん
これから調べるわ この手のおっぱいの下についてるスケスケ布ってなんて言うんやろな
この手のエロ下着を安定して出したいんやが
https://i.imgur.com/QIeDJrK.png >>610
ベビードールかネグリジェ辺りやないか?
プロンプトで出るかは分からんが >>609
configせんでも出来てるって報告してる書き込みはこのスレで見た
パッと想像付く弊害は、多分fp16が指定されてないことやな
それに関連するオプションも使えてないんじゃないかと思う やばい適当に集めてたら6TBのHDDが満タンになりそう
追加で買ってもいいんだけど一生使わないモデルが4TBは有りそうな気がするけど消したくないな~ >>610
下着自体はベビードールのセクシーなタイプや
そのスケスケ布の部分のみの名称は多分ないと思う >>612
negligeeで出るで
see-throughも入れるとなおよい https://i.imgur.com/nWtxH83.png
https://i.imgur.com/sHmij6e.png
コピーすぎて迂闊に出せない代物になってしまった
正則化は透明画像使用を学習用の画像の3倍ほど用意して使用
正則化はフォルダに1girl blonde hair twin braidつけただけ
学習用画像のタグはTaggerで付けたテキストから髪関係、目の色だけ抜いてそのまま使用 https://majinai.art/i/7bWUVSW
四肢切断注意や
肉鎧Loraと切断Loraと表情Loraと
Lora2つ3つ混ぜるとごちゃるのどうにかならないかなぁ >>607
正解や。もう二度と新規絵を見ること出来ないと思ったから再現できたとき感動したで >>600
venvってAdminで作られるから
そのせいでアクセスできないといっている さっき更新した1111がモデル名表示しないなと思ったらもう直ってるんか
ほんま爆速開発やな >>619
ええ使い方やね
レイセンは読んでないけどマスラヲは面白かった覚えがある 609やけど、一応学習できてるっぽいわ
数値をかなり増やさんと駄目やったけど、これは学習が足りてないだけやと思う りいちゅエミュすげぇな これはKTKが畏れる未来がそこまで来てる感 すっっごい初歩的なはなしで申し訳ないんやけど、学習を始めたりしてる最中に専用メモリの限界に達したらこのPCはどうなっちまうんや?
共有メモリはスッカスカだから使ってくれたらいいのになぁ >>626
Quicksettings list に sd_hypernetwork,sd_lora で追加出来る
ただし strength は復活しなかった模様 >>629
あ、あった
extra_networks_default_multiplier っぽい >>628
「メモリ確保しようとしたけどアカンかったわ」で落ちるだけや。ブラウザくらいは巻き込まれるかもな……
メインメモリでの学習は夢やなぁ。技術的にはかなり遅くなるはずやけど、不可能ではないはずや >>602
これ何度か書いてるんやが管理者権限でbatファイルを起動するとカレントディレクトリが変更されるから
webui-user.batの頭に「pushd %0\..」をつければ解決する >>631
サンガツ
動画ひとつ開いても問題ない程度に空けられるようにしておくわ 最近のdisco酷くない?別アカウントで入った感じは無いのに他でログインされましたって出て画像認証がAI使ってるのか糞みたいなのばっかりで全然成功しない ①paperspaceの6時間の起動の最初の40分くらいで試しにひと学習やって
②上手く行ってない部分を確認しながら素材を修正してたり飯を食ったりオナニーをしたりで4時間くらい経って
③また修正後のデータで40分くらいで学習
みたいな感じで②の4時間の間ずっと遊ばせてしまってる時間とリソースを有効活用出来ないものか
何かあまり本命じゃない適当でもいいデータセットとかあってそれを学習させとくとか出来ると良いんだけど適当なデータセットを用意するのすら大変だ
Colabの無料時間で毎日学習やってた時もデータセットの用意が追い付かなかった
昔のHNとかで使ってたデータセットそのままLoraでやってみるとかかなあ… まえここでもらった
学習用タグの入力を早く楽にするやつ
ってのpngだけ?
jpgも対応してほしいんだけど… >>638
スマホか別PCでプロキシやらtorやら使ってるとかじゃない?
自分は全然ないなそういうの >>592
そうや
キャプションある画像はそのキャプションを使ってキャプション無い画像はフォルダ名からキャプション取る >>641
pc以外で入ってないんだけどね
間違ってアプリの方から開いてるとかクロームと狐混ぜて使ってるからか複垢だからか >>640
すまんの対応は簡単なんやけど態々劣化するjpgにする意味を見いだせなくてpngのみや
>>552に最新版貼ったからpngで使っておくれやす >>645
ちょうど更新してたのか
ありがたいもらっておきます にしても設定項目増やすぎや……
最初の方から追ってる人はいいが新規はわけわからんだろうな 一括でダウンロードしてくると結構jpgあるやろ
もしかしてあれ学習で使うと劣化するんか? >>639
データ選びと加工がまとまった時間かかるからあんまりこんつめないほうがええで
あとはこの画像癖強すぎるから抜いて作ってみるとか、試してないパラメーターちょっと変えてみるとか AIくんが出力した絵で学習をするウロボロス状態にはよなりたい 思いつきやけどjpegで学習する場合は jpeg artifacts のタグ付けといた方がええかもしれへんな 正直言うとワイのためだけにjpg対応版も作ってほしい booru系の掲示板でjpeg artifacts着く絵ってよっぽど圧縮酷い絵ばっかだし迷うよなー ああ、なんか登録できないと思ってたらjpgダメなのか。。 >>552
いつもありがたく使わせてもらっとるやで。ありがとな。
一つ要望なんやが、全てのtxtファイルを一括で変更できたりできんやろか?最初に指定したいタグだけ追加して、それ以外はワンクリックで全削除とか。 4chニキはjpgも割と使ってるの見たけどやっぱりpngの方がええん? >>645
確かにワイもjpegは嫌いや。自分が描いた絵を最後.clipから画像データへ出力するときにjpegなんて絶対ありえん。でも、学習のために公式やらツイの画像botから無造作に落としてきた画像がjpegなんてことは珍しくないんや。jpeg対応頼まれてくれんか? SDの話じゃなくて画像認識AIの話だけど、今のIntelCPUがAVX512に対応してないせいで
OpenCV使った画像読込がボトルネックなりがちだから、多少の画質劣化あってもjpeg使った方がトータルで早いみたいな話もツイで見かけたなー
PNG Infoの話もあるし拡張子は案外闇だな 学習素材としてjpgがアカンからツールは対応するほどでもないって認識でええんか? Tag編集はdataseteditor使ってるからよく分からん学習以外1111で完結しとる 解説ニキのやり方で📦から取ってきて選定するから半分くらいjpgやね
一つmp4紛れててkatanukiがエラー出たのは草生えた >>655
一括編集はBooruDatasetTagManagerで出来るぞ あれ13900でPNG展開が思ったほどパフォーマンス出ないのってもしかしてAVX512効いてないからなんか
ほんまIntelアホやなこのAI時代に何やってんの... >>665
すまぬ自作なんだ
匿名で150M程度をアップできる場所あったらアップしてもいいけども jpgで学習が悪いわけやなくてpretrainなり自前で512にした時に劣化するjpgで保存することはないやろなって
言い方が紛らわしかったなすまん jpegは最低でも画質98くらいじゃないと劣化厳しい
本当は99でもキツいし100にするくらいなら無圧縮pngの方がいいやってなる
pixivに上げるときの本当に最後の最後くらいだなjpgにするの >>657
フォトショでaction通して自動でpngにしときゃええやん VAEて迷うほど種類やん
ワイはAnythingV3やけどアニメ絵で色濃くしたい時はvae-fe-mse-840000-ema-pruned使っとる
個人的には彩度高すぎると感じるけどkl-f8がいいって人もいるし好みで選んだらええで VAEはyumekawa diffusion良さそうだったけどどうなんだろ vaeというか明るさに関しては画像ソフトでグラデーションいじるという手もある >>670
登録無しで150MBやと斧くらいしかしらんなぁaxfcてところや
面倒や無かったら頂けると嬉しいで リアルモデルの進捗報告をしたいが、画像URL貼ると規制かかってる・・ ほんまやhuggingface_hubで10MBを超えるファイルをアップロードできなくなっとる
ttps://discuss.huggingface.co/t/lfs-no-longer-works-for-my-huggingface-models/30630
なんかの不具合らしいで 公式あかちゃんインストーラーで入れた1111で
Loraの学習する事って出来ないんか? ここまで生成できる物の幅が広がってくると
もう少しエロ絵以外の活用も考えたいな
なんかないものか axfcなんかアップロード失敗してたから教えてもらったcatboxにアップしたで
https://files.catbox.moe/ccxeqw.zip
Loraまだあんまり慣れてないから出来は良くないと思う
一応使い方のtxt入れといたけどもし良い使い方とかあったら教えてクレメンス wikiのLoRAページに動画による説明も加わってる・・・
ここまで至れり尽くせりなwikiもなかなかないで
編集者ニキ達には足向けて寝られんな NVA環境は作れたから今度は別のモデルを取り込んでみたいんだけど
safetensorsってckptと違うフォルダに入れなきゃいかんの? ありゃ一緒なのか
拡張子の書き換えの仕組みが違うとか? Q.ckptファイルとsafetensorsファイルは何が違いますか?
A.拡張子が違います
効能は同じだから使う側としては気にせずモデルのフォルダにぶち込んでおけばええんやで >>681の原因とその対処は一般的な素材選びでも割と当てはまることがありそうな事例なのでどう問題を探して解決したかを共有しておく
①萩風ブス問題→結論:「引きアングルの立ち絵の影響が強くなりすぎないようにする」
今回は大体30枚程度の二次創作絵と3~7枚の公式絵を使って学習していたが、公式絵の影響を一番強くしたいので公式絵のディレクトリだけ繰り返しを他の10倍にして学習していた。しかし公式絵は全身の立ち絵で、解像度も低い。それに引っ張られてブス化していた。他の3人はローソンコラボの顔のアップ絵(萩風含めた全員、顔はこの絵が公式絵で一番かわいい)を入れていたのでそちらにも引っ張られることでかわいさを保てていたが、萩風だけは髪型が普段と違うのを嫌って外していたのが失敗だった。なので髪型が影響されそうな部分だけトリミングしてかわいい画像を入れてやることでブスが解消された。顔のアップだけ強めに学習して衣装は弱めましょうってメソッドは技術部だかとしあきだかも誰かが書いてた気がする。
②萩風二つ結び問題→結論「アングルをある程度妥協する」
過学習によって汎用性に欠けるのを嫌って色々なアングルの素材を用意するというのはありがちだが左右非対称の髪型をしているキャラではあまりやらない方がいい。後ろを向いてる絵などで結んだ房が逆側にあるように見える絵があるとそれを覚えて両方に付けたがる。結んだ房が明確に左側にある絵以外を排除することで、完全とは言わないまでもツイン化を抑制できた。
③舞風謎の黄シャツ問題→「結論:おなかを出すのをやめさせる」
例によって舞風も公式絵だけ配分を高めていたが舞風の中破イラストは派手にお腹を見せている絵が2枚あるので舞風は腹が黄色いデザインのキャラなのだと解釈されてしまった。よって公式の中破絵2枚は排除した。(非公式絵も含む繰り返し1回のフォルダからは特に排除してない)。半脱ぎ絵はちょっと混ざるだけなら良いがあまり比率を高めては行けない。
あと、たった今初めてpaperspaceでkohyaのスクリプトをxformersで動かすのに成功したので、例のxformersだと学習全然されないバグになってないことが確認出来たら明日でやり方貼る 公式絵のせいでブス化とかいうあまりにも無慈悲なレビューで草 公式イラストの解像度がやたら低いやつってAI関係なしに困るわ
手書きの人も参考資料にし難いし 公式イラストしかないソシャゲとかブスだと本当にブスしか出ねーからなー もしかしてSDが今もうバージョン上がっててアプデしないとsafetentors対応されてない的なあれか
自動で読み取られてないってことは gitのコンフリクト処理よくわからんから
webUIがバージョンアップするたびにフォルダ作り直して
モデルやらscriptを移動させてるわ・・
GitKrakenとかの有料版買ったほうがいいんかな? >>704
webUIならsafetensorsはckptと同じ場所で問題なく読み込むし
NMKDなら非対応だからどうにもならないぞ >>704
色々用語が謎で合ってるかわからんけどwebui環境作ったのがここ最近ならsafetentors対応してないってことはないはずやで
フォルダに入れられたんならモデル選択する欄の🔄のマーク押せば出てくるんちゃうか
NMKDなら使ってないからわからん paperspaceでmegaにあるファイル直接ダウンロードって出来る? >>611-612
試したけどbabydollは全く効いてないっぽいんよな
みんな乳放りだしとる
negligeeやってみるわ >>615
ないんか・・・
パーツ名があれば他の水着なんかにも追加できそうなんになあ
残念や むしろスーツとかドレス指定してもこのエロ下着みたいなのになること多くて困る
まぁ、エロいからいいけど >>706
すべては.gitignoreをいじってたせいだった・・・ スタンドアロン版にLora入れて起動確認するんやが
それを別PCにコピーすると起動せんようになるの何が原因なんやろか? 足裏LoRAってあるんかな
欲しいのは足コキじゃなくてあくまで足裏なんや
女の子がこっちに向けて足を差し出してる感じの絵を出したい taggerで雑に調べた感じwhite lingerie, see-throughあたりで出るっぽいわ
https://majinai.art/i/Pdp3sJ-.png
ただ構造はあんまり安定しないみたいやね Loraダウンロードよし!初期設定よし!管理者権限でPowerShellのやつよし!venv入りよし!xformersのバージョンよし! 学習ほぼされてません
うーん……あとはなにか手順にないダウンロード見落としてるかそういえばすっかりしてない再起動か 学習自体は完了したのに適用しても効果ないって事?
思いつくのはLora効かない1111のバージョンあったはずだからアプデするのと、学習時のタグ付けも全部プロンプトに打ち込んで見るとか? 考えにくいけどwebuiでweightが0になってる場合もあるかもな >>708
🔄の意味を理解してなかったわ
でけたサンガツ なんかアプデしてからプロンプト周りが変な気がする……
言葉で表現しにくいけど、プロンプトの順番を少し入れ替える
(1単語を先頭よりに持って行く)とかするだけで
キャラ名部分のプロンプトが全く効かなくなったり、今まで調整してた時よりもえらいシビアに画像が生成される
なんやろこれ どっかのモデルにpromptの1つ目が認識されないバグがあったとかなかったっけ それおかしいのwebUIじゃなくてモデルデータのほうでは >>728、>>729
単純にAnyV4とリークNAIを0.5でマージした代物なんだけど
もしかして何か生成ミスったか……?
一応再マージしてくるわ めんどいからcolabでしか試してないが出来たで
!curl -o /tmp/megacmd.deb https://mega.nz/linux/repo/xUbuntu_18.04/amd64/megacmd_1.5.1-1.1_amd64.deb
!apt install /tmp/megacmd.deb
!mkdir /tmp/mega
これでmegacmdがインストールされる
その後↓を実行すると /tmp/mega にダウンロードされる
!mega-get 共有URL /tmp/mega
詳細
https://github.com/meganz/MEGAcmd ウキウキで学習結果試したら嫁の瞼やら眉毛が二つになったり白目剥いとる 爆速loraやなかったら泣いとるで
ネガにconnected eyebrows,4 Eye入れても出てきよる
多眼キャラの時は全然出んかったのになんやこいつ アナル猫尻尾難しいな
プロンプト挑戦してええ感じの全然出る気配ないから学習にシフトしたけど
長い要素はやっぱ崩壊しやすいのと、普通の猫しっぽがあまりに多いせいかそっちに引っ張られがちで打率低い
アナル兎尻尾がわりと学習すれば簡単に出たのとは雲泥の差で面白いやね
https://i.imgur.com/0MGZrCG.jpg
https://i.imgur.com/xg4G6hv.jpg >>724
>>725
そうなんや
言われてgitpullとタグ付けありとなしで作った奴それぞれでフォルダ名の方とタグ付の方をプロンプトに入れてみたが変化なしやった
4ch製のは普通に機能しとるからwebuiやのうてなんか学習がアカンのやろけど…… マージ比率は0.45だったわ、すまん
再マージしたけど、やっぱり変だなあ
(bright:1.3)を前に持って行くとレミリアのタグがそれなり効いてるけど
https://i.imgur.com/UnxMv1E.png
後ろに持って行くと逆にレミリア要素が一気に薄くなるわ
https://i.imgur.com/qzLa0xP.png
anything-v4.0-pruned.ckptが原因か……? >>723
なんかxformersがアカンと学習終了してもまったくされてない症状出ることがあるらしいで
入れ直すか一旦切ってそっちで出来てるか試してみるかしてみるといいかも >>735
モデルデータが原因かどうかはfix_postion_ids.pyで調べたらすぐ分かるで >>736
xformersが0.0.14.dev0~やないとアカンのは確認しとるんやけどそもそも抜くのは試してなかったわ
再起動と入れ直しでアカンかったらもう切ってみる >>737
調べたら確かに何か所か破損してるっぽいわ
マジで助かったわありがとう
https://i.imgur.com/uD57iJB.png >>733
アナル尻尾は引き抜くときの表情が超セクシャルポイントやからそこも学習させてほしい ローカル始めてまだ数日なんで分からないことだらけ
でもめっちゃ楽しい
そのローカルの根幹を支えるグラボは3060なんやけど、設定とか何もいじってない状態
そもそも初グラボなのでそもそも設定の仕方が分かっていないんだけど
で、その状態で使用率100%には頻繁に到達してるが温度が70℃くらいにしかなってない
640*640とか576*704を20分くらいかけて3倍にupscaleさせたりしてるけど見てる限り73℃が最高値
これは喜んでいい事なんやろか
それともグラボの性能を引き出してないって事なのか >>741
3060なら温度はそんなもんやない?
むしろ高温状態でぶん回し続けるとグラボへのダメージが酷くなるぞ 昨日作ったAnyV4のマージモデル、全部一部破損してるやんけ!
検証含めて全部やり直しやん……はまじ お嬢様つくりたいんやけど
よく見るevbm-light-halfってどこにあるのかがわからん AnythingV3のprunedは問題なかったけどファイルサイズが一番デカいAnythingV3は一か所壊れてたから名前同じだからって油断できないぜ
混ぜる時は要チェックや >>742
よかった安心した
PCのファンもめちゃくちゃ静かで内部ではグラボにもファン付いて回ってるのが信じられないくらいで色々戸惑ってる
前のPCとあまりにも違う
SSDもあまりに早過ぎて逆に感動しないという
数ギガのptファイルの切り替えが数秒とかどう考えてもおかしいのにあまりに普通に起きるから何十年も前のROMカセットのゲームみたいだなって感じる
しかし一枚作るのに20分どころかほぼ30分はキツイなあ
3060に360万画素は大きすぎるのか
それでハズレだったら泣きたくなるし
でもいいのができると細部がとんでもなさすぎて深夜に叫びそうになるくらい感動するんだよなあ >>741
そんな掛かるもんなの?
xformersは設定しとる? LoRAでクッソマイナーなキャラ再現したくて学習用画像集めてるんやけど、高画質の公式絵がクッソ少なくて泣いてる
学習用の画像って多少画質荒くても数あった方がええんやろか 試したことないけどそう言うのって高解像度化系のソフトで何とかならんのかな
気にした事無かったけど顔切抜いた奴も解像度上げといた方が良いんだろうか >>752
してない
調べて導入までがめんどくさそうだからってのもあるけどまだそこまでたどり着けてないってのが正しいと思う
t2iとi2iとextrasで画像の保存先が違うって事に今日(昨日か)気付いたくらいだし何もかも手探り状態
導入したての頃は何をやったらいいのかわからなさすぎてローカルってクソつまらないって思ってたくらいだし
ある程度できるようになると途端に楽しくなるんだから単純なものである >>755
多分どこかからソフト落として~ってのをイメージしてると思うけど違うぞ
WebUIを起動するのに使ってるwebui-user.batをメモ帳で開いてset COMMANDLINE_ARGS=って文字列があるから、そこに--xformersってコピペするだけ
後は起動時に自動でインストールしてくれる >>756
そんなに簡単だったのか・・・
今飯食っててその間に作ってるのが終わったら早速試してみる
サンガツ >>757
ええんやで
付けてから初回はインストールで起動遅くなるからそのつもりでな >>751
予算の都合もあっただろうが
4070tiならその生成30秒だったね 今の流行り的に学習はloraでじゅうぶん
逆にhires無しはあり得ないから生成速度を最優先すべき
それが今のグラボに対する考えだと俺は思う
3060はhiresに適さないが一通りのことができる最低限のグラボ
hiresを視野に入れて快適性を考えるなら4070tiが今の最適解
少し前の3080 12GBの値段でそれより圧倒的に速い
最適解は4070tiです 5年後はグラボ含めてどうなってるんやろな
4090がミドルになっとるんやろか >>720
うpしたやつはfusion of nightdress and nightgownで偶然出てきたやつなんよな
いまいち効いてるんかどうかわからんですわ >>741
CPUかよって速度だし何かがおかしい
3060なら640をx3しても数秒から十秒台のはず 目的によって最適解なんて変わるしね
俺は学習素材の準備とか絵を出力する間に他の作業してたりするから3060でもかなり持て余してるわ 起きても学習終わってない
71000ステップはやりすぎたか >>758
やってみた
一瞬でインストール終わっていつもと変わらない爆速で起動したんだけど・・・
でも1728*2112が8分で終わってたからちゃんと導入できた模様
速くなりすぎてビビった
ちなt2iで3倍って設定
スマホやタブレット、PCで出したwebNAIちゃんの絵と呪文をローカルに持ち込むってのをやってるから色々と無駄が多いかも
でもNAIちゃんじゃないと出しにくい味が好きなのよね >>767
あ、3倍ってのはhires.fixのことか
それにしても一枚20分は遅く感じるがstep数盛りまくってたらありえるか >>768
ええな
ワイもこういう物が多い背景好き >>767
768x1024→1536x2048 の2倍アップスケールがおすすめやで >>770
Extrasで拡大するだけだとxformersなしでもものの10秒足らずだった
でもただ引き伸ばしただけみたいになって求めるものではなかったのでhiresに挑戦中
拡大前をStep40、拡大後を80にしてるけど意味ないかな
このあたりほとんど調べず適当にやってる
サンプラーもアップスケーラーもよくわかっていないし
DPM++SDE KarrasとR-ESRGAN 4x+ Anime6Bってのでやってる
決めた理由は名前が長い方が強そうだから😓 >>776
ああ、SDE使ってるから遅いのか
SDEは遅い代わりに少ないステップ数で絵柄が収束するのが特徴やで
DPM++2M Karrasでステップ20~30くらいでやってる人が多い印象や
アップスケーラーはLatentを使うと拡大時に書き込み増やしてくれるらしいでその分破綻する確率も多いらしいが hires.fix 3倍とか空白に変なもん書き込みまくって使い物にならんだろ
横長画像自体が破綻の元だし512×768のhires 2倍で良い
重いサンプラー使って前後どっちも50stepで3060でも3分 一度試しにX/Yプロットを使って同じシードでステップ数が絵にどう影響するか見てみるといい
DPM++2M Karrasでステップ25ぐらいからもう絵がほぼ変化しなくなるから 自宅でwebui起動させといて出先でスマホからリモートでやっとる猛者とかおるか?
こういうのってやろうと思えばできるよな?
naiのようにつねに生成したくてしょうがないんやが >>772
なるほど次はそれでやってみる
576*704を3倍してるのは普段webNAIちゃんで作ってるサイズだからに過ぎないしクオリティを落とさずに少しでも早くなるなら有り難い
>>777
サンガツ
こういう情報ありがたい
なるほどそういう特徴があるのね
Stepを20くらいにしてみる >>776
ステップは20でじゅうぶんやで
CFGは7
これでクオリティ落とさずに速度改善するで
サンプラーはDPM++2Mkarrasが速くてクオリティも良いで
DDIMも独特な描き込みが増えて良い、DDIMの場合ステップ少し増やしてや
SDEカラスはハイレゾで極端に遅くなる時があるのとハイレゾらしい書き込み量増加が物足りん時があるので
ハイレゾの時は使わんくていいかな
拡大後ってのはhires stepのことやろか?
これはゼロでええで、いうほどディテール増えん
アップスケールは描き込み増やしたいならlatent1択や >>663
おお、ゴミ捨て場同好会の同志やん
可哀想はヌケる アップスケールの倍率が高いほど
元のショボい絵からガンガン余計なもん書き込んでくるから
人物がたくさんいる絵を作るには面白いんや
しかし明瞭な画質を得るにはストレングスを0.75か0.8くらいにせないかんので元絵と全く違う完全なガチャになるのがつらいとこや 最近クラウド環境で復帰したけど
月1000円くらい払えばA4000で生成しまくれてええな >>778
その「変な物」が割と目当てというか
装飾盛り盛りに転化してくれるっぽいから
顏が増えたりもするけど呪文がゴテゴテに金ピカ指定だからか多くの場合顏の増殖よりも服とか宝石などの装飾が増殖してくれてる
装飾が素晴らしく繊細かつやたら華美になってくれてすげえ嬉しいんだけど、引き換えに目まで華美になって破綻しまくる・・・
>>782
やってみたら1536*2048が4分弱になったわ
でも描き込みの質は低下するかな?
時間がかかるやり方だと細部までぼやけはなかったけど今回は結構突発的なぼやけや滲みっぽいのがある
そしてデスピサロになった・・・😢 >>786
多分モデルの差かもな
NAIしか使ってないんか? >>786
もしかしてwebnaiで金ピカ姫画像生成してたニキかな latentでキャラクローズアップした絵を拡大するとデスピサロ化しやすいよな
latentは描き込みが魅力ではあるけど破綻率が許容外だからワイはそれ以外でhighresしてる 正則化画像については昨夜以降はみんな使うのを試しとる感じなんやろか
学習用素材の10倍をランダムに作るってのが、普段やらんことなのでおっかなびっくりになっとる
正則化画像の質や内容も学習に大きく影響しそうで >>787
直近ではNAIばかり
最初に導入したのはブラッドオレンジとエルダーオレンジ
バジルとアビスも入れたけどこれらは呪文を長くしたら上手くいかないようなのでNAIちゃんに戻ってきたような形
体中を装飾品で派手にしまくるのに向いてるモデルってのが他にあれば教えていただきたいマジで
majinai見てもhuggingface漁ってもスッキリ落ち着いた絵が好まれるっぽいから自分の趣向が異端なのかなって思ってるけど同志はいると信じてる
版権物の再現に全く興味がわかないのもローカルに手を出した中では異端かねえ >>792
協力したるから
まずは直近の絵を見せるんや Dreambooth extention消したけどあれの前処理ツール有能だったからまた入れた方がいいかもしれん >>718
回線繋がってないんちゃうの?
他にファイアーフォールで弾いてるとそうなる
ワイは結局ケーブル買ってくる以外に改善方法わからんかったわ
起動するんやからオフラインでも起動してもええと思うんやけどな
前やったときはxformersもDreamboothもあかんかった >>795
やっぱりかwwwww
あまりに個性的過ぎるからよく覚えとるで
ローカル導入したんやな、おめでとや >>795
取り敢えず目がおかしくなるのとリアルな歯が生えるのはアニメ絵にRestore faces(顔修復)にチェック入れてる時の症状やで >>795
個性的でええな
abyss orangemix2 nsfwか
anything v4.5 あたりにアジャストしたらええかも
プロンプトをモデルに適応させるんや
サンプラーはDDIMでステップ20-40 あたりがええかもな
宝石系盛るのはモデルよりもサンプラーとハイレゾの影響が大きいで
あとrealistic:0.8くらいかけてもええかも まあまあマシなの出来た
https://i.imgur.com/k3thiTJ.jpg
こっちはwebNAIちゃんで作った奴だけどこういう雰囲気のハイレゾを作りたい
https://i.imgur.com/hqijZJa.png
https://i.imgur.com/klRwoPE.png
こういうのを維持しつつ全身を飾りたい
>>797
やっぱり個性的なんか・・・それはちょっとショックや、同志がいない可能性に繋がる
>>798
サンガツ、外した 性癖が特殊なほどいいと思うわ
多数派の研究は誰かに任せてニッチな部分攻めていけ?????? lama-cleaner便利だオススメだって言われるからようやく導入したわ
一体何がそんなに凄いんだよってずっと思ってたけどこれ凄いな
破綻した場所を指定するとソフト側が勝手に判断して消してくるんか ハイレゾガチャして良いのだけi2iで拡大してる。それても元々の2.5倍くらいか
stepも節約できるしなんなら仕上げのモデルも変えられる 誰にも強制はせんが
くそでか画像t2i一発出しは漢のロマンなんや >>800
ここでもエロスレでもぶっちぎりの個性派なのは確かやで
だが同志は必ずおると信じて進み続けるんや 自分の好きなもん楽しんで作るんが一番やでな
個性尖らせて誰にも作れんもんつくってこ こんな感じで明らかに学習完了できてると思うんだけど
いざLORA適用してみると全く出力画像に変化がない
https://i.imgur.com/Z6xz3Yb.png
同じニキおる?
(画像は1epochだけど50epochで2時間ぐらい回したときも同じ。また4chanで拾った野良LORAなら出力画像に変化あるからWEBUI側の問題ではない、と思う) >>800
おぉw コテハンも何もないのに、一発で「あの人」って断言できる安心感w
ローカル導入おめでとう >>806
嬉しくねえええwww😢
まあなんとなく気付いてけどな・・・
そもそもNAIちゃんに飛びついた理由が豪華な姫を提供してくれる夢のツール(サービス)だったからだし
それまでは触れてきたあらゆる検索エンジン、あらゆるサービスでドレスやら姫やら入力してがっかりしてきたけど、
それは言い換えると需要がないから供給もないってことなわけで
そんな中NAIちゃんが唯一真正面から応えてくれたわけだけど、それで世の中の需要が急に変わるわけでもなし
まあ個性が武器になるならクオリティの高い物を寄せ集めれば売り物になるかもな
その為にはエロをやらなならんのやけど、裸でさえ数多いるニキ達が苦労しまくってるのにゴテゴテ着衣なんてハードル高すぎるわ >>808
ワイはxformersが原因で変化しないLoRAモデルが生成されてたな
xformersオプション無しで学習したら適用できたから試すのもありかも
とはいえ普通に導入してれば安定版のxformersが入ってるはずなので恐らく参考にならんとは思うが xformers導入して使おうと思ったら、「エントリポイントが見つかりません」エラーが出てしまうわ
前スレ・前々スレあたりで同様のニキがおったから対処真似て、 venv に入って「pip install xformers==0.0.16RC425」とか試してみたけど
全然解消されんな…何がアカンのやろか メーテルwwwww
二次創作界隈が盛り上がるなwww こんな時代にメーテルの二次絵を見るとは思わんかったわ >>809
ありがとう
ゴテゴテをやってる人が他に皆無だったし参考になるものも見つけられなかったんで自分的にどういった事がやれるのか全く見えず1ヶ月位ためらってた
でもこうやってレスしてる合間に自動でバンバン生成してくれるってええね
出先でもスマホやタブレットでローカルにアクセスしたいけど、そっちはそっちでハードル高そうやなあ
NASの導入も成功したけど使いにくいシステムに手を出してしまって半ば冬眠させてた有様だし
これを機に叩き起こしてもええかな8TBあるし
>>799
anything v4.5とDDIMの組み合わせなかなかええなサンガツ
https://i.imgur.com/nRHyRte.jpg
でも呪文を整理して短くするとストレートに装飾率が下がるのよね・・・NAIちゃんにしてた理由はそこなんで難しい >>816
使用VRAMを減らしてくれて画像生成速度を早めるすげえ奴や
詳しい原理は知らない😎 >>815
前スレのディードリットのloraもらって抜いてから
そうか色々作ればいいんだと一念発起したわ
スレイヤーズも作りたいんよ >>813
すげえええええ感動した
そのものやないか
こんな事出来るんやな
学習には憧れる
でもワイは何を学習させたらええんや
そういう素材がそもそもこの世に存在して無いから嗜好として苦労してきたのに >>822
豪奢な冠とかドレスとか学習させれば簡単に出せるようになるんちゃうか 学習画像集めしてたら学習画像で抜いてしまって満足してしまって学習やめる
あると思います 上の方に書いてあったけど4070tiだとアスカベンチ10秒なの?4090と変わらないじゃん
4090考えてたけど4070tiでもよいのか?
AI流行る直前に3070買ったばかりだから躊躇してたけど変えてしまおうかな >>792
取り敢えず今使ってるプロンプト公開してくれんか?
試そうにもどんなんやってるか分からんからムズいわ 頭の上の装飾が構図から外れてまうからプロンプトに天井入れて回避する、みたいな話しとったニキか?
違っとったらスマンやけど懐かしいなローカルおめやで wikiにあるNAIのディティール一覧学習素材にして
そこに女の子ぶっこめば装飾派手にならんかな >>813
イイネ!今風になるとまた違ったエロさがあるな
2.5D作りたくなってきた >>811
サンガツ
でもxformers周りはなにもいじってへんのや
lora再インスコするか… >>773
こういうのはhuggingfaceは無理だろうけど、思考停止してる末端乞食ご用達のCivitaiには搭載すべきだよなぁ
このスレに居なきゃ気づきもしない事なのかもしれないけど、ツイカスなんて破損モデルマージしてドヤ顔でバラまいてるのも多いし >>825
4070tiはメモリが少ない(4090比)なので
生成だけならコスパ高いけど学習がしたいなら注意やな 以前話題になった時にtoolkitで直るて言われてたやつやけどまだ破損あったってことか >>830
同一シード・プロンプトでlora適用前後で全く変化しない?
変化があるなら学習自体はしてるはず 正則化画像についてなんやが、オナホコキloraを作るとした場合は以下の考え方で合っとるか?
①教師画像としてオナホコキ画像を20枚用意。タグは「onahokoki,onahole,fleshlight,handjob」と設定。
②正則化画像として上で設定したタグと高品質系呪文をプロンプトにつっこんで、適当に画像を生成。ここではオナホコキ画像なんて出んけど、できた画像200枚(素材の10倍)を正則化画像フォルダに突っ込んで学習開始。 >>823
歴史的な教皇冠とかかね
あと「Polki Earrings」で画像検索したら出て来る先とか
でも派手なアクセってアジアンな雰囲気が多くなるから使いにくいのよね
今作ってるものにElfを入れてるのもその為
別にエルフフェチではないがNAIちゃんにElfを描かせるとすごい安定するのよね
>>826
今回してる奴でいいのかな、大分削ったあとだけどそれでも長い(webNAIベースだから)
https://majinai.art/i/bpRporQ.webp
削る前ならこっち
https://majinai.art/i/O2spi_7.webp webui版のsd-scriptsでlora学習開始すると必ずこのエラーで止まるんやが何が原因なんやろ?
https://i.imgur.com/RaQ0uT3.png >>830
sd-scripts再インスコが早いし確実やね
あと作者がデータセットとコマンド配布してるからそれで動くか試すとええかも
note.com/kohya_ss/n/nb20c5187e15a >>831
ごめんそれやってたのワイやねん
そこに載ってる奴はもちろん載ってないワードも倍くらい試した結果、そこまで有効ではないって結論に至った
正しくは効果はあるから要所で使ってるけど多用するとすぐブレるというか
https://fate.5ch.net/test/read.cgi/liveuranus/1673586879/158
でも指摘してるんやけど、強調させるワードは劇薬になることも多い
それをあえて使わないと嗜好が満たされないジレンマ・・・
巨大冠なんてワードと{}か(数字)で強調しないと全く出てこないから他の要素とバッティングがどうしても起きて破綻しまくる
それでもそのお姿を拝むために乱用せざるをえないんや・・・ 自分の気に入る画像生成してそれを学習させればええやん アジアンが嫌ならVictorianとかArt Decoとか華美な時代の装飾品画像持ってきて
インスタみたいにキラキラ加工してから学習させるとか? なんとかLoRA学習始められたけど画像が少ないのか学習が足りないのか効きが悪いわ
LoRA切ったら画像が明らかに変わるから適用はできてるんだけどこれはもっと試行錯誤しないとあかんなぁ taggerで作ったtxtを一括で読み込んで整理できるツールとかない?
10個くらいならテキストエディタで手動でやってたけど100個とかだとキツイ >>842
尚更自分の気にいる画像学習させてプロンプト駆使せんでも着飾る様にした上で調整としてプロンプト重ねた方がええんちゃう >>833
Loraで十分かなと思ってるけど、確かに今後なにがでてくるかわからんからなぁ
>>836
ほんとや
上の方で10秒3って言ってて、wikiのアスカベンチでも4090で10秒台だから変わらないと思ったんだ
4090さすがに高すぎてかなり躊躇気味なんよ
もうwikiに少し結果でるまで待つか >>846
stable-diffusion-webui-dataset-tag-editor kohyaニキのloraでタグ書いたファイル使う場合はメタデータの埋め込み必須なんか?他の人の手順見てるとwd14taggerでtxtファイルを学習画像のフォルダに出力した後そのまま学習開始してるように見えるんやけど 4090の生成速度はまだCPUでリミッターかかっとるようなもんやから…
13900KSでもリミッターにかかるからあいつの全力を出せる機材となるともはや富嶽でも用意せなあかんやろ >>853
waifu2x-caffeというアップスケーラーフリーソフトがあるんやが、これ一括でpng出力できるし設定した長辺に合わせて無劣化で画像拡大してくれるから使ったらどうや? 手持ちのモデルを片っ端から >>773 で破損チェックしてるけど性病検査みたいになってきた
とりあずanyは3.0も4.5も破損しまくってるしマージしたヤツも酷かった
civitaiで配布されてるモデルにも派手に壊れてるのが混在してるわ
マジで梅毒かクラミジアみたいに思える Instance Tokenがsks
Class TokenがGirl
で学習してLoraのファイル名がWD13_3900.ptを学習してtxt2imgで生成する時の呪文は
NSFW, sks girl, <lora:WD13_3900:1>, solo, で合ってるん?
背景を透明にした画像13枚を3900step学習した程度だと全然足りないん?
期待より全然似なかったんだが
https://i.imgur.com/8Q0gupb.png
https://i.imgur.com/FiJ3BJK.png 教えてクレメンス
yamlファイル付モデルとそうでないモデルってマージできへんもんなん?
マージまではできたけど、旧モデル名のyamlファイルを新モデル名にしてもできへん…… SD2.x系列とSD1.x系列はマージできへんで
yaml必要なのSD2系列やったりせんか? >>858
fp16とかだと端数切捨てで問題ないケースが多い
ただ32とかサイズの大きいモデルだと細かい数字でエラーして破損とかしてそう
被害の大半は7GB超えのfullモデルだから、loraやHNでもサイズ大は要注意かもしれん >>852
自分がドキュメント読んで理解した限りでは、Taggerでタグ付けして、なおかつキャプションつけるときにそれらを統合する手順を踏んでねって感じだったような。ただキャプション付けはエアプなんで合ってるかわからん どれも最新でclip changer未だにエラーで使えんやが使えてるやつおる?
RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument index in method wrapper__index_select)
って出るからこれの対策ググってやってもかわらんな wikiのアスカベンチのページ見てたらRTX4090だと10枚で10秒弱ってマジかよ
こっちはRTX2070で50秒はかかるのに >>856
異常トークン吐くモデルの生産は止まったけど、既に広まったモデルは各個人で修正しないと治らないからなぁ
そこそこ知識ないと、そもそも何がおかしいのか伝わらないし根深い問題やな >>860
すまん途中で送信してもーた
某フィギュアモデルがSD2.0っくて、別のがSD1.5やったわ >>835
あー変わらんかったわ
ちな昨日拾った搾乳手コキは絵が変わった
これは学習できてないですね間違いない
>>840
サンガツ試してみる >>856
多くのマージ元であるany3が12個くらい破損してるから殆どのモデルも破損してるんや
破損個所確認すれば大体any3と同じかそれより増えてる
aom2からのマージであるany4.0系もその破損引き継ぐのは自然なこと
bbc-mcさんのおかげで日本人のマージモデルは修正一足早かっただけや LoRAに正則化画像300枚入れてrun_popupで10エポック実行しようとしたら、強制的に5エポックで打ち止めにされてまうな
10回回したいときはどうしたらええんやろか? 4070tiをボトルネックにしないcpuってどこが最低ラインですかね…?
core i5でもいいのだろうか 1111を更新したら、昨日kohya_ssで作ったloraが働かなくなったのだけど、そういう人おる?
更新前の昨日は動いてたんだけど >>864
少しocして連続でやると3周目くらいに9秒台出るで
2枚x5回で8秒台が一番速いのかな Paperspace は Generate forever が使えないの不便ね >>871
12世代以降のi5ならゲーム用途でもなんでも問題なくいける 生成のベンチはハローアスカ10連があるけど性能差がより顕著に出そうな学習のベンチはないんだよね
ワイの3060(PL58%)だとkohyaニキのデータセットで学習に13:31秒かかったけど4090とかなら高速で終わりそう
ちなみにkohyaニキのスクショ見ると3:35秒で終わってるけど3090と4090のどっち使ってるんだろな
暇なニキもおったらハローカエルしてみて
note.com/kohya_ss/n/nb20c5187e15a run_popup で以前のログやLoRAモデルを読み込むってのもやってみてるが、output に何も出てこない… 最高の画像一枚で1000ステップ
そこそこの画像10枚で100ステップ
てきとうに100枚で10ステップ、どれがええんやろね loraにpixiv上げように修正とエロ同人制作と
身体とpcと時間が足らないンゴねぇ
パチンコいかなくなったのは良かったんやが >>870
正則化使うと設定したエポックの半分になるらしいで
つまり10エポック分回したいなら20エポックで設定 こんなページがあったんやが
https://rentry.org/lora-tag-faq
ここ見ると、キャラを覚えさせる場合は髪や目のタグは消した方がええんか?
TIか何かで覚えさせたい要素は消す、みたいなのがあったが、LoRAも同じなんかね? >>871
サンガツ
ちな今9600kなんやがこのままだとやぱ厳しいか?
なんか使用率ちょくちょく100パーセントになるけどこれがボトルネックになってるかはわからん もう第9世代はクソザコナメクジや
9900kに3080tiやけど買い替えたくてしゃーない >>882
そういうことなんか、助かったわサンガツ このペースやと5000シリーズが出るのは2024年以降なんか >>875
だんだん元絵の座りポーズに寄っていってる?のと、背景も学習してる?
20でもキャラは十分学習してるなぁバーヴァンシー >>883
髪や目がキャラの特徴で固定したいなら消す、んだろうね >>883
キャラの特徴で覚えさせたい部分のタグは消す
最終的にはあれこれプロンプト撃ち込まなくてもLoRAとキャラ名や1girlだけで出せるようになる
呼び出しトークンめっちゃ少ない4ch製LoRAがそれ >>883
>>605
これやった時はlonghairと目の色髪の色を消したで
口関連のタグは消さずにそのままや
キャラ名だけで呼び出せるようになったわ amami harukaと入れると指定してないのに勝手にリボンがくっついてくるのと同じ感じになるということや >>884
その為のtagManagerじゃないの? 積極的にキャラ特徴入れてたワイ無事死亡
素材そのままあるしまた作るか >>875
良く出来てる気がするなぁ
てかそれだけ学習させたらもっと塗りベッタベタになるかと思ってたわ >>891,893,894
タグ付けちょっと勘違いしとったわ
なら制服を覚え込ませたい場合はタグにseifuku付けて
skirtや long sleeved shirt は消す、みたいにせなあかんのやね タグ付けはキャラ数多いと修行だよな
60人ぐらいでやったけど一部のキャラは混ざって別人になっとる >>899
特徴タグもりもり入れるとLoRA使ってもそのタグ入れなきゃ出てこなくなるんや
せやからデフォNAIでも特徴タグ入れればそれなりに出てくるようなキャラはLoRA未使用との差がイマイチ掴めなかったりして成果の比較もうまくできなかったりする
ワイもこの辺最初勘違いしててマイナーキャラの生成成功したと思って喜んでたら
未使用で特徴タグぶち込むだけでまぁまぁ近いものが出てきて「LoRA使ってタグ何個も撃ち込む意味とは…?」ってなってようやく気付いた タグ付けそんなに頑張ってるのか
俺はWDtaggerで適当につけてそのあと呼び出しキーつけて終わりだから5分もかかってないわ >>449
ワイも調べたけど25E2どこにあるんや?
🤗にもないしググってもないし中華かな だからタグ付けは逆に出てこなくて、あれっとなってたのか
キャプションの方法はタグみたいに特徴かさねないからうまく言ってたのね
さて、タグで複数衣装できるように頑張るか。。 やっぱとしあきdiffusionのマルゼンスキームが混乱招いてると思うわ
実際は真逆やろ
覚えさせたいタグは消すんだから ワイの足コキLoRAも逆にfootjobとか抜いた方が使いやすくなってたってことか
ニキらの知見助かるで 4chan参考にした方がええわ
としあきは導入以外ほんと酷い Any4で学習させたlora、CinnamonとかAlmondあたりとの相性が良い気がするな
学習データにも依るだろうけど
7th系とかはアウトラインがぶっとくなって微妙やった >>906
拡張機能のstable-diffusion-webui-dataset-tag-editorがおすすめ
WD1.4の自動タグ付け機能も付いてるからTagger別途インストールせんくてもこの拡張だけで完結するし
一括でタグ削除とかも出来るから素材画像何枚あっても10分もかからん タグ付け作業って「指定したタグの概念を置き換える」ものやと思ってたんやが違うんか?
その考えでパンコキloraは「ちんぽはパンツ被ってるもんなんやで」とAIに誤認させる目的で「penis」タグを入れてたんやが……。 kohyaのlora使うときはタグ付けたファイルって画像にメタデータとして埋め込むんか? HNは埋め込まずに画像と同じフォルダに放り込めば学習してくれたよな >>862
サンガツ ワイもReadme読んだ限りはそれが必要な処理に見えるんやけど楽にやる方法あったらなと思ってな >>914
お、こっちはサブディレクトリ読み込み対応してるのか
ええやん つまりこう言う事やな
naganami, seifuku https://imgur.com/a/o2oG1I8.png
naganami https://imgur.com/a/715X35B.png
seifuku https://imgur.com/a/VBY8WZr.png
naganamiタグには顔・髪関係のタグを削除 → マルチカラーな髪とかがnaganamiタグに纏められて学習された
seifukuタグにはスカートやシャツやボウタイといったタグを削除 → 夕雲型のseifukuの要素がseifukuタグに纏められて学習された
これで合ってるやろ あぷでしたらうにコードエラーで学習できんようになってしもた、バックアップ大切 >>908
いやそう書いてあるやん
読み間違えとるぞ ん?
>>883って要はとしあきのマルゼンスキームってことやないんか? でもマルゼンスキームってあんま効果ないって話じゃなかったんか? もう自分で学習させてみればよくね
低ステップならすぐ終わるだろ >>914
お、これはいいね。使えそう。
フィルタまでわかるけど肝心のタグイジるのどうするん? loraの学習ってディレクトリ階層にも意味あるんか
面倒くさいな >>918
なんやて工藤
わいの作り方だけの問題でないかも知れんの
サンガツ
webui以外でgit使えんわいでも出来る方法教えてクレメンス >>926
[Batch Edit Captions]⇛[Remove]で消したいタグポチポチ選んで[Remove selected tags]を押すとタグ削除出来る
ちなみに[Batch Edit Captions]⇛[Search and Replace]だとタグの置換が出来る
あと最後にSave all changesを押さないと編集したタグがファイルに反映されないので注意 >>929
丁寧にありがとう。これはいいもの聞いた 学習画像に書くキャプションってのは
・画像にリンゴがあったが邪魔→appleと書く→トリガーでリンゴが出てこなくなる
・リボンがあるけど覚えないで欲しい→ribbonと書く→トリガーでリボンを着けなくなる
・背景が白一色なのは覚えないで欲しい→simple backgroundと書く→トリガーで白背景ではなくなる
というのが主に期待される効果な訳やけど、トリガーから引かれた要素はこれらのタグワードに吸引されるという副作用もある
・appleと書く→学習画像が持っていたのは青リンゴだったのでappleで青リンゴしか出てこなくなった
・ribbonと書く→ribbonで学習画像のリボンのストライプ柄を覚えてしまった
・simple backgroundと書く→simple backgroundが白一色にしかならなくなった
逆にキャラ再現が微妙でキャプションに書いたワードを足していったら再現度が上がったっていうのは要素が吸引され過ぎた例やね >>669
ありがたく使わせてもろとるんだが
全txtからlong hairタグをまとめて削除とか出来るようにしてもらえんやろか? >>932
そういう用途ならサクラエディタとかでgrep置換したほうが早そう 普通だと出しにくいガニ股ポーズとかのLoRA作るならどうなるんや?
AI側が認識できないポーズはキャプションで説明してやらんと出せなさそうな気がするんやが Sakuraエディタは置換処理メチャ速くて重宝する >>934
正則化画像にがに股画像だけ突っ込んでみ
プロンプトなしでがに股画像しか吐かんくなるで >>869
これだけどAOM, AOM2、素材のAnyNAIgapeあたりはすべて正常でした。のでAOM2ベースの海外産LoRAとかも平気そう
ただElysium系のが1False出してたのでElysium使用モデルは修正必要そう
詳細をModel Helth Checkリストに追加したので海外ニキにも伝わることを祈る……
https://huggingface.co/WarriorMama777/OrangeMixs >>916
自己解決
dreamboothでキャプションを使う時のオプション使ったらフォルダにタグのテキストファイル突っ込んだだけで学習始まったわ キャプション読んでくれてるかはわからんけどな
--caption_extension=.txt
--shuffle_caption >>934
自分が思うガニ股に合致した画像を15~30枚集める(服装とかはバラバラであればあるほどよい)
空白とか関係の無い物がが気になるようであれば適宜トリミングする
10_msm spread legsとか10_ganimata poseとかフォルダに名前付けてブチ込む
連番にリネーム(お好みで)
学習回す
フォルダに付けたワードで呼び出す
背景グチャるとかガニ股イラスト特有の肉感まで移るとか色々あるけど
とりあえずポーズ作りてえんだって話なら極論キャプション無しでこれでいけるで
後から移った気になるところをキャプションに書いていけば影響は減らせる AI用途でもRyzenよりIntelの方が良いんか? スレ前半までとしあきすらマルゼンスキーム意味ないって話してたのになんで流れ逆転してんの? 複雑な服を1単語に集約するにはマルゼンスキームは有効だろ ぜんぜんわからない 俺たちは雰囲気で追加学習をやっている おっぱいの形状とか巨乳ってことをしっかり覚えさせたいときは、large breasts とかは削った方がええってことか? ここにいる奴らはみんな努力する赤ちゃんなんだと思うとかわいく思えてきたで そう言えばloraは再学習できるのか?
HNは途中経過の画像出しとか学習再開の機能が多くてやりやすかった
loraは一旦走らせたらそのまんまなのか?途中セーブぐらい? >>947
save stateを有効にしとくと再開時の精度が良くなるらしい
## 学習途中での保存 --save_every_n_epochs / --save_state / --resume
save_every_n_epochsオプションに数値を指定すると、そのエポックごとに学習途中のモデルを保存します。
save_stateオプションを同時に指定すると、optimizer等の状態も含めた学習状態を合わせて保存します(checkpointから学習再開するのに比べて、精度の向上、学習時間の短縮が期待できます)。学習状態は保存先フォルダに"epoch-??????-state"(??????はエポック数)という名前のフォルダで出力されます。長時間にわたる学習時にご利用ください。 背中を出したいんやけどいまひとつや
https://i.imgur.com/uEwIepr.png
もうちょっと袖とか髪とかきれいに加工してキャプションもつけなあかん、ドリルが強すぎる
https://i.imgur.com/NbSfwLm.png >>949
使ったのはこれな
https://huggingface.co/2vXpSwA7/kirie_model_lora
basil(A)+yuzulemonmilk(B)を0.37で混ぜたのがD
それにetr odysseyV2fix(C)をC+Dで0.37で混ぜたのがE
最後にppct1+Eを0.37で混ぜた この狙い撃ちで特徴掴んでる感じはキャプション使ってやってくれてる気がするわ 学習進めてみるか
https://majinai.art/i/YeI9V4v.png 赤ちゃんloraぎゃんなきしてたけど修正あぷでで直ったみたい、助かったで >>936
>>940
キャプションなしで作ったら構図の汎用性が無くなるような気がしてたんや
取り敢えずキャプションから出したい要素消して作ってみるわ sd-scriptsで作ったLoRA.safesensors.をそのままモデルとして使っても良いもんなん?
1111版アプデしてLoRA関係の拡張使えんなっとるから、どうにかならんもんか… 生首がDVDプレーヤーのスクリーンセーバーみたいになっとるやんけ これもしかして全部同じ生首の位置変えただけ?
それでもちゃんと学習できるもんなんやな >>957
生首の場合キャプションってどうしてる? >>959
その通りで大元となった画像はたったの1枚や
それの解像度変えて一変えたり大きくしたり左右反転しただけ これ1枚の生首をあっちこっちに配置したやつで水増しして学習って事か?
それで学習出来るなら、素材不足で悩んでるマイナーキャラでも学習しやすくなるって事になるから革命的なんやが 生首学習の項目としてどこかに知見をまとめたいところやな 学習データの性質が似ている分ノウハウにしやすいやろし >>957
もう全部これでええやん
元絵一枚で出できるしどんなマイナーキャラでも召喚できるやん >>961
1girl, solo, smile, hairband, hair between eyes, closed mouth, green ribbon, hair ribbon, single braid, blue eyes, hair ornament, short hair
こんな感じできっちり特徴盛り込んだものを全部の画像に付けてる(全画像全く同じ内容)
髪の長さ的には本来はmedium hairなんだけど、髪のボリューム多すぎてAIが勝手に長い髪と学習してしまうので↓
https://i.imgur.com/Dz2HC7n.png
あえてshor hairをタグ付けし、呼び出す際にshort hair,(medium hair:1.3)みたいにして長い髪をかき消してる↓
https://i.imgur.com/RKXLKiZ.png >>966
見た感じ同じ角度しか出ないからコラ感は否めないな >>957
何枚くらい用意したんや…
10stepやから結構手軽に行けるっぽい? 生首の輝度変えて馴染みやすくする手法も上で挙がってたしな もしかしてクラスgirlとして学習させるよりboyとして学習させた方がいいのではないか
誰か試してくれ >>969
キャプションの中にxiorixってのはつけないの?呼び出すときはxiorixだよね
ワイもユニティア班としてがんばるわ
そして秀丸ってのがまたなんかいい 学習素材の用意に疲れた住民たちの間には「雑なタグ付けで適当にLoRAを作る」という風習があります。一見雑な学習ですが、どうせ脱がせる前提で衣装さえ妥協する分には割となんとかなるとしておちんちんには受け入れられています。
https://i.imgur.com/v5wT7X1.jpg
https://i.imgur.com/ioiJHm4.jpg >>975
なんで3トークンもつけるんや
1トークンでええやろ 過学習も甚だしいが
これぞまさしく21世紀のコラージュ技術やな >>971
66枚になった
256*256の画像を512*512の各領域に配置したのと、384*384の画像を512*512の各領域に配置したのと、512*512の画像単品
それらをIrfanView 64で一括して左右反転した
まだお試してやっただけだから不要なものもあるかもしれない
>>975
仕組みよくわかってなくてテキストファイルにはxiorix2のタグは入れてなかった
xiorix2で呼び出すことはできなくなってるけど、テキストファイルのタグある程度ぶち込めば出てくるから良いかな~と
キャプションはまだ詰める必要あると思う 生首はとりあえず背景透過でやってる
白背景も試して比較しようと思ってる >>957
これいいな!
参考になる!
同じイラストを学習させても意味あるんやね! >>983
ありがとうやる気湧いてきた
確かにキープロンプトはよく分からんね
これまでHNでやってたの全部作り直そう ちなみに既に指摘があるけど、顔を各位置に配置したのはコラ画像的な生成をするため
元の画像をほぼそのまんま呼び出して、顔以外の部分をAIに追加させるイメージで素材を用意した >>842
大体そういうワードは同時にNGにも入れて強調の重みバランス差で相殺させてからつかうんや
乳首革命を思い出せ >>986
前段階は絵柄づくりやから最後のppct1+好きなモデルだけでええと思うで >>991
やってるんやけどNAIちゃん以外だとイメージとほど遠い絵しか出てこない
NAIちゃんだと超長い呪文でも超シンプルな呪文でもイメージに近い絵がバンバン出て来るのに他のモデルだとさっぱり このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 15時間 47分 43秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。