なんJNVA部★163
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★162
https://fate.5ch.net/test/read.cgi/liveuranus/1677762501/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured さんいちおつ
>>9
これ理想とする背景なんだけどどう生成してるか教えてくれん?
背景つよつよモデルつくりたいんだけど最近は階層とか話題にでなくてつらいわ
https://i.imgur.com/IgpwL3H.jpg >>21
背景っていったらcounterfeitちゃうか
ワイもV2.5混ぜて背景強化モデル作ったわ
https://i.imgur.com/eZ40UAJ.png >>21
せやね、counterfeit2.5やね
それベースのマージモデルを使ったり、https://civitai.com/models/10443/counterfeit-v25-25d-tweak
いっぺんcounterfeitで低解像度で出してからAbyssOrangeMix2をstrength0.4くらいでi2iかけたりとかいろいろやっとるでワイは 胸チラ作例作ってくれたニキ達おおきにや
片っ端から右クリックして名前を付けて保存してしもたわ
まったくなんちゅーもんを作ってしもったんやろなぁ…
https://i.imgur.com/i25Lcdu.png
でも、もっと作例作ってくれたり学習成果を披露してくれていいのよ https://i.imgur.com/ALaRAcm.jpg
>>22
そう……なんだけど、
(いま始めて試したんだが)アニメモデル+実写LoRA適用の雰囲気がデフォルトのモデルとか錬成できんかなぁって思ってな
>>26
サンガツ!参考になるわ 3060買おうと思うんだけど
radeon外さないで空いたスロットにぶっ刺して大丈夫かな?
モニターはradeonで3060は外部モニター使わない運用 >>32
ググればやってる人がいたのでできるんだろうけど、そもそも電源足りるのか? 3060買うくらいのライト層でその冒険は危険ちゃうか レベルの低い質問ですまんのやが
水着だけ着せようとしたり裸にしようとすると勝手に上にひらひらした服着ちゃうんやが何が原因なんやろ?
ネガにjacketとか入れても効果ないし対処法なんかないかな >>39
僕も詳しく知らないけど、キャラによってはよくあるよね
プロに綺麗な鎖骨とか綺麗な首とか入れると取れる時あるよ >>39
loraならそのloraの汎用性が低いなだけ 前スレで白背景は多すぎると駄目って見たけどやるなら透明にしとけって事? 3060やけどloconの学習バッチサイズ4いけたわ たておつやでー
https://i.imgur.com/vvNzdiE.png
って言うか前スレで何で突然解像度1024ディスられ始めとるん?
正解なんか誰も知らんからひとつでも色んな検証する人欲しい時期なのにガイジか?
ぼくが考えた最強の学習を他のやつに押し付けんなや ワイもLoRA色々作ったけどより良い製法があるなら知りたいで🥺
ハウツーはいくらあっても困らへん >>46
しゃーない
クオリティは格段に上がるけど学習する時間も数倍になるから
512x512でじゅうぶん再現できるんならそっちでいいという人もいるやろし >>41
ワイもlolaのせいなのかと思ったけど外しても出てくるんよな
モデルもcivitaiにあるmeinaとかgrapefruitとかanyhentaiとかやけどどれでも再現される
後はプロンプトしか考えられんから一個一個調べてみるわ 水墨画loraは4090じゃないと上手く生成できる気がしない
https://i.imgur.com/KAVpYa1.png >>46
ディスって言い方がまずおかしい
1+1=3じゃないよって言ったらディスなんか? >>29
munechira loraでワイがやりたかった奴や! >>46
1024学習やるなと押し付けとったっけ?
1024に疑問を提示する住人を短絡的にガイジ呼ばわりするくせに検証する住人増えて欲しいは草 まあ煽りまくれば検証は増えるやろうけど >>48
ワイはVRAMがウンチだから仕方なく512か768でやってるけど512だと細かい再現性ゴミになるのはやってれば分かると思うけどな……
つーか前スレで解像度1024派は画像貼らないって言ってた奴の方が何も貼ってないやんけ
https://i.imgur.com/Kj7GOxs.png https://i.imgur.com/gBDTIP6.jpg
解像度は正義なきもするけど(本家SD2.xも上げてるし)、512から768は微妙すぎて違いわからないかも
1024は未踏だからしらん
→なんもわからん まあ別にワイは宗教で画像生成やってる訳じゃないから解像度512でも十分だと言う結果があるのならパクるだけやで
細かい部分学習させたいなら解像度1024での学習が必要って言ってる人が多いからワイもその言説パクってるだけや😎
91今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アウアウウー Sa6b-dP7R)2022/12/13(火) 13:59:46.37ID:3ui9Xcdta
DBで難関やった目のクロス瞳孔やっと学習させたでー
背景抜き学習画像34枚、LR8.6e-7、非対称デザインのため左右反転無しで200 Epochや解像度1024、8bit Adam未チェックFP16、 xpaformer、textEMAありや
https://majinai.art/i/wgNPpv3.png
https://majinai.art/i/J0adkn9.png
体感だけど解像度高い素材と8bit Adam未使用だと精細感が増す感じやな
ワイの目だとFP16とxpaformerは外しても差が感じられなかったわ >>57
モデルはシナモンやけど水墨画loraでガラッと変わる >>55
引きの絵はどんな感じやろ?あと、学習素材の内容も気になるわ そんだけアップの絵やとアップの絵で学習した512と変わらんように見えるし https://i.imgur.com/MCBvyQw.jpg
昔作ったLoRAを素材調整してLoconで作り直してみたわ
あっはいLoRAと比べて生成精度全然違いますね高いですね
えっちとか色々試さないとまだ確実な事は言えないけどLoconは優秀な気がするやで
これ縮小画像含め一番左で32880ステップ
10000〜15000もあれば十分な印象 胸チラLORA作成者様
可能なら学習元モデル教えてほしい…虹系か3次系かでも 細かい部分って背景でも入れる気か?
まあ学習素材を768*512にしたら瞳孔がぶっ壊れたの確認したしその解像度で学習したり出力したら壊れるだろうけど
そこだけなら後で正しいの描き足したらええやん >>39
rash guardとかネガティブに入れてみたらどうや?海水浴で日焼け対策に着るシャカシャカジャケットや、と思ったけどなんか違うかも
すっぽんぽんはnudeじゃ足らなくて completely nude, やで
https://i.imgur.com/2uWTLoX.jpg loconってのが流行ってるっていうから
ワイもやってみるやで
最新にするためにインストーラー使ったら
あちこち構成変わってて起動に苦労したが無事開始や >>32
Radeon6700XTとRTX3060Ti2枚刺しだけど問題ないで >>62
枚数は少なめなのかな?学習率は1e-4なのかな?過学習させてる感じ? 学習時の解像度ばかり着目されてるけど生成時の解像度も一緒に考えないといけないんじゃない?
1024*1024で生成する場合、768での学習よりも1024での学習の方が再現度高いっていう話じゃないのかな
画像AIは学習素材を拡大・縮小して出力するの苦手だから生成時のサイズに合わせて学習素材を用意した方が良いということだろう easyscriptの設定はArgsList.pyに移行したからこれ編集すればいい
locon設定もここに入ってるからとしあきのコマンドは使わない 1024学習はfss-MHのLoraの出来がよかったからなぁ
あれA100かりてvram75GB以上使ってたらしいからちょっと再検証するのは敷居が高いね
あれから環境も変わったし今ならもっといい手法あるかもしれんが検証なしで駄目はありえへんで 検証ならNovelAIの高画質出力と標準出力でseed固定させて同じ物出させて見比べれば一目瞭然のはずなんだけどな >>73
本当や……自前でつくってもうたわ……
助かったで次からこれ使う NovelAIってSD1.5系列だから学習解像度512やろ?
解像度1024学習は意味は無いと検証できるんか? LoRAも最初から出てきたわけじゃなくてHNとかTIとか経て誕生したんやしloconもその一個に過ぎん
微妙だったらDreamArtistみたく廃れるだけや 6G民のわい、低みの見物
普通にlora回せるけどクソ雑魚ファンだから一回走るたびに寿命が縮んでると思うと恐ろしいンゴ
6年前のPCやからいい加減ハイエンドに乗り換えてもええ時期やな
わいの記憶なら25万も出せば最高スペックのBTOが買えるはずなんや♪ loconは絵柄学習できない気がするわ
キャラ学習はloraより上 locon?adafactor?ってpopup版でも使えるか? dim下げても学習出来るのが売りだからdim4とかで絵柄だけ学習させるのには向かないんだろうな >>69
>>71
これは枚数548枚(縮小画像で4倍に水増ししてるので素の画像は137枚)
adafactorではなく--use_8bit_adamで従来の作り方
学習率は1e-4、text_encoder_lrがその半分、dim128のalpha64やね >>86
あかんのか…eazyscriptが最新でおk? グラボだけ3060以上に買い替えて450とか500の電源で動かしてるU民おる?
問題なく動かせるもんか聴きたい >>88
せや
ArgsList.py開いて中身設定したら
あとはrun_command_line.bat叩くだけで全自動や >>89
動かないこともないけど問題が起きかねないのでケチるな >>87
このguiがあればどんな赤ん坊でも学習できるやろ
神サンガツ >>83
popupは書き換えが若干わかり辛いけど可能ではある
>>85
枚数多いねー。詳しくありがとう!帰宅したら参考にしてやってみるわ
最近ぼやけたのか、ぼやけた上でガビガビしたのしかできなくて困ってる >>89
500で電源爆発させた人は何日か前におったで
あの後グラボは無事だったんやろか…… サンイチー
結局時間効率、あとサイズやと思うよ。どうしてもLoConやと大きくはなるでな
1024は……手元で学習できる環境ないでな……
>>87
ええ仕事や >>87
もしかしてあんたニキはワイのママか?
それ需要ありすぎるで >>88
なんで大本のsd-scriptsをかたくなに使わないんや?
easyで最新や外部モジュール使おうってのがまず間違いや >>42
透明はやめとけおじさん「透明はやめとけ」 勘違いしてる人が居そうだけどLoRA_Easy_Training_Scriptsのポップアップ版がダメなのは旧バージョンの話ね
ダメだった理由は、旧バージョンではコマンドライン版とポップアップ版はスクリプトが別々になっていて、コマンドライン版しか実装されていない設定項目があったから
最新版LoRA_Easy_Training_Scriptsはコマンドラインとポップアップは同じスクリプトに統合されてるので、設定項目の入力方法の違いしか差は無い
そして設定内容をjsonファイルで保存しておけば、ポップアップ版もそのjsonファイルを選択するだけで済むので楽 >>101
ワイが使ってるのはLoRA_Easy_Training_Scriptsやが
たったいま>>87が最新になったわ >>87
もしかしてこのguiで赤ちゃんでも
>>99
ができる感じか? >>68
マジっすかアニキありがとう
迷わずぶっ刺すわ >>89
CPUも最近のものだと700wあっても安心できないかも知れん
通常時に400w使うとして、ピーク時は500w近くを叩くと思われる
更に電源ユニットは年々劣化するので、5年動かすなら600w以上がいい
ただし一般的には600wでも足りないとのことなので、絶対に間違えたくないなら700wがいい
もしパーツを更新していくつもりなら、電源がとにかく多めにしておいた方が楽
というのも、電源ユニットの交換は、すべてのパーツを再接続する作業になるので、面倒この上ない
同じ理由でケースもケチらない方がいい なんかスレ民の共通課題セットみたいなのがあればレスバになった時生成バトルで決着つけられるな 下着に拘っとるんやが、
ランジェリーみたいに装飾や刺繍にこだわった単語ってsexy以外に知っとる人おる?
別のプロンプトを調べていた際「細かな」みたいな意味合いで見た記憶があるんだが、アホなことにメモるの忘れとった 電源は心臓だと考えればケチってはいけないということが分かるじゃろう
電源をケチるということは聖闘士星矢の童虎みたいになるということや >>89
500wで動かしてるけど、高負荷時はコンセントに直接挿してるワットチェッカー
で消費電力をリアルタイムでチラチラ監視してる
個人的にはコンセント直挿しの値が250w越えたら警戒し始めて300wなんて越えた日にゃ即ダウンクロックしてる
因みに
・cpuはi7 8700kで3060(12GB) >>111
detailed, ultra-detailed >>100
やっぱ白背景でネガティブプロンプトにWhitebackground突っ込むのがええか... キャラ再現Loraを90個作ったワイ、今更Loconに作り直す気力がわかん >>114
多分それな気がしてきた。サンキューやで!
trimmed with laceもええ感じみたいや >>102
むしろ勘違いはおまえなんや
そのeasyはsd-scriptsのtrain_network.train()を直接叩いて呼び出してるからあかんって話やで? すまん、オプティマイザをadamw8bitに戻したら絵柄学習も普通に行けたわ
回転数もっと増やせば完成
https://i.imgur.com/vkh1bww.png >>63
nai使ってます
自作は全部nai(full)、もしくはExtensionのtoolkitでfp16に削減したnaiです
JNVA部発のモデルとかで一番汎用で使えるかなと 僕も今LoRA_Easy_Training_Scriptsで四苦八苦している赤ちゃん以下ですよろしくお願いします
三日前イケてたんですけどね前スレにも張ったエラーとbingちゃんの回答です
今はダウンロードするドライブを変えて試しています
https://i.imgur.com/Red2fRg.png どうやら1/6乳輪チラLoRAを作る時が来たようだな >>125
コンフィグファイルがおかしいって言ってるように見えるぞ >>126
これが全文ですrun_command_lineやrun_popupのbatファイルを起動するとこれがでて終了します >>116
いま動かしてる生成終わったら試してみるわ 電源ありがとう
結局5万出して中途半端な入れ替えするくらいなら20万で総入れ替えするべきって話だよな >>128
試してみます
>>129
何処をどう直せばいいのか分からないw
bingちゃんは何も教えてくれない >>34
エッチじゃない普通の指導してるだけなのに胸チラドアップとか密着とかで散々ムラムラさせられたい >>133
「それが誰でも迷わずできりゃ誰でもしてる」って話でもあるけどね
結局この世は金が全てだ…‥ 金に困ってるわけじゃないんだけど大きい買い物になるとなかなか踏ん切り付けられないねんな
機会損失も大きい嫌な性分や めっちゃ細かいのがいっぱい出たのをSD upscaleかけたら、まあまあいける
https://i.imgur.com/QjUIWa2.jpg ひめゴトのような女っぽいのでないとワイはアカンから好みの差がでるもんやな
>>109
INとM00を全てsitaでOUTは全てsita_mix_nsfwに層別マージしたら出来たモデルだから自分で作るとええ 電源おじさんにしてもやっぱどこまでそのPC使い倒すかよな
学生とかならギリ攻めるのもしゃーないと思うで >>87
aom3にnaiで学習したLora使うと相性悪いの気の所為やなかったんか
じゃあnaiじゃなくてaom3で学習すればええんかな? >>133
いきなりぶっ飛んでて笑
650Wぐらいの電源なら1万でおつりくるやろ >>119
LoRA_Easy_Training_Scripts自体がアカンってことか
それはすまなかった 自分が以前作ったキャラ再現LoRAは512でテストしてまあええやろと思ったから1024でやりなおしてみたら露骨に顔がブサイクなったから採用せず512の方そのまま使ってる
https://i.imgur.com/Bdbj5pD.png 今ならフルモジュラーの電源買えば別の電源に交換する時楽チンやで多分 >>138
金困って無いなら素直に20万出しやがれコンチクショーっ!
(※意訳:価格的に無理にならないなら、『お金で長期的な時間と満足度を買う』事になるから、積極的に全買い換え検討したほうが良と思うよ。まぁゲームとかも快適に出来るようになるし、最近ならVRとかも試せるようになるしな) 電源は 買うことよりも「メーカー品の電源差し替え面倒くさい構造問題」とかもあるんよな >>146
reference sheetプロンプトはたまに暴発して思ってもいないのを出してくるで
upscale前のhires出しのがこれ
https://i.imgur.com/L4PUGn4.png >>151
インシュロックできれいにまとめたケーブル類を場合によっては解いて縛り直さないと行けないのがかったるいねんな… >>132
ありがとう!よろしゅう!
>>115
ちなみに
>>116
の顔のみ再現用のLoRAは透明背景や
前スレ見て試しに白背景で顔LoRA作ったら画面が真っ白になって「ひょっとして今のやり方が背景の影響を殺せてる!?」と気づいたとこや
学習の経験がすくのうてどうにも判断できんからご意見募集のお願いや >>139 >>152
それぐらいの細かい方法は12GBだと諦めてたけど、SDupscaleで模索してみようかな
新しい模索要素の指標になったわ、サンガツ AIにしか使わんのならジャンクで良いよ
ファンは回るけど映像が出ないのを1日探して3枚見つけたら
1枚くらい出力基盤だけが死んでるだけで使えるのが見つかる
ネットじゃなくて歩いてPCと延長コード持って試させてもらいながら朝から半日くらい陳列したてのを探して店回るのがコツ
旅行費入れても格安で済む CPU・・・パソコンの頭脳に当たる部分、ここは重要
メモリ・・・当たり外れの大きな部分、ここは値段で妥協するな
マザボ・・・PCの基礎となる部分、ここは質にもこだわるべき
SSD・・・何より大事なデータが保存される部分、ここは重要
グラボ・・・ゲームや動画再生能力はここで決まる、ここは大事
電源・・・ここがダメになると他のパーツもダメになる、ここは妥協出来ない >>142
教師画像によっては画風の違和感が少なくても構図がグチャるわ
そういうときはAOM3で学習したほうが良さそうやな >>156
元々生成した絵で作っとるし、好きにしてくれたらええで
ただ、そのうちワイのビジュアルノベルとキャラがかぶるやろうが
http://yyy.wpx.jp/m/hlls/ ワイは将来性考えて
基本的に全部の画像をフォトショで1024でそろえるようにしてるわ
使うのは512だけど今度1024もやってみるか わいは未だにLORA学習で四苦八苦してるのにみんな置いていかないでくれ >>165
ワイはやっと今日からLoRAに手を出すで
仲良くしてや 電源600W ケースなんでもいい
CPU AMDの15000円くらいの奴
メモリ 適当に16GB できれば32GB
マザボ AMDのが乗る13000円くらいの奴
SSD1TBで安い奴 + HDD4TB
3060 12GB
キーボードとマウスは使い回しか1000円の買え
いま少しでも安くローカルAI始めるならこんなもんかなー >>122
おおー助かる naiでも出力モデル変えれば3次元いけるんやな
civitaiにも侘び寂び書いてあって面白かったわ 去年初頭に3060tiちゃん買ったから乗り換え先に悩むぜ >>59
話噛み合ってないのはむしろその「細かい部分」の捉え方の差 が大きいと思う
1024が寄与するのって、一般的な言語感覚で想像する「細かい部分」より、ずっと細かいんや
野分は左前髪の先端だけ枝別れになってなければならない、とか
https://i.imgur.com/y1MSTWD.jpg
中破でもないのに初めからシャツの1番上のボタン外してるのは嵐と早潮改二だけ、とか
https://i.imgur.com/Qdpzof8.jpg
https://i.imgur.com/cIf6FkK.jpg
ほとんどカルトクイズレベルの細かさを再現したいなら1024は必須だろうけどそこまで求めてる人あんまいないんや
結局作る画像はhires前で横640以下とかやしな
このレベルまで学習されるってことは当然、素材の悪い部分も拾うってことだから厳選やタグ付けのハードルも上がる >>59
1024の効果か知らんけど目はシャープやね >>87
guiシンプルでええな
んで解凍したフォルダkohya_lora_gui-1.0.1をLoRA_Easy_Training_Scripts内のsd_scriptsの中に放り込んで
学習開始したら学習用スクリプト(train_network.py)が見つかりません。って怒られたで
ワイのやり方間違ってたら教えてクレメンス >>173
僕もそれになりましたw
今ドライブ直下にsd-scriptsを公式のコードとパワーシェルでDL中 グラボ詳しくないけど4080だと脳死でbatch=4できて楽やで >>62のVバックパンツとLoRAで作ったアナルビーズをセットで合わせてみる実験(hires入れてのガチ生成)
https://i.imgur.com/BDgtoU0.jpg
(どっちも層別適用)
昔作ったVバックとは成功率が全然違いますね優秀
後はおせっせや乱交も試してみないとな、それで勝つるようなら大成功や >>42
透明は良くも悪くもならない
プログラムに白と思われる透明(skytnt系)と黒と思われる透明(gimp)と何もしてない普通の背景と思われる透明(フォトショのマスク機能とかでエクスポートした場合)が存在してるだけや >>157
さらにi2i可能なサイズに切り分けてupscaleして、縮尺戻して貼り合わせるとどんどん高精細化できるでw
https://i.imgur.com/m5I8nTZ.png >>155
顔Loraってもしかして顔だけの学習データ作って読ませてるって事か
だとしたらマルゼン式でやってるの? >>173
gui良さそうやけどわいもこれになってるわ
sd-scripts-0.4.4\kohya_lora_gui-1.0.1\kohya_lora_trainer.exe
って配置したが間違っとるんやろか >>173
それやっちゃったんならLoRA_Easy_Training_Scriptsをいったん全部消してインストールバッチから入れ直した方が良い
そして、今後のアプデはLoRA_Easy_Training_Scriptsフォルダ内のupgrade,batを実行して行う
LoRA_Easy_Training_Scriptsはあくまでもsd_scriptsの作者とは別の人が作ってるサポートツールだから
sd_scriptsが更新されてもLoRA_Easy_Training_Scriptsが更新されないとその最新機能は使えない
LoRA_Easy_Training_Scripts使うならhttps://github.com/derrian-distro/LoRA_Easy_Training_ScriptsのChangelog見て最終更新日と適用内容を確認する必要がある ワイはそもそもセットアップでコケとるわワイのアホ死ね >>178
革命過ぎたっ!
基本機能なのに衝撃凄まじい!
やっぱ、同じものを使っても発想力の差でここまで変わるんやな、と再認識させられたわ
>>184
うへぇ……そこまでくると気合いだな >>179
いや、ビジュアルノベルみたいな連続性のあるコンテンツ用にキャラ再現の方法を模索しとったんでまったく別のやりかたやね
>>116
のLoRAはshuffle_captionすら無効にして、強めのルールで縛った15枚のAI生成顔画像から作ってる 渋で素材厳選してると複雑な衣装や意匠が細かいキャラは細部までキッチリ描かれてる絵がほとんどないんだよね
細部が間違ってるのを除くと結局全裸画像しか残らんのや
あと手がおかしい絵が意外と多い >>182
Form1.csの262行目見ていただきたい >>188
デバッグ用コード消すの忘れてたので更新した
すまんかった ちなみに最近話題にならんけど
学習するときのモデルっていまもみんな汎用性考えてNAIかANYでやってるん?
自分の使ってるモデルいくつかで全部学習したほうが理想的といえば理想的なんかね つか二次創作ってめちゃ幅が広いからな
そして上手くても公式に似てるわけではない
だから自分は素材には使わんなあ… >>116
LoRAの効きにくいCounterfeit2.5でも効くのはやっぱりDefMix2.0にもCounterfeitが入ってるからなんやろか、Counterfeitでも効きやすいLoRAと効きにくいLoRAの違いはなんなんやろなぁ
https://i.imgur.com/qVXMsKb.png
https://i.imgur.com/erWBgdX.png Corsairの900Wくんの電源死んだのでメルカリで金にしてやるンゴ
直せるヤツにはええ買い物らしいからな サンイチ
赤ちゃんいすんとーらーでもloconできるって教えてくれた前スレ996
ありがとう入れなおしてargsの項目いじったらとりあえず学習始まったから大丈夫っぽい
楽しみや >>189
サンガツやで!!無事学習開始や!!
流石やでほんま >>193
Corsairも死ぬときあるんか、、、
十年保証やろ? >>191
ほんそれ
公式再現に2次創作絵使う時点で「公式と同じ絵」を狙った学習をするには無理がある GPUバックエンド上限から12時間…未だ回復せず
暇だ… >>87
と思ったらこっちも便利そうなやつあるやんけ
使わせていただくで神ニキ、サンガツやで! キャラ再現させてから公式画風で寄せりゃええんちゃうか の精神でとりあえずワイは雑でも80点の出来を狙うで ちなguiだけ入れてもloconは使えないからな
locon導入とloconエクステンションは別途や そして、ふとPCの掃除を始めたら、3060のFAN2つの内、1つがケースの構造に引っかかって回転していなかった事が発覚……
お、おまぇ……、ちょくちょく就寝中ずっと分回してたのに3ヶ月あまり良く生きとったなぁワレェ……
■ここのファンがケースの側面の凹みに干渉して回転数0だった……
https://i.imgur.com/OiNEPjn.jpeg
夏になる前に気付いて良かった…… >>196
まーどこも死ぬときゃ死ぬやで、というかコイツは10年前の代物だから保証切れや
気まぐれで買って死蔵してた1200Wのヤツに乗り換えるから中古市に流すのが一番ええんや >>192
これからも新しい学習手法がどんどん出てくるやろうから、学習結果はその時々の使い捨てやと思うとる
なんで今気に入ってるモデルで学習させて、新しいモデルや手法がでたら同じ学習素材ですぐ再学習するぐらいの気持ちが健全かなぁ、と
まぁ、自分で作るぶんには、なんやが これだけ時代が進んでもPCケースの規格化ってなんか中途半端よな >>207
グラボだけが急にバカデカくなりすぎただけの気もするやで intel「クロックアップ戦争終わらん…熱ヤベぇ…ATXより排熱性能に優れたBTXって企画を考えたで」
↓
ユーザー「クロック追求はオワコン、これからは他コアの時代だからBTXなんていらん」
BTX「グエー死んだンゴ」
↓
nvidia「スペック競争終わらん…熱ヤベぇ…」 >>210
たしかに今のグラボはATX規格というには無理がありすぎるわ
スロット3つ占有したあげく蓋が閉まらんとか、、 guiは動作したっぽいけどコマンドライン画面が強制終了して終わった
そもそもsd-scripts導入失敗してるのにguiで学習できるわけが無かった >>211
せめてベンチマーク台くらいは用意してw いきなり高いGPU買うの怖いからColabを使ってるんやけど、そもそもColabだと困ることって何かあるんやろうか >>203
これloconで作ったファイル読み込めてればエクステンションも適用されてるんよね?
失敗してたらloconで学習した追加の分は反映されないとかじゃないよね? >>216
長い目で見るとサービスに金払うほうが損になるわな
あと何もGPUを絵生成だけに使うとも限らんしな、ゲーマーもおるやろここには guiは使いやすそうねプリセット保存もわかりやすくて良かった >>213
せやせや、3スロット占有とか看板に偽りありやでなぁ。
実際は電源コネクタで+3cmくらい専有しよる。 >>216
ロリとかロリ
サブ垢でも共有してたら本垢も連鎖BANでチーン colab使ったことないけどジェネレートフォエバーオナニー出来るんか? >>155
普通にやったら綺麗に顔出るなあ ええ感じや
ついでに猫耳と顔うまく引けるか自作のウサギ亜人ちゃんLoRA併用してみたがいい感じに混ざるで
https://i.imgur.com/3Fi6aea.png
https://i.imgur.com/F6w8jsq.png
元はこうやから耳とか顔の寄せはうまく効いてそうにみえたで
https://i.imgur.com/hmUNozk.png >>215
すまんちょっと盛ったわ😭
ホンマはマザボが入ってたダンボールだけ敷いとる >>216
Googleドライブに出力して画像がアウロリ判定食らった場合は終わる
あの手のサービスはAIが画像チェックしとるからな 竿役を顔なしハゲにするLORAを極めてえ
竿役に個性や表情があると抜けないわがままな息子は面倒や >>230
現状やとdriveじゃないcolabの非永続ストレージのBAN報告はあらへんからそっちで出力させとくのが無難やろな
いつまでそれが続くかわからんが kaggle民のワイ、中華notebook使ってたら垢ロックされたの巻 ワイの休日が学習用画像の選定や作成で潰れていく……
loraって正方形の画像だけで学習させた方がええんけ?それで学習させても長方形サイズの出力にも対応するんやろか? わいLora赤ちゃんで満足しとったらみんなlacon保育園に入学しとって腰抜かすわ オプションの--cloudflaredって実装されてる?
存在しないってエラー出ちゃうんだけど >>224
前スレでスジマンのせいでPixiv停止されてたニキおったけど
日本国内にいると感覚狂ってくるからなw
こちとら健全なエロ二次元絵出力してるつもりでも
いきなりcolabでBANとかありそうな気もしないではない loconで学習したloraおいてloconの拡張も入れたが効いてるかわからんなこれ
拡張オフでも出るは出るからこれからはlocon使って学習すればええんか 鐘の音とかいうツイッタラー、表現の自由戦士で二次創作やってるのにAI規制論者なのくそおもろい >>247
エロ同人作家原理主義みたいなのはおらんこともないな
90年代の終わりから00年代の終わりあたりまでの
郷愁が強いのが特徴や >>227
検証ありがとう。
学習させている要素は黒髪ショート、猫耳、アホ毛、黒目、黒チョーカー(前リング後ろリボン)、平らな胸あたりやね
平らな胸を学習に入れてるのは、胸サイズをプロンプトで指定するとボロンッってするのを防ぎたくて入れといた
チョーカーは服とバッティングすると消えるけど「black choker」をひとつまみすると、学習を生かして復活する模様 Twitterみてると人間よりAIの方がもう賢いんやなあってしみじみする 前スレに上がってた動画用のVideo Loopback for WebUI使った人いる?
github読んでるけど赤ちゃんにはどうやって使うのか分からん… >>253
すごいっちゃすごいけど手間かかりすぎる >>30
HalfLife Alyxでそういうの生えてた コントロールバリバリだと狙ってるのそのまま出す事になって
描いてるのと変わらんのでは感がね…
https://i.imgur.com/dLKtLTM.jpg
こういう無様な腰を突き出すポーズ好き >>254
言うほどやろか
3Dモデルにポーズとらせたことある人ならちょちょいのちょいやで >>256
そら描ける奴はええやろ
描ける奴がどんだけおんねん・・・ AdaFactor全然分からんとかやってる内にいつのまにやら世間はLoCon一色で周回遅れや
ワイはなんて無駄な時間を... 一周回って構図の得意な絵描きがSD使ったほうが良いフェイズになってる? おいしいスープを飲めばゼボットは元気になる。ゼボットは今日も喋らない。動かない。冷めたスープ作り直し...。
死を理解できないエリーは屍になった主のためにスープとふたなり幼女3pチャンバラ画像を作り続けた >>260
なぜかずっとそれ推してる人おるけどadamw8bitのままでええよ >>262
いや普通に「ワイこれまで絵が描けなかったけどモノ作りたかってん!」って奴が
一番恩恵受けるフェイズが続いていると思うけどな
あとはシンプルに「こんなシチュ絵師が描いてくれるわけなかったけどAIならいける!
公式画像LoRAとかも使って自炊しまくりやで!」って奴か >>256
ワイも結局構図整えるのが下手くそすぎてうまい色塗りの下手な絵が出てくるから結局んとこあんま使ってないわ
絵作りとかなんかもう明確にこのアングルからのこの構図が出したいって人には向いてるんかもしれんな、線画抽出して色変えるやつは重宝しとる ワイ、ダブルControlNetつこてみてるんやが、OpenPose+depth map(手)は手の形を正確に反映してくれんが背景含めちゃんとした絵にはなる
が
OpenPose+CannyやとCannyの真っ白背景を反映してか背景が初期SD1.5みたいなガビガビになるんやけど?
ちなみに全部preprocessor はnoneにしとる >>262
いうて出始めの頃から絵描きにSDは有用だったからそれは変わっとらんよ
AI導入することで作業時間が3分の1になってクオリティは自分的に倍以上になったからな >>260
AdamWでええで
AdaFactorは遅いくせにAdamWより優れてるわけでもない counterfeitってなんやまた新しい技術かと思ったらモデルなのね
アビス系やリアル系モデルよりもアクションに強いとかあるのかね、よくわからんけど
一応同一Seedでやってみた
Counterfeit-V2.5
https://i.imgur.com/pZbtWnQ.png
AOM3
https://i.imgur.com/vK5z3vK.png
これはマシだがアビス系は殴り合いをさせようとすると頻繁に手が増殖したりする
ゆずレモンミルクだと衣装が豪華で殴りあおうとしてくれて草
https://i.imgur.com/uG6GyTZ.png ペンギンLoRAなんてadamw8bitで十分やろと思って回したらNaNに振り切るエラー吐かれてやり直すハメになる
みたいなの何回も繰り返したのが昨晩のトラウマ
多分素材が少ないとか変化に乏しいだと8bitはアカン よし
同じLoCon、Adafactor、1024x1024のLoRA学習でチェックポイントマージだけ変更して学習させてみるか
モデルだけ変えて出来上がったLoRAの出力結果が変わるかどうか >>87
text_encoderとunet設定するとスペースなしで打ち込まれて引数エラーなるやで
--text_encoder_lr=0.00015--unet_lr=0.0001
コマンド出力してここだけ下に取り替えて直打ちしたら動いたで
--text_encoder_lr=1.5e-4 --unet_lr=1e-4 トリプルControlNetで一応出来たけど、手がグチャったり足がぶっちぎれたりと中々歩留まりが悪いわ… サンイチ
https://i.imgur.com/DvnLoru.jpg あ、一応ちょっと手がつぶれ気味だけど右上が成功です>>275 MNKDでVRAM4GBでも768x1024の画像生成できてたんだけど
SSD換装してOSクリーンインストールした後からでかいサイズの画像が生成できなくなっちゃった
どうすれば治るでしょうか?😢 なんでステップ数だけでうまくいくとかいかないとか言ってるのか不思議やったんやけど
もしかしてみんなバッチサイズ設定しないで学習しとるんか? バッチサイズとステップサイズどっちでもいいと思ってたけど違うんか? ダメだ学習スクリプト動かない今日だけで何十ギガインストールしては削除したか分からない 3Dモデルでポーズ取らせるのは簡単だけど描くのがクソ雑魚なめくじ以下のワイにとっては髪のような環境や >>282
いくらトゥーンシェーダーとか頑張っても限界あるしな >>87
使いやすいでサンガツや!
欲を言ったら閉じて再起動しても前回の入力内容が残っとると嬉しいなプリセットはあるけども daamって今使えないの?
2のところが4与えられたってエラー出るんだけど何か追加で入れないと駄目なのか バッチ1換算で話せばいいよ
てか最初から皆そうしてないか そうかloconでAIに更なる日本のオスっぽさを学習させようと思ったが難しいんだな… みんな苦労してるな… >>286
昔それやっててねパワーシェルにアナコンダが必要とか言われて入れなおしたのよねw
他でも同じエラーが昨日から出てそうな感じがあるんですよね解決法法真似しても全然ダメだけどw >>87
sd-scrpt直下にフォルダで入れればええんよな
学習開始おすとシェルが一瞬でてすぐ消えてしま(loconのON/OFFも同様)う。sd-scripts入れなおした直後に起動してもダメやった
動作未保障だからできんかったら諦めるが同じ症状のニキおらんか?おま環かな >>290
入れ直しガッチャしとるんやったらPATHおかしくなってたりせんの 服装とかの特徴の学習法方はだいぶ分かったんだけど塗りの雰囲気とかそういう全体的な感じの学習の場合ってタグどうすりゃええんや?特にいじらなくてもいいの? >>293
ワイはtagger 0.2で冒頭にカスタムワード、ほか一切いじらない
>>121 >>292
よく分からないw何度入れなおしても上に上げた画像のエラーになる
ムキになってやりすぎた気がする素直に他の人の情報待ちながら精製に移行するわw
もしかしたら何か更新があるかもしれないし、今度動いたらバックアップとっとかないと >>13
このブルマってpromptで出した?
それともLoRaで出とるんか? >>295
ちゃんとeasy scriptのinstaller v5使った?構造変わってるから昔のバージョンは捨ててええで >>298
新しいのを使ってるよ
xformersも毎回DLしてくれないから別に取ってあるのをコピーしてる感じだし
おま環なのかもしれない >>300
うおおおおおサンガツ!サンガツ!サンキューガッツ!!
あんたが神や!! PCが夏を無事に超えてくれるだろうかとそわそわし始めたところで、今日ついにたっかいゲーミングキーボードが逝ったわ
変なプロンプト打たれすぎて頭がおかしくなったのかもしれん GUI、bmaltaisニキので吐いたjson設定ファイルとか読めるんやろか 読めるならめっちゃありがたいんやが >>111
intricate
embroidery 呪文が英語だからまだ精神を保てているがコレが日本語の呪文だったら自分のキモさにドン引きして引退してたかもしれない 描き込みの多いカラフルなAI絵に見慣れてきたからラフ絵みたいなの出して遊んでたら、すごくかわい三白眼の子ができて嬉しい
こういう出会いがあるから1girl出しはやめられんのよな
でもちょっとでも設定変えると消えちゃう……儚すぎる
これで設定画ができるpromptで色んな角度とか見えるようになればええんやけどなぁ
https://i.imgur.com/SuLfAHS.png
https://i.imgur.com/g08ix5j.png >>306
外人ニキはSAN値かえって削られているかもしらんな >>283
ワイもこれで躓いてたから修正してくれてサンガツ なんか良さげな論文見つけたわ
後で本文読めたなら貼るわ
あと要約か
9割関係ないかもしれんが実装できたらそこそこ強いと思う >>87
ええやん
暇で気が向いたときに選択だけやなくてコピペでフォルダの場所貼り付けられるようになってくれるとありがたい 前スレのこれってさ、bingに作ってもらったら割と良かった
つまり単語ポチポチじゃなくて英語の文章や
聞きたいんだけど、pink hairって入れたらパンツまでピンクになったり目がめっちゃ充血したり、brown eyesて入れたら茶色のウンコパンツも履きだすんだけど、みんな服の色に影響しないようにどうやってコントロールしてるの? ワイ赤ちゃん以前の精子なんやがそもそも何でUIをブラウザでやってるのか分からんで憤死 javascriptやcssその他諸々揃った超便利プラットフォームを使わない理由が無いから 概要的に良さげ
まだ読めてないわ
Sleep prevents catastrophic forgetting in spiking neural networks by forming a joint synaptic weight representation
Ryan Golden , Jean Erik Delanois ,Pavel Sanda, Maxim Bazhenov
https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1010628
https://doi.org/10.1371/journal.pcbi.1010628 結果そうなっただけでなんでそうなるかはわからんのやろな多分 >>139
すっご
CN無しでfirst passこんな並ぶんかmodelなんや 透明正則化画像がなんで効くのか、っていうのの説明に使われてたやつやな。実際はわからんけど 色_体の部位 みたいな呪文だとAIくんが「了解!髪も何もかも全部その色に染め上げたりますよ!」と無駄に頑張る現象に悩むのわかる >>299
最終手段はスタンドアローンの人のやつやな
LoRAのguiのやつもあるやで
ワイは試しとらんが >>306
本当に4歳がストライクな訳じゃないけど普通の1girlだと頭身高くなり過ぎるから敢えてfemale child, 4 years oldと入れてるんや…信じてくれや… 機械学習って論文が実用にされるスピード早いからええよね 標準的なwebブラウザはレスポンシブデザインを採用してるから、端末の種類やスクリーン解像度に依らずUIのレイアウトできるし、user.cssを使うことでユーザーが好きにレイアウト変更することもできるんや ワイんとこのAIちゃんはBREAK入れればちゃんと分けて描いてくれるから色移りには悩まんくなったなぁ >>324
ニキもおっええやんみたいなの見つけたら実装して晒すんやで🤗 学習始めようとするとこんなエラー吐くんだけどこのSSで原因わかるかね・・・
https://i.imgur.com/53eWxKt.png >>328
モデルのパスに空白入ってるからパスが途中で別引数扱いなってるで こんにちは、こちらはBingです。お役に立てて嬉しいです😊
「著者の要約
人工ニューラルネットワークは多くの分野で超人的な性能を達成できます。しかし、これらのネットワークは順次学習に失敗します。新しいタスクに対して最適な性能を達成する代償として、以前に学習したタスクに対する性能が低下します。一方、人間や動物は、連続的に学習し、新しいデータを既存の知識体系に統合するという驚異的な能力を持っています。この能力は睡眠と密接に関係しており、睡眠中に記憶が再活性化されることで知識が安定化されると考えられています。本研究では、睡眠中の脳波パターン(スローウェーブ活動)を模倣したシナプス可塑性メカニズム(STDP)を用いたスパイキングニューラルネットワーク(SNN)を開発しました。このSNNは、順次学習中に大規模な情報損失(カタストロフィックフォーゲッティング)を防ぐことができました。また、睡眠中のSTDPメカニズムは、記憶再活性化だけでなく記憶整理も行うことが示されました。つまり、重要度や関連度に基づいて情報を選択的に保持または削除することでした。この結果は、睡眠中のSTDPメカニズムが生物学的および人工的なシステムにおける連続的かつ効率的な学習プロセスの鍵である可能性を示唆しています」 >>328
ファイルのパスにスペースが入ってる
""で括れ >>314
UIって処理の本質部分じゃない癖にちゃんと作ろうとするとかなり面倒くさいんや
それをクリアするためにgradioっていう比較的簡単に実装できるウェブアプリ用のライブラリを使っとる
ウェブアプリ用やから当然アクセスはブラウザ経由になるでな >>328
何の処理かワイにはよくわからんがパスがおかしないか
C:\\Web と
UI\\~
に切れてるみたいやけど、これ本来Web-UIでの一続きのパスやろ?
空白の処理ミスってるとかやないかな、とりあえずパスからスペース除くなり、指定しとるなら""で括ってるか確認してみたらどうやろ >>300
すまんguiの最新版入れたらexeがないんやがslnを開かないとできないこれ? ありがとう無事動いた。これは大人しくフォルダ名変えるべきだな >>335
releasesからkohya_lora_gui-x.x.x.zipをDLするんや >>313
え、そうなの?やってみるサンガツ!
ちなみにultra hiresとかbest qualityとかは入れなかった? >>333
ブラウザのUIもいいかっていうとやや疑問なとこもあるが
消去法的に・・・って感じやね controlnetで複数のloraを別々に適用できないだろうか >>253
言うてこれべッドに横になるだけでめっちゃ崩れるけどな 目隠し竿上手くいく方法ある?いつも竿だけ消えるから良かったら教えてくれ すまん、Loraの導入について聞きたいんですけど、sd_scriptsフォルダをターミナルで開いて
venv/Scripts/Activate.ps1というコマンドを入力したら
Activate.ps1 : 用語 'Activate.ps1' は、コマンドレット、関数、スクリプト ファイル、または操作可能なプログラムの名前とし
て認識されません。名前が正しく記述されていることを確認し、パスが含まれている場合はそのパスが正しいことを確認してから、
再試行してください。っていうエラーが出てしまうんだ…
LoRA_Easy_Training_Scriptsっていうインストーラーを使ってて、Gitもインストールしたんだけど何が足りないんだかわかる方いたら教えてほしい
経済的生活日誌っていうブログの説明通りに進めてたつもりです >>316
AIちゃんは電気羊の夢をみるようになるんや… GUIよりWUIの方が簡単てのはあるけどgradioはWUIにしては難しい(バックグラウンドとの非同期実行実現する分にはgradioは良いんだけどシングルユーザーがローカルに入れて使ってばかりなので別に同期実行でもいいじゃんってなってその強み全く活かされてない縛りプレイモード)からなんのためにGUIじゃなくWUIにしてるんだろう感出てくる 全然わからない
ワイは雰囲気で直打ちLoRAしている GUIとWUIって対立概念なんやろか・・・という気はする
でもスタンドアローンアプリのUIって略語ないんやな 枕に後頭部載せてる娘をガン突きしてる構図にしたくてlying on bed,head on pillow,grabbing pillowとか入れてんのになぜか騎乗位ばっかになってまうな
わからん 構図を覚えさせるのって何枚使って学習させてるの?数枚じゃダメなんかな GUI∋WUIだと思うけど日常会話的にはもう
GUIとは、WUIではないGUIのことです
が横行してしまってる 解らない
俺たちはCUIとCLIも雰囲気で使い分けている >>351
構図が似てるならそうなる
lying~を強調しまくるべし CUIとCLIはさすがに方言でいい気がするなあ
違いがあると主張する人もおるみたいやが >>351
そこまで具体的に構図が決まってるならcontrol netじゃいかんのか 走ったと思ったけどダメだったわ。今度はこれ
https://i.imgur.com/se2GDnO.png
network.pyが開けないとか言ってるのはわかるんだけども >>346
venv/Scripts/Activate 又はvenv/Scripts/Activate.bat ではどうなる? >>328
今kohaya_SSで試してたんやけど僕もこのエラーでたw 時々で見かけるloss/averageのグラフtensorboadってやつか
ニキのGUIのユーティリティ押してようやく理解したで
lora学習するときに--logging_dir=logs指定してlogファイル生成をONして
コマンドプロンプトでtensorboad --logdir logpath指定してlocalhost:6006開けばええんやな
これおもろいわ >>360
全く同じ内容のエラーを吐きます
そもそも、venv内にScriptsっていうフォルダがないんですけどこの時点でおかしいんですかね >>328
とりあえずバッチサイズ1で試したらどうやろ 導入すごい難しいよね
ワイも正常に動作するまで何度もCUDAやPython入れ直して結局10日間くらいかかった loconって基本的にはLoRaの準備と一緒で、画像に対応するタグのtxtを枚数分用意して、後はLocon専用に学習パラメータを変えて学習させるだけなの? wsl環境だけど
venv/bin/activateだったな
なんかここらへん俺も詰まった記憶あるわ >>363
easy scriptのinstaller v5使って1からやり直したほうが早い フォーエバーでぐちょぐちょに犯されるロリを見ながら「このプロンプトの強度変えた方がいいかな」などと考えつつ飯を食う >>369
pythonのインストールからやり直してみることにします
無知な自分が憎いぜ サンガツ CUDA、cuDNN、Pythonもちゃんと動作するバージョン指定があるんよね
以前もいたけど脳死で最新バージョン選んでしまうと動かない そこについてはむしろPythonさんや各種ライブラリが
どないなっとんねんって印象ある うーんダメだ。せっかく作ってくれたし便利そうだから使ってみたかったけどコマンドラインは問題なく動くからそっちに戻るわ loconってSD-scriptをgit pullしたらインストール完了なんか?別に何かすることある? そのバージョンの違うモジュールを隔離して運用する仮想環境がvenvのはずなんやが
別のリポジトリのプロジェクトを同じフォルダに展開しちゃって仮想環境の設定がごちゃごちゃになってるんじゃないか? anacondaのせいか知らないがpython3.10.7がインストールされてるのにpython3.9だった
削除してもう一度インストールしてみようかな stable-diffusion-webuiとsd-scriptsとLoConはそれぞれ別のフォルダにクローンするんやで 女の子「先生、私ね、xformersを最新版にしてもちゃんと勉強するよ🤗」
女の子「ほら、ちゃんとプログレスバーが動きだした、あと2時間、お勉強頑張るね🤗」
https://i.imgur.com/dwMpMAF.png
メスガキ「ざんねーん!このxformersは使えないから何も学習してませーん!ざぁこざぁこ♥」
https://i.imgur.com/wu38buO.png マルゼンからか、覚えさせたいキャラのたぐは消す、何だけど
関連してるのを覚えるのかわりと覚えてくれる気はする
それでも目と髪くらいは消すんだけど 変なのインストールしなくてもloconフォルダだけsd-scriptsに突っ込むだけでいけるぞ いまだにマルゼンスキームがいいのかタグそのままのがいいかわからんわ
ワイは面倒やからそのまま派 どおしてコマンドプロンプト落ちちゃうのよ
InstallerV5使って入れ直したのにそれでも途中で落ちてまうわ
どのファイルにpause入れればエラー内容見れるこれ?
ローディングvaeぐらいまでは行ってる ?
LoConってそんなめんどくさいことしなくても、としあきwikiにあるようにファイルダウンロードしてコピペするだけやろ
コマンド叩く必要すらないはずや 今試したらguiでloconは落ちるわ
修正オナシャス ツイ垢作ったけどタグつけても全くビュー無いわ……
エロ絵はシャドーバンされるんやっけ? 言うほど全くしらんツイ垢のエロ絵見に行くか?
AIブーム初期ならともかく すまんトラブって色々試して動いたからヨシ!になったんや
loconフォルダ無しでも動いとる >>318
モデルは7th_anime_3.1_Aですね。プロンプトはごく普通のreference sheetプロンプト、今majinaiにアップロードするとUploading a fileって表示されたところで止まってアップロードできないんだけど、前に上げたこれみたいにたまにたくさん表示されるseedがあるのですね。
https://majinai.art/i/JMDAbSM 見に行かんな
ワイは内輪だけに見せてる感じでいいねも0か1やが別にええと思っとる
嘘やほんとはもうちょい欲しい😭 LoCon導入成功してたら、LoConなしの場合と比べて作成したLoRAのファイルサイズが2倍くらいにデカくなってるはずよな これInstallerV5だとloconの場所が上に行くんだな
loconの中身を直下に移動させたらgui動いたがlocon module createって書いてあったら成功でええか? >>392
loconは別途インストールせんと使えんで シャドーバンが与える絶望感ったらすさまじ過ぎて笑うレベル そもそもツイでそれができていたのがヘンと言えばヘンだったんや
エロ絵専門のとこでやるんや paperspace環境やけど、これを機にsd-scriptsも最新にしようと思ったら見事にコケた
古いモジュールのままでLoconディレクトリコピーして、--network_module=locon.locon_kohyaに
変えるだけにしたら動いた
ワイ、マジで雰囲気でやりすぎや、学習結果を見るのが怖いで 渋だと必ずいいねしてくれる人が20人はいるで
ツイッターは人脈が作れない寂しがり屋には苦痛にしかならんやろなあ LoConくんディレクトリ構成でへぐるのたまにあるわな >>358
t2iで大量出力するからポーズに揺らぎを持たせたいんや >>393
今もそうかは知らないけど作って何日か経たないと反映されなかった気がする いやこれからmulti CNもやらなあかんやん
もうAIちゃんが勝手にやってや >>393
ツイはフォローしとる人とかのTLに割り込ませてくれるみたいやから
めっちゃフォローせなアカンで 赤ちゃんで良くわかってないんですが、キャラクターを再現したいときはWikiのDreamboothの使い方に従うのが安牌ですかね?
コイカツてのスクショをベースに学習させてるけどむずかしい... >>392
locon入れるとこ間違ってるだけやぞ >>408
いいねとブックマーク合計で閲覧数の1割行ったらわーいっぱい付いたーって感じかなぁ
なお閲覧数は行っても200ってところや すまん、クッソ初歩的なこと聞かせてくれ。sd-scriptsのvenvが有効化できんで困っとる。
bingに聞いたらsd-scriptsのフォルダでアドレスバーに「cmd /k .venv\Scripts\activate.bat」叩けって言われたんやが、そうすると「指定されたパスが見つかりません」と出るんや。
「仮想環境のフォルダ名やパスが変更されている場合は、それに合わせてコマンドを修正してください」と言われるが、sd-scriptsフォルダを移動させたこともないし、そう修正してええか分からん。
赤ちゃんすぎて恥ずかしい限りやが、教えてクレメンス。 環境構築にAIが頑張ってほしいってのはマジであるわ >>416
閲覧数少なすぎんか?
ワイ始めたばっかだけど閲覧数全部1000は行ってるぞ >>402
もちろんしてるで
>>415
かもな
便利やけどまあ直打ちに戻るわ DreamBoothでファインチューニングして数GBの失敗モデルを量産してたの今思えば狂ってた >>417
そもそもsd-scriptsのフォルダに.venvフォルダはあるんけ? >>414
それもう何ヶ月前の情報や
今はlora、loconの時代 >>356
Vimとただのsed比べりゃその2つのち外わかるで loconとhires.fix使うと高確率で服がグチャりやがる😡
https://i.imgur.com/58Vh5Wg.jpg >>424
loraのほうが流行りなんですね...loconは馬鹿でもわかる情報が少なくてつらい... loconで精度上がってもlatentで書き換わるならーかな。。
黒子とかだいたい困るよね、後から足せよ、つてのもあるけども >>423
ファー!!よく見たらフォルダ名「venv」だったンゴおおおおおお!!
普通に入れました。スレ汚しすまんかった。
ていうか、もしかしてEasy_Training_Scriptsは導入した時点でlocon適用されとる・・・? それはHiresでLatentつかってるからやないの .venv派
ドットなしのvenv派
その他都度名前変える派 >>433
まじですか😨
みなさん今何使われてるんです? なんか最近学習をコマンドでやり始めてエラー出た😭って書き込み多いけど
コマンドの方がいいみたいな情報でたんか?
ポップアップでも十分やろ loconは成功してたら実際ファイルサイズどんなもんになるんや
dim64,34 locon用のも64,34で1.5Mbとかなんだけどこれlocon前もこれ位だったきがするんやが >>435
automatic1111のwebui
とんでもない浦島太郎おるね >>438
前にここでどっちでもいいって聞いたやつじゃん そんなにファイルサイズ少ないんか
ワイの場合はLoCon導入前はLoRAひとつで200MB、導入後は2倍でひとつ400MBくらいやな 強ツヨな人が1111の方にプルリク送ってる時点でね >>429
dim128,alpha128で4500step回した
>>432
Latent以外でもなりやすい Twitterでたまに3桁いいねつけばいい方だけどあんまり気にしたらあかんわ
気が向いたときにあげたいもんあげるくらいじゃないとやっとられん adafactor覚えて満足して少し制作に勤しんでスレ来てなかったらこれだよ
なんだよloconって… counterfeit、マジ風景がいけてますなぁ……でも表示されてる人のスケールおかしくね!?
https://i.imgur.com/fBeymdU.png Easy_Trainingのページに3/4locon対応したって書いてね?翻訳掛けただけだから合ってるのか知らんけど 人気版権キャラならフォロワーなしから8000いいね余裕やぞ 大人を小人化したようなえせロリから卒業できそう
ヌードもいける >>87
ワイも>>291と同じ症状や・・・。何がアカンのやろ。 >>443
loconでキャラ学習は64か32でええよ >>291
>>455
ワイは
>>400
で同じエラー治った 参考にしてみてくれ kohyaさんの説明通りのインストールでsd-script入れて
原神LoRAメモに書いてる通りのvenvしてpip install loconで一応ワイは動いとるっぽいけど >>451
いいねの快感に侵されたら無事イナゴ絵師ルートやね >>87ニキ、直近分だけでいいからエラーログはどっかに吐かせといてほしいでな(あるんかな)
いろんな理由でおそらくプロンプトは落ちるんやが挙動同じやからみんな同じ報告しかせんやろこれ
とまで書いたがまあ自己責任やもんな はらんかったらええがイムガーに喧嘩売ると面倒いかもなぁ… 実験したときはLoRAのdim128でキャラ10種類+衣装5種類丸飲みしたわ
LoConやとConvolutionalが増えて単純に言えばさらに倍な訳やし過剰も過剰やろな
特にお試しなら32でええやろ dim64alpha32で今作っとる最中やけど148 MBになっとるからlocon出来とるはず >>470
locon 64 32は152237kbや >>472
正確なサイズは155,888,473kbや
多少の誤差でセーフと思いたいが >>411
おーそれやったら希望あるな
しばらく待つか
>>413
サンガツ試してみるわ!でもそれクソ仕様やな 155,888,473 byte = 152,235 KBやで >>461
上手くいかんかったか?
たまたま偶然の産物だとは思うで >>467
見えてなければセーフかと思ってたけどやばいんか ここ何日かmajinaiアップロードできないんだけど、アップされてる絵は毎日増えてるからできる人はできてるんよな…… metadata内の学習時の設定記録やらコメントやらでsafetensorsの中身アレコレ変わるんやからKB単位で一致する訳ないやろ
そんなに不安ならsafetensorsのJSONをparseしてConvolutional用のデータができとるか見るのが一番や 学習スタート時に羅列される怪文書の中にloconの文字出なかったっけ FBIモデルのDLクソ遅いって4chanでも言われてるな >>458
確かにloconを直下にしたら少しだけ進んだわ。
でもloconを使用するにチェック入れると落ちるな。locon使えた? sd-script更新したら滅茶苦茶使い勝手良くなってる
さいきょーか? >>466
ターミナルが勝手に閉じないようにしたよ InstallerV5
sd-scriptsやなくてsd_scriptsにするのが何か気にいらんかったから使わんようになってもた EasyTrainingScriptsのArgsList.pyにloconの設定入ってるからcommandlineでもpopupでも使えるんじゃね?
ワイ直打ち派やからしらんけど 履歴よく見たら学習中のサンプル画像生成に対応しとるやん
これで南無三Ctrl+Cしたり別環境に持って行って味見する手間が減るわ ITエンジニアには、パスの文字には英数字とアンダーバーのみを使いその他の記号はたとえシングルバイトであっても避けたがる風習があります。一見奇妙な風習ですが、実際パスとかで使えない文字って正確にはどれだっけ?といちいち覚えるのが面倒くさい人々には受け入れられています。
ちなみにsdはガンガンスペースやカンマの入った画像を生成しまくるのでだんだんどうでよくなります >>495
シンボリックリンク使えば今までも出来たやろ
たまにグラボメモリ足りなくて両方止まるけど わい(21)conやけどリアルすぎるのはリアルすぎるからリアルすぎてあかんわ anaconda消したらpcが軽くなったインストールミスしてたのかな Depth Library 使った人に聞きたいんだけどアレってwebUI場で反転できる?
左手ばっかだから出来るはずなんだけど もしかして反転画像自分で用意して突っ込まなきゃいけない? あかちゃんのワイ、locon手を出すのが面倒くさくて低見の見物
ぶっちゃけそんなに圧倒的にloraと差あるんかえ? >>503
圧倒的にクオリティ違うで
導入もとしあきwikiに書いてるようにファイルコピペ、メモ帳コピペするだけやから3分で済む >>503
loraよりちょっとクオリティ高いがlora自体でも十分クオリティ高い >>502
サイズを小さくしていったらそのまま反転できる 画像消しとくんやで
ツイカスに知られたらまずいやつやわ >>505 >>506 の限りだと、これまでスレ追ってた民的には回避不可案件か
後押しになったから今から環境作って動かすとこまで頑張ってみるわ
サンガツやでぇ
表現の加減は違えど全体的にマイナス評価かなり少なめっぽいしなぁ kohya's guiならプルダウンでlocon選ぶだけやで わいlora教育すらできんけど
近所の猫が言うには、既存の教育に新しい教育概念を追加する方式やから
単純にプラスにしかならんらしいで、そのかわりメモリも食う loconの背景学習は気になるわ 細かいところまで再現出来るならカラオケルームニキとか感涙やろ >>509
マジや!サンガツ!!
じぶんやったら一生きづかんかったわコレ >>507
透明NGで見えないけど末尾dならただのホラ吹きや >>483
なんかmajinaiあかんから直接貼るわ
parameters
<lora:hiqcgbody:0.1>,
big eyes,beautiful detailed eyes,oppai loli,completely nude,
((best quality)),little sisters,(fatmen surround the girls:1.3),nsfw,(around penis:1.2),(male masturbation),(Penis on armpit:1.2),,(cum on armpit:1.2),(8k wallpaper),yuruyuri, ((ultra-detailed)), (illustration:1.1),(((toddler,child))),finely detailed beautiful eyes and detailed face, perfect anatomy,detailed,sidelight,hetero,(cowboy shot:1.2),charactor printed T-shirt,frilled skirt,(public park:1.2),(near the concrete wall),(Steam around the penis),((smile)),troubled face,(shiny skin:1.1),(building shade),photo background,(dynamic angle:1.2),from above,various hairstyle,flat chest,
Negative prompt: (bad_prompt_version2:0.8),(monochrome:1.5),(bad-artist-anime:1.3),(bad-artist:1.3),(worst quality:1.5),(low quality:1.5),normal quality,(lowres:1.5),(3D:1.2),(angry:1.5),(crying:1.5),(glaring:1.5),(frown:1.5),(long body:1.5),bad anatomy,jpeg artifacts,blurry,bad-hands-5,
Steps: 40, Sampler: DDIM, CFG scale: 10, Seed: 3851659649, Size: 512x768, Model hash: c5abf9bcb2, Model: sitaINALL_sita_mix_nsfwOUTALL, Denoising strength: 0.5, Clip skip: 2, ControlNet-0 Enabled: True, ControlNet-0 Module: depth, ControlNet-0 Model: diff_control_sd15_depth_fp16 [978ef0a1], ControlNet-0 Weight: 1, ControlNet-0 Guidance Start: 0, ControlNet-0 Guidance End: 1, Hires upscale: 1.5, Hires upscaler: R-ESRGAN 4x+ Anime6B スレ斜め読みの感じだと、easyLoraのsd-scriptじゃなく、本家(?そもそもそんなんあったんか……)のsd-script環境を別途作ったら良いんやよね?
環境変数とかゴチャる要素が無いことを祈る ワイは学習に関してはある程度マスターできたからcontrolnetやるは
こっちの方が応用ききそうだしちょっと放置してたら色んなの追加されてて草なんだ LoConがどんだけ抜群の成果になるか、このスレだけでも何例も貼られてるからわかるやろし
導入は必須レベルやな >>522
ControlNetはわりと簡単やと思うで
3Dモデルさわった経験少なくて棒人間用意するのに苦労 とかだと若干大変さ増すかもしらんが >>525
昨日スレに貼られてたのを丸コピしてるだけやでたまたま出たんや >>524
最初の時に入れて以来触ってないんだ
今は指先の調整とかi2iのcontrolnetとか動画の応用とかすごい多そう
早くワイ専用のAIアシスタント作って一緒に暮らす夢叶えるんだ☺ 動画応用はまあ今素人が手を出すジャンルじゃなさそうやな
プロが道楽でやるもんや controlnetは突き詰めるほど使用者の空間認識能力が問われる気はする
ガチガチのCN指定でパース狂ってたら、生成がそれに引っ張られて奇形化するしな
まぁCNの強度下げたら軟化はするが、それでやっぱパース意識は必要だと思う cannyでガッツリ指定すればパースとかも関係するかもしらんけど
棒人間(+手)とかで奇形化言うほどするかなあ >>510
削除申請しといたわ
すぐには消えないっぽい… >>456
alpha64にしたら見事にグチャらなくなったわ
アドバイスサンガツ
https://i.imgur.com/xvpEqyE.jpg >>532
easy作者曰くアルファはdimの半分がよくてアルファイコールdimは昔の作法やって >>492
サンガツ!
これでエスパーしようもでてくるやろ…… >>532
alphaだけ下げて良くなったんか?
なら例の演算アンダーフロー問題をモロに踏み抜いたのかもしれんな >>531
mateとかなら削除用のやつあるやろ…… なんか困ってるのいるっぽい?ので適当にEasy_Training_Scriptsで導入した場合のloconの使い方を書いとくよー
https://i.imgur.com/8ac5HTj.jpg
ArgsList.pyで設定するとpopupの方でも有効にはなるけどdimとかalphaを学習ごとに設定出来ない
なのでjsonで設定してそれ読みこんでやりゃいいじゃないって話、設定見やすいし
jsonの生成は、popupの最初の方の質問で、json保存するのと設定決めるだけで学習はしないって選択肢選んでやりゃOKよ
あとはそのjsonを書き換えて設定してくれ
「run_command_line.bat」でaccelerate launch main.py --multi_run_path "フォルダのパス" にしてやると、フォルダ内のjson読み込んで
順番に実行してくれる、いろんな設定試して検証するのに便利だね
あと、locon有りのファイルサイズはLoraのdim+loconのdimのサイズだから、dimの数値合わせたらそりゃサイズ倍になるわな
「AdamW」か「AdaFactor」どっちがいいかってのは色々試した感じ、ホント学習内容によるとしか言いようがないねコレ
てことで「この設定にさえしておけばオールOK」みたいなのはないよ、結果が気に食わんかったら色々変えて試せー ワイこのスレに2022年だけで「ポーズの指定できるようになればなあ」って
10回か20回書いたと思うけど、まさか2023年の2月でもうできるようになるとは
思わんかった
早くて今年の終わりとかかなと あかん自作のlora思ったより崩れるわやっぱ枚数多すぎるのも良くないのか 実写で作ってるからかloconよりもlora+composable lora+block weightで調整した方が断然クオリティ上げられるんよなぁ
locon版のblock weightは更に複雑になるけど作れるもんなんかな >>543
トリミングや白抜き駆使した似通った質の低い画像なら多過ぎればよくないし
質の高いイラストなら多くても問題ないし
二次創作とかで色々な作者待ってる感じなら多い方がむしろ画風を均質化するから多い方が良いくらいだし
多すぎの内訳によって良し悪しはバラバラや https://civitai.com/models/15641/panties-de-aratori
パンツであやとり、ある程度修正したLoCon版と通常版どっちもあげといたけど打率は同じようなもんなんだよなあ
sd-webui-depth-lib使えば変わるかもしれない >>545
ちなみに300超える枚数の場合は回数は1かいでええんか? 単に回しすぎじゃないか
回数回したいなら学習率を下げてみては 動画作ってみようかなと思ったけどCNですら数打っても手の形きっちり踏襲出来ないから動画やる気失せるな… >>547
繰り返し回数のことならワイは荷重付ける目的でしか使ったことないからそういうの無いなら常に1やな
複数キャラの時にどうしても画像少ないキャラだけ3にするとか公式絵の顔のアップだけ5にするとかはやったけど
画風やシチュエーションは全1や locon中々イイ感じなんだが128dimでやったせいか過学習してる?
ポニテとまつげを学習させたのに安定しなかったり学習させなかったせいもあるけどそばかすがないわ
64で今からやり直す
https://imgur.com/rxUOXYF.png
https://imgur.com/OjY1Buz.png
https://imgur.com/k98kA4Q.png >>549
指5本きっちり描いて動画にすると6本に見えたりするから指なんて4本でいいんだよハハッ
https://i.imgur.com/68DkNP4.png PANTORIの更新サンガツやでぇ
ちなCivitaiのタイトル、アラトリになっとるで(こっそり) danbooruに登録されとるワイの絵についてるタグ全部入れたらかなり類似度の高い絵が出てきた
これひょっとしてワイのDNAもAOMの血肉になれとるということやろか?だとしたらかなり光栄なんだが >>554
直したわサンガツ
安定せんけど標本みたいに外人ニキが最適解出してくれるやろ(ハナホジ) LoConのdim128でも問題ないはずだけどな
従来のLoRAでは崩れやすいものもLoConでは安定しやすい
現状のスタンダードやな >>555
すごく参考になるけど右手に左手が付いてるように見える imgurの画像はchmateの画像履歴から簡単に消せるんやないか? >>559
目がちゃんとそのまま出たのは良かった
かわええわこのこ アヘらせたい >>551
そばかすとかホクロとかaiにはノイズに見えるし難しそう
でもこれはクオリティ高いね >>490
出来たで
loconをpipでインストール済みならやっぱどこかパスがおかしいんやないかな
loconmainごと全部入れたりとかしてないか? >>551
ポニテとかソバカスはタグきって別枠で学習しないとキツイで 初歩的なこと聞いて悪いんやが
としあきwikiのマルゼン通りにやったら20_プロンプト名で1ファイルの予定だったら分けて10_キャラの顔と10_キャラの服で2ファイルってことでええか??
その場合どちらも入れる画像は全部同じでタグだけ分ければええんやろうか?
いつも1ファイルで顔だけ学習
服はダンボールタグで呼び出したらほぼ似たようなの出てくるから満足してたんや >>564
すまん、Easy版のことかと思ってレスしてたわ。やっぱ本家でやらなあかんか・・・。
なんかみんな簡単そうに導入できてるのがわけわからんで。
ワイは最初のsource PATH_TO_SDSCRIPTS_VENV/Scripts/activateすらエラー返されてる状況やのに。ワイってホンマにアホなんやなぁ・・・。 anacondaを削除したらコマンドラインが起動後即終了するようになって調べたらAutoRunが勝手に設定されてるからだとかで削除したら治った
ssdが遅くなったり謎の100%使用フリーズ連発してたのもanacondaのせいだったっぽいしアナコンダってウィルスでは? どうも>>32です ASROCのB550? Steel Legendにグラボ二枚刺さらなくて泣いたけど
3060でおかず画像高速作成でとても最高です >>569
Windowsでは.\venv\Scripts\activateやで locon学習3060でバッチ4行けた
おためしdim64 3000ステップぐらいでもガッツリ覚えるな過学習過ぎなのか全く脱がなかったが
https://i.imgur.com/rcxjXsN.png
Easy_Training版入れてるならおとなしくpop upでやればいいと思うぞ
俺は赤ちゃんなのでおとなしくpopupでやったが作れたぞ 必要なステップ数はLoConの他にもAdafactorの有無なんかでもだいぶ変わるしな UIが出ないと思ったらsd-webui-lora-block-weightがエラー?吐いて機能しなくなってもうた
昨日問題なく動いてた時から特にいじってはないはずだけど
extensionsに入れたりscriptsに直接入れたりしても変わらず
https://i.imgur.com/UEYAKiV.png >>569
LoRA_Easy_Training_Scriptsでlocon使いたいってことであってる?
update.bat使っても何も起こらんかったから
LoRA_Easy_Training_Scriptsフォルダ丸ごと削除してinstall_sd_scripts_v5.batで入れ直したらlocon使える最新版入れなおせた
最新版なら入れ直した後はrun_popup.batでもloconの選択肢出てくるから使える loconでの生成が成功したってわかるのは、ファイルサイズが倍になるって事だけ? 今日1日lora使えないと申していたものですが
anaconda削除してpython3.10.7でLoRA_Easy_Training_Scripts入れたら一発でいけました
お騒がせしました 今までanacondaのせいでxformersもdlされなかったんだ今やったら普通に入ってる 似たエラーが起きた人もアナコンダ入れてて同じ状況だったりしてw >>578
まあ無事に入ってよかったなあ
anaconda入れとる人はvenv入れるにもpyに直してせんとanaconda側のPythonバージョンに引っ張られたとかはたまに聞くが ワイも昔Pythonのバージョンで環境壊れて泣いたなあ >>584
それっぽいです、たぶんアナコンダのpython3.9のままだったから全部おかしくなったのかも
python3.10もDLしてたから分からなかったw 何故かControlNet動かないから未だに人の作ったLoraやマージモデルでシコシコ遊んでるだけやわ...
もうついていける気がせんわ
https://i.imgur.com/1dCq8bV.jpg
https://i.imgur.com/oIVMIoE.jpg >>581
—optimizer_type=AdamW なんてオプションはないって言ってるぞ 難しいことはよくわからんがlocon動いたのでヨシ! 自作LoRA/LoConの動作確認に適当なCNのOpenposeでかましてみるの案外ハンコ選別にええんやろかなあ Control Net周りはガンガン実装されるのにTensorRTが未だに放置されてるのなんでや? dim128はやりすぎか
dim64alpha32がまぁ広く無難って感じか なんでやろうな
docker or Linuxの時点でぱんだ高校生は難易度高いって書いてあるし1111に実装するのが難しいのかね
何倍も生成速度が早くなるとか何よりも優先されそうだが Locom環境構築、5分で躓くの巻
本家(>>158 ?)から取ってきた【sd-scripts】に、そもそもvenvフォルダが無いんですが、どうすれば……
https://i.imgur.com/5W6KWEh.jpg
そもそもなんか前手順が必要そうだがわからんww
easyの方は使わない方が逆にややこしく無さそうってことだし…… >>488
野球見てたからあんまり確認しとらんけど、一応学習は成功しとったで
試しに適当な設定で動かしたから、Lora時代より生成画像はいまいちやったけどな
Loraで成功した時のパラメータや学習素材で、もう一度試してみんと何とも言えんわ >>597
それやらなあかんのか……
インストール済の既存のautomatic1111とかloraの環境の設定(主に環境変数周り)と干渉しないか不安すぎるんだが…‥
素直にやってみるよ
サンガツやでぇ >>598
venvは干渉しないための仕組みやからちゃんとやってたらそうはならんで TensorRTがなぜ難しいかは使ってみればわかるで
LoRAとvaeは埋め込んで使えるがハイレゾが出来ん
高解像度一発出しも無理
ワイの3060 12GではVRAMが足りん >>599
そうなのか
こういうときの不安解消のためには、python周りの基本的な知識あった方が後々良さそうやね 拡張の更新して再起動したらInstalling None から先に進まなくなったんだけどエラー表示されないから原因がなにも分からんかったわ
launch.pyで復活したからよかったけど謎
ていうか今日locon組み込まれたんだな id被ってるじゃん
今週2回目なんだけどどうなってんだよ AI絵が生まれる前と生まれた後で、一年間に世界中で生み出されるCGがどの程度増えたのか気になる Loraの環境整えようとwikiの書いてある方法で実行しようとしてるんだが最初からつまずいてるから教えてくれ
LoRA_Easy_Training_Scripts Installersの install_sd_scripts_v5.batを実行した。
wikiにはsd-scripts 本体と Easy_Train_Scripts が入るとあるんやが、Easy_Train_Scripts しか入ってない。
なにか解決のご知見あれば教えて欲しい。
というか、Loraの環境構築ってwikiのやり方がオススメなんか? ココ拝見してるといくつかありそうやが... OpenPose EditorのSend to txt2imgとSend to img2imgが効かなくなってるの俺だけ? >>607正しくは「to 数字」が効いてないだった
txt2imgなりimg2imgで画像読み込みすれば済むんだけど不便だな >>606
ゼロからinstall_sd_scripts_v5.batを実行した場合
LoRA_Easy_Training_Scriptsフォルダの配下にsd_scriptsとloconも一緒にインストールされる
https://i.imgur.com/9egvLfq.jpg
あとはrun_popup.batかrun_command_line.batで実行するだけ
ガチ初心者ならrun_popup.batの方が楽 一日目を離すと浦島太郎になるのこのジャンルだけやろ ただ、最近のはガチの初心者にはpopup版逆にキツいで…‥
推奨選択肢無しで、いきなり良くわからん選択(まぁオプティマイザー選択なんだが、初見ゴロシじみてる)を迫る場所が数カ所ある わぁーloconデビューできたっぽいぞ?
みんなのおかげだありがとう しかも今のpopup版って、cancelとかデフォルト値無いところ数カ所有るからな >>592
TensorRTはCUDAありきでAMD等切り捨てになるから1111では実装はしない方向とかいう話じゃなかったっけ? >>583
時代というかpythonの仮想環境はvenv以外は一切使うなと言う流れ LoConは学習のステップ進めすぎた時の
プロンプトの言うこと聞かなくなったりseedでの良い意味でのバラつきが無くなり始めるのが早い気がするな
特に学習画像の背景が偏っとる場合に背景いじれなくなるのが早い 1111ってネイティブでamd gpuサポートあるん? 動画はまぁ連番にしてCannyかけてで終わるから良いけどチラつき減らそうとするとAuto Loopbackの設定がさっぱり分からん t2iadapterのfp16にopenpose来てたんやな試してみるか lora作成ならシェルスクリプトかバッチ作ればいいじゃん >>624
popup版で jsonファイルだけ作って保存 を繰り返して jsonファイルをどっかのフォルダに突っ込む
Do you want to run multiple trainings? で yesを押してフォルダを選択
でできる
コケたら止まると思うから学習のステップまでたどり着いたjasonファイルをコピーしていじるとええで >>627
popup版でももうloconできるんか? >>621
アフィカスにできるわけ無いやん
転載がせいぜいの知能やで AIブラウザくんに最新情報も正確に追えるようになってもらうしかねぇ >>622
虐げられたRADEONの民だが
linux環境だと本家をgit clone でROCmで動くようになってるらしい
windows環境だとDirectmlで動かすフォーク版があるからそっちを使うと動く
学習関連は駄目だがradeonでも1111版webUI使って生成はできるね やったー
とはいえ、cuda使えないことによりメモリ効率が悪いらしく
生成速度も描画解像度も比較できないほど下みたいではあるらしい >>611
サンガツ Loraって言葉が飛び交い出した頃に一回やって放置してた
もう一度環境構築からやり直してる。
run_popup.bat実行したけど無限にpopup出てきて?がすぎる
wikiやkoyaニキの見つつ進めてるけど、分かりやすい手引書などどこかにあったら教えてくれるとたすかる としあきの手順でLora環境構築後,sd-scriptsディレクトリに
git clone https://github.com/KohakuBlueleaf/LoCon
cd LoCon
pip install
でLoCon入れて学習始めたらエラー吐くんやがどうしたらええんや
https://i.imgur.com/v17m7tD.png CHILL OUTすげーで戻ってきたけど
今はコントロールネットすげーで誰にも公開することのないオリキャラ作品の制作がはかどるわ >>608
majinaiに上げられないのでプロンプトだけ
(monochrome rough sketch, watercolor: 1.35), 1 girl, various expressions, emotions, various poses, dynamic poses, upper body, cowboy shot, full body, (reference sheet:1.2), (infographics:1.2), (blueprint:1.3)
Negative prompt: (worst quality:1.3), (low quality:1.3), (bad_prompt_v2:0.8)
モデルは7th_anime_3.1_A、他のモデルで使うときはreference sheet以下の強度は再調整した方がいいかもしれない。
hiresの設定なんかはこちらを参照
https://majinai.art/i/JMDAbSM
なお、scribbleで清書をお願いしたらこんななった……正直ラフ画の方が(略)
https://i.imgur.com/07X4nX1.png >>634
としあきwikiにそんな手順書いてないやろ
としあきwikiに書いてるのはダウンロードしたフォルダをコピペするとかめちゃ簡単な手順やで RTX4090使ってるんだけど最近めっちゃPCフリーズするようになったな。同じ症状の人いる? ラフがくっそイイ感じにできて傑作の予感ビンビンだったのに
塗ったらなんか普通というかコレジャナイになる現象
AIくんでもあるんやな… >>632
rocmはlinuxオンリーだっけか。radeonは学習できないとかまだまだきついねえ
wslあるし生成できるならまだマシか >>634
LoConの導入手順もとしあきwikiにちゃんとある
「最近の出来事」のLoConのとこ、「もっと見る」を押せばめちゃ簡単な導入手順が書いてるよ >>634
何も設定せんでもloconインストール成功しとったら
普通にlora学習すれば locon dim=4 locon alpha=1 で動くはずなんやが
なんかパラメータの名前間違えとるとか
colabしか使えんしnotebookも違うやろうからこれ以上はわからん >>639
それはAI関係なしにパーツの不良かOSの破損ちゃうんか >>637
ははぁ、scribbleにかけるにはこのくらいラフの方がいいのかもしれない。あと、先ほどのはannotator resolutionが低かったかも。
https://i.imgur.com/4kQosvf.png
↓
https://i.imgur.com/QmjOeOC.png 汎用アニメ系モデルは王道から逸れたベリーショートヘアや美少年や男の娘や褐色とかに弱かったりするな
ベリーショートはショートに男の娘はおっぱいがって感じにうまくいかんわ >>634
LoCon(大文字交じり)じゃなくてその下のlocon(小文字)を置くんちゃうか
としさんの最近の出来事ファンです(小声) >>639
電源足りてるか
熱暴走してないか
あと電源コネクタがしっかり刺さってなくて溶ける不具合がある >>396
サンガツ
うちmajinaiアップロード中に止まるのDynamicPrompts のTemplateがpng内に入ってるときやった
https://i.imgur.com/Ejy2HFP.png >>633
文字通り日進月歩の勢いでオプション項目増えていってるからまとめきれてるところないと思う
ポップアップの各質問をchatGPTやDeepLで翻訳したり、
https://github.com/derrian-distro/LoRA_Easy_Training_ScriptsのList Of Arguments見てどの項目がどういう設定なのか確認していくしかない
とりあえず「キャンセル押したらデフォルト設定が入るよ」って英語で書いてあるのは全部キャンセル、項目どれか選ばなきゃならんのは一番上の選択肢選んでおけばいい
もしくはArgsList.pyをメモ帳で開いて直接編集してrun_command_line.batで動かす >>649
うちDynamicPromptは未導入なんですよね。何で引っ掛かってるのか…… guiのおかげでtensorboard使えるようになったから使ってみたんだけどなんか荒ぶり過ぎじゃない?こんなもん?
https://i.imgur.com/FFYK1La.png >>652
1 stepごとのはめっちゃ荒ぶる。
averageの方見とけばいい >>652
Smoothingって項目の数字ぐりぐりすると滑らかになったりするで >>608
このなんか描いてあるようで何の情報もない感じほんとすき smoothing右端まで持ってったらそれっぽくはなった
https://i.imgur.com/35SDuhf.png
ちなみにバッチ数5だから約10000step >>450
さっそく嫌儲のゴミが転載でスレ立ててやがったからこういうの画像付きで貼るのやめたほうがええで
転載カスが自分で生成してるのは一度も見たこと無いから画像無しなら問題ないはずや >>659
loraの学習時にログ出しとくと>>362の方法で見れるんえ
初期からあったで まだまだ厳しいね
https://i.imgur.com/SyhVPNS.jpg
CNがどうこうじゃなくそもそも無理って気がする i2iでimages do not matchってエラーが出るんやが、これは何が原因なんや?調べてもPython関係しか出てこないから誰か教えてクレメンス >>662
i2iというよりinpaintやなスマン >>662
SD upscale開けっぱなしにしてるとかじゃないか >>641
wslじゃ動かないのだ
そもそもwindowsでROCmを動かすドライバすらないから仮想環境でドライバ見つけきれないのだ
AMD仕事しろ 様々なエロポーズした棒人間画像ってどっかで配布されてない? なんか短期間でハードル上がり過ぎじゃね?
locon じゃないコマンドですら躓いてたのに…locon とか出来る気がしないわ 俺の脳みそが精子以下のカスだから悩んでんだけど手に入れたLoRAを反映させるトリガーワードを忘れるとかお前ら無いの >>639
うちもそう
4070Tiだけど先週から負荷関係なく日にゼロ~2回程度起きてる
いずれもwebuiは立ち上げてたけど基本立ち上げっぱだし関連不明
win11でドライバ528.49
今日1111入れ直して様子見中 なんJwikiのほうにダブルフェラのプロンプトがある
で、なんとかトリプルフェラをさせたいわけだが上手くいかん
「「3girs」やな!女の子3人描くで!」まではいいんだが、どうも顔がぜったいカブらないように描画している気配がする
で、竿までの距離が足りないもんだから竿のほうが2本になったり3本枝になったりする、たまに双頭ディルドー咥えてたりする スレ民のおかげで多分loconいけた…‥のかな?
あとはloraが使用できる環境で、loraと同じように使えば良いんよね?
サンガツ!
■モジュール名にLoconの文字があるからいけてる……はず?
https://i.imgur.com/U9OfG4g.jpeg
とりあえず今日は最近作ったloraの設定と出来るだけ同じにしてこのまま寝て、明日結果確認してみようと思う 途中送信しちまった
multiControlNetを使えばなんとかなりそうな気もするが、さて難しい
ちなみに独り言や >>669
プレビュー画像編集してトリガーワード書いておくって案が昔出てた気がす >>662
latentの時は前後のアスペクト比ズレてるとそれ出る 削除遅くなってアフィられてるやんけ……
AIさんの描くロリ、犯罪レベルになってしまう [306880437]
https://greta.5ch.net/test/read.cgi/poverty/1677940922/ >>639
4090ではないけど
動画を見てるとPCフリーズしまくってなんじゃこりゃァァってなってドライバやBIOSやSSD入れ替え電源入れ替え色々やったけど収まらなくて
firefox再インスコしてプロファイル作り直したら嘘のようにフリーズしなくなったって経験したことあるわ 2キャラ以上の絡みになると途端に難易度上がるよなぁ
どうにかならんものか >>669
最近はプロンプト入力補完のextension入れてrolaの呼び出しコマンド登録しておくのが主流なのか? Pythonはパッケージ管理めんどくて、dockerでいいやってなってるワイ おねショタ手コキ実現までの軌跡をまとめ続けたら、AI画像生成の進化の歴史の本作れそう 1girlで出して、おっこの衣装いいやんってなってもどんなプロンプトで呼び出せばいいかわからんというw >>683
taggerにぶち込んでそれっぽいキーワード拾ってみるとか? >>681
何かインストールするときはとりあえずコンテナイメージ作っとこの精神 >>675
どうやらそれだったっぽい、サンガツ!
ただどう見ても縦横比1:1なのに何故か768*512って表示されているんよな、新たな謎が生まれてしまった 最悪破壊して1からやり直せる環境ってのはいいもんだ radeon viiが手に入りそうなんやけど性能的にはどうなんやろか
一応16GB積んでるしそれなりの画像は出せる・・・のか? dockerはどうも慣れなくてPycharmに行き着いたワイ >>670
追記
KB5022913とKB5023288あてたわ >>689
コンテナとIDEがなんで比較対象なのか意味不明なんやがどういうことや? >>688
動作についても金銭的損害などの責任も環境構築方法も、どの程度のことまで無理矢理使えるのかも、消費電力に見合った効果がどれだけあるのかも、何にも保証たんけど、人柱での報告は大歓迎だぞ >>629
なるほどーと思ってやったら見たことのない質問いっぱい聞かれてやめた👼
赤ちゃんには早かったようや AOM2が好きなんだけど似た雰囲気の派生って何かありますかね
AOM3はネガティブプロンプトの設定調整不足か環境が悪いのか
解像度低い感じになって上手く出力できずで >>694
Pycharmというかvenv環境やな
紛らわしくてすまんやで >>650
情報たすかる
>>2 のまとめ見てなんとなくの概要は掴めたけど、これパラメータ設定が職人の朝は早いレベルやな...
civitaiあげてる人ら匠すぎる webUIでLoConをLoRAと同じように使うだけなら下のURLを拡張機能追加するだけでええ認識なんやがちがうんか?
https://github.com/KohakuBlueleaf/a1111-sd-webui-locon
sd-scriptsがどうのこうでエラー吐いてるから
https://github.com/kohya-ss/sd-scripts#windows-installation
も見てloconフォルダを直下に入れてみたけどダメや >>698
そういうことか
Dockerはpython自体の環境変えたりするときやpythonのライブラリ以外に依存するもんがあるときはそっち使ったほうがええで
ffmpeg必要とか >>684
割と色々な単語出してくれる時もあれば、uniform, military, jacketとか言われてお、おう……ってなる時もありますなw Block Weight導入してGithubの説明通りXY Plot実験したがどの階層に適用すればいいかいまいち分からん…
みんなあれどうやってテストしてんの? >>689
dockerはインストールコマンド書くの若干独特な感じだけど、singularityはシェルのコマンドそのまま書くだけだからとっつきやすいで >>703
ワイのキャラloraはBaseとoudSかousDしか使ってなかったわ
構図とかになると変わってくると思ってる 朝鮮人キモいからさっさと死んでくんね?wつか歌舞伎町とかで顔面煽りしても何も言い返せないのマジ草^^
なんuにレス乱立させてるけど俺が規制されたら雑魚共逃げたって事だからなw キャプションのみと正則化のみそれぞれやってるんやけど正則化のほうが制御しやすいきがするな
キャプションのやり方まちがってるのかもしらんが 整理サボっとると前に貼ったか貼ってないかすらもうわからへんな……
https://i.imgur.com/eTNlLAR.png 小さい画像って結局生首とかじゃなきゃ入れないほうがいいの? >>706
その層を使う判断はどうやってしたの?
全層をXYプロットして決めた?
てかあのXYZプロットでYに層の範囲入れても、1枚画像として出てくるから、1層ずつ別々に手動でテストしないといけないかね? >>703
LoRaの階層適用は目的を明確にしないと使いこなせない
例えばワイの自作LoRAは何も指定しなくとも両手を上げるようなポーズをとってしまってた
だけどのけぞりLoRaニキの階層適用レシピを参考に、IN08-MID-OUT03-OUT04が1になってたのでこれらを重点的にテストした
これによりIN08、MID、OUT04を0、OUT03を2、BASEを1にするとうまいこと柔軟にポーズを取らせたうえでLoRAのエッセンスを出すことに成功した
LoRaによって最適なレシピは違うと思う
最近できたwikiのlLoRA階層ページを見て目的に合ったカスタマイズをするといい
もちろんこれはワイの経験談というか感覚に基づいた話なのでなんの裏付けもない >>618
AMD使いなんか別に切り捨てても良くない?🤔 >>639
NVIDIAのドライバーロールバックや
ワイは去年12月頭のまで戻した loconはloraで学習できなかった層をカバーする機能なんでdimもstepもloraの半分でええんやで
キャラ学習はdim64→32、step 5000→2500とかでええよ
昔のイメージで設定したら過学習になるだけや PyTorchが2.0系でTensorRTと似たような仕組み導入して、AMDだけでなくIntelGPからAppleシリコンその他各社の
DLアクセラレータに対応して高速化するで~と言ってるので、使い勝手の悪いTensorRTではなくそっちの対応待ちなのではないかとは言われている
今の作りだとTRT拡張は各方面に影響デカすぎてマージできないだけな気もする。いずれにしても待つことしかできん というかbasilとかで
(pornhub, povass:1.5)
とかがくっそ効くって話したっけ FBIモデルにがっかりしたわ
宣材写真で学習してるだけのゴミモデル ローカル始めて3日…ようやくloraに手が届きそうや
paperspaceにも早く慣れないと電気代が怖いわ 電気代はいうほどやで
HN時代はともかく、数十分で終えるlora学習はゲームやってるときより電力使わない paperspaceはcolabよりもフォルダ階層分かりやすくてすぐにStable Diffusion導入出来たけどSDscriptだけ上手くいかねえわ
VRAM80GBで学習回したいよ~ loconすごいわ
今までの学習全部やりなおしたいレベル ワイが可愛い子作ろうとするとダウン症より酷い顔の奴らが生成されて発狂しそうや🤢🤮 ガチャして良い画像をお気に入りに追加すると自動で学習してくれてあなたへのおすすめボタンを押すと厳選された画像が出力するExtensionそのうち出ないかな >>729
いくら超法規的なエロ目的のスレとはいえ、そのたとえはあかんで、、、 服が肌にパツパツになってしまうのを防ぐプロンプトがあったと思うんやけどご存知ない?
メモどこかにやってもうた >>731
すまん全く意味がわからないよどういうことや
バブー👶 >>734
Skin Tightやない?
ところでControlnetが使えないんやがおま環?今日まとめてエクステンションをアプデしたからそれが原因かもしれないと思って、他に使えないニキがおるか聞きたい 自撮りをdepthに食わせて作ってみたけどなんか自分の顔がチラついて萎えるわ…
https://i.imgur.com/Mqvsiuv.jpg >>736
拡張機能再インストールしたら動いた
webui起動もしくは実行時にエラー出てるかも?俺は出てたけど直せそうになかったので再インスコした LoRAの成果を1Epochで保存してたらoutputフォルダが偉いことになってSSD溢れかけてた…
使えるものの選定したら定期的に消したほうがいいな >>587
だいぶ前から応援に回ってるわ(笑)
CivitAIダウンしながら画像の名前合わせて、ここ読んでるだけで一日が終わる
https://i.imgur.com/USCQQzz.jpg
っていうか、もう朝やな… >>691
サンガツ
ワイもこのスレのスク水LoRAに触発されてブルマLoRA作ろうと思ったけど好みの学習画像集まらんくて諦めたから期待しとるで >>450
4chの見方ようわからんから助かるわ
lora保管庫みたいなの見たけどあんま種類なくて困ってた
スレをチェックして張り付くしかないんかな わいもLora覚えておむつLora作ったんやけどむずぃ...
絵柄が引っ張られるのとたただの白いパンツになってしまう web ui のdocker使ってて、
$ cd ~/stable-diffusion-webui-docker
$ docker compose --profile auto up --build
でGPU版起動したんやがタスクマネージャーで見ると全くGPU使ってないんやが、これってほんまにGPU使えとるんか? >>746
タスクマネージャーcudaに切り替えろって見た >>744
持ってるだけで捕まるレベルだから捨てたわ
ワイはスク水でキャッキャしてるレベルやし >>746
taskmanagerよりHWMonitorのほうがええで
GPU温度もわかるし >>746
cuda100%貼り付きででアチアチですよ神 箒にまたがる魔女って構図がMulti-ControlNetとか出てきても未だにしんどいのな
しょうがないからこんなん作ってガチャしまくってる
https://i.imgur.com/UuiZz86.png
https://i.imgur.com/HSdLtCK.png ロリコンじゃなくて良かったわ
ワイがロリコンやったら捕まるレベルで
ガチロリ画像作成しまくってたやろなあ >>748
としあきのところで前作がエロに強いって書いてたから、別に児ポ専用モデルってわけじゃないかと思ったが >>752
作るって保持することすら罪って辛いだろうなあほんと >>751
縄に跨がらせることに必死になってた人もおったな
机の角オナをまず攻略するとか言って最終目的が縄オナらしくて草やった おいおい…ワイがちんこ頬ずりLoRAなんか作ってる間にloconとかいうポケモンみたいなのでてきてるやん
また新し技術を追いかけんとあかんのかと思うけどそれによっておかずのクオリティあがるなら頑張れてしまう自分がおるんよな
ちなloconならこの頬ずりのプニっと感というかホッペにくっつけてる感も打率あがるんかな?
この部分が重要やねんけど
https://i.imgur.com/rpULOB8.png
https://i.imgur.com/8eT4tZ0.png
https://i.imgur.com/28FgwWV.png 数週間ぶりの赤ちゃんなんやが
popup派だとloconてのは使えん感じか 学習枚数 = 学習画像の数*繰り返し回数
ステップ数 = エポック数 * (学習枚数 / バッチサイズ)
合ってるよな…?
今までの名残でなんとなく繰り返し回数10だったけど別に学習に関係ないなら1にしてステップ数上げたほうがいい気がしてきた LORAを勉強しはじめてなんとかsd-scriptsでLORAを作ることはできたんだけど
根本的なことがよくわかってない。
「sd-scripts」と「kohya_ss」のどちらかを使う方法があると思うんだけど
この二つは作者が同じで同じ方法でLORAを作ってるソフトってことでいいの?
それとも「kohya_ss」じゃないとできないみたいなことがある? loconのページで1111氏のextensionでDLして使用って書いてあるけど無くてもloconlora使えるよね?
locon学習ミスってるのかな入れると何かあるの? >>756
上がると思うけどコピー機との境界線がまだわかってないから何度も学習せなわからん >>760
入れてないとloconで学習した前後の階層を引き出せない >>762
そんな理由があったんだ普通に学習絵が出てくるから分からなかった入れてきます! >>759
そもそもスクリプトの開発したのがkohyaって人
その人のレポジトリの名前がsd scripts
で、他人がもっと簡単に使えるようにGUI化したのがkohyaのsd script、略してkohya_ss
機能は全部本家にあるし実装も当然本家の方が先だからkohya ss使ったほうがいいよ 初めてgit pull弾かれたわ
https://i.imgur.com/l2B5leZ.jpg
検索かけてもわからない
つまり何をすれはええんや・・・ civitaiにある胸チラLoRAが神すぎるな
電車の中で胸チラしてる子を汚いおっさんが覗き見てるLoRAありませんか🥺 >>768
公式にない編集があったから直接pullできないってだけ >>755
これ素材がなさすぎやろ
できるようになったんかなw >>765
ありがとう。とりあえずsd-scripts使えてるならOKか。なんかkohya_ssの方がエラー出ちゃってうまくいかないから
原因調べるの億劫だったんだ。LoConってやつもsd-scriptsでなんとかなるのかな。 インペイントするとそこだけ微妙に解像度とか質感変わるのは仕方ないんかね LoCon、Adafactor、同じ設定と同じ素材でチェックポイントマージだけ変更して作ったLoRAは同じseedにしても出力される画像が変わるな 絵柄が変わらないと思ったらa1111-webui用のスクリプトが他にあるのねw
間違えてloconそのままインストールしちゃったw 最近LoRA弄っとってもすぐアイデア尽きてまう
なんかええ対策ないかな… >>773
loconのreadme通りやれば動く
WEBUI側の拡張機能忘れずにな >>778
キャラLoRA作ればええやん
ワイはそろそろブルアカ全キャラ分のLoRA出来そうや 前スレでLoCon使うとダウンスケールとアップスケール部分学習するから出力が綺麗になるってあったけど生首学習で縮小画像を用意しなくても良いってこと? 背景lora作りたくで、赤ちゃんloraで作ったんだけど、
キャラloraと一緒に使うとケンカしちゃう。
階層で住み分けというか、出力を分けたらいいのか?と調べてみたがよくわかんない。
赤ちゃんloraで背景は無理なんか? locon学習できたんやけど画像生成時に黒画像になるのは過学習ってことやろか
同じ設定でloconだけ外しても黒画にはならんってことは学習率の調整が必要なんかなあ >>768
その二つのファイルをお前が変更したって言ってる
身に覚えないか?
知識もないのに変更するとそれはもうおま環になるってことやで
コミットしておま環に突入するか(今後何があってもお前の自力解決)
スタッシュして変更を退避するか
変更を破棄するかのどれかや
自分で独自の変更加えるならブランチ作成してそっちでやる
ちなみにブランチの活用法としてはアプデ前にブランチ作成して前の環境を残すっていう方法もあるで
ブランチ切り替えれば元通りや >>746
DockerでCUDAするには細工いるがだがやったか? controlnetでdepthなりopenposeなりの画像使うとき背景が黒色なんだけど、黒色に引っ張られてるからか生成画像の背景が指定してるにもかかわらず空の上だったり破綻しちゃうんだけど、透過処理とか必要? >>758
ワシの理解はこっちやな、ステップ数とバッチサイズは関係ないと思っとる。
もしかして間違っとる?
* 繰り返し回数 = 学習画像の数 / バッチサイズ
* ステップ数 = エポック数 * 学習画像の数 ストーリー性考えながらヒロイン段階落ちさせる感じでえろくしていったらめっちゃ抜けた >>746
docker使ってるのはwindows?linux?
windowsだとしたらwindwos10か11かとwslなのかwsl2?
あとビデオカードはnvidia? >>768
ARGSかなんかファイル編集してへんか?
取ってこようとしているファイルが手元で変更されているから、
それを確定(commit)するか、一旦退避(stash)するかしてくれというエラーメッセージやで。
1. git stash で一旦自分の変更分を退避して、
2. git pull で本家のファイルを取ってくる
3. git stash pop で退避した変更分を書き戻す
のがおすすめや。 LoRaを途中から指定したいんだけどweb-uiのデフォルトのAdditional NetworkのLoRaって
[:<lora:cutejridgirlsmall:0.6>:0.5]みたいなPrompt editingは効かないよね?
img2imgとかで疑似的にできるんかな 考えれば当たり前なんだけど、素材少ないと、少ないステップ数で過学習が始まるよね。。
繰り返し枚数増やしたところで一緒だろうしなぁ。 >>700
解決した
??からじゃなくてaddnetから適用しとったわ…?? >>791
確認やけどワイの言ってる繰り返し数はディレクトリ名につける値のこと、バッチサイズは--train_batch_sizeや
学習枚数は実行時にログに出るから間違いないと思ってたが… 急にネタloraを思いついたけどPCは真面目にエロシチュloconを回すため塞がっている
クソッもう一台マシンが欲しいぜ4090でいいよ 初心者だけどRTXをメルカリで買うの怖すぎるからこれだけは新品買った方がいいよな🥺 >>802
保証も調べるんやで
メーカーでまちまちやから 3060やったら中古でもええ気がするわ
メーカーは高耐久のでちゃんと動作確認しとる出品者からしか買わへんけど paperspaceを使ってみた
まずは無料プランで2時間に設定してみて、あっという間に2時間たって切断された
使いやすかったので課金しようかなーと思って再度ログインしたら、
「Not authorized. Please contact support@paperspace.com for help.」
なメッセージが出てログインできない・・・
待てばログインできるかなと思ったけどかれこれ30時間以上このまま・・・
なにこれ?こういうものなの? >>791
ステップ数 = 繰り返し数 * エポック数 * 学習画像の数 * バッチサイズ
かな
実際のステップ数はバッチサイズ増やすと減るから人に伝えるときは掛けてやらないとズレる >>797
6つや
元ネタがエロゲやし表情差分があったんや エラー出たらとりあえずchatGPTとかでAIに聞いてみるとよい >>800
ならワイが間違っとるな。
ディレクトリにつける繰り返し数がようわかっとらん。
>>808
バッチはデータのサブセットのことやから掛け算するとまずいんちゃうか。
とここまでかいて、としあきのところ見てたらズバリの回答あったわ。
> 画像枚数×繰り返し回数(フォルダの数字)×epoch数=ステップ数
らしいで。 civitaiの議会でおばちゃんがおっぱいさらけ出してるサムネ見るたびに笑ってしまうわ ずっと気になっとるんやけど、webuiのページを日本語訳するとSD vaeが[あなたに災いを]って翻訳されるのはなんでや‥ ちょっと上の方でLoraのプロンプト覚えてるかどうかって話出てたけど専用のプロンプト打たないと一切影響しない物って存在するんか? ふと、学習時の『num_cpu_thread_per_process』の値は何が良いのか判らず困惑してきた
https://i.imgur.com/LV5Am9E.jpeg
cpuへのスレッド割り当て数ならパソコンごとに最適解異なってくると思うんだけど、今までは指南サイトのコマンドコピペで全然気にしてなかったんよな
指南サイトによっては1とか16とかなんも説明無しに設定されてるけど、実は何か問題あったりしないんかな? >>789
原作で見れなさそうな表情しつつ、全体のタッチもええ感じやな
ってか懐かし
未だにOP曲聴き続けてるわ ワイは安いZOTACの4090を買ったわ
バカ高いROGというほど性能差あるもんかね? 初心者さんは、保証4年か3年のメーカー以外で買うと壊れたら悲惨やで
無保険車で交通事故みたいなもんだね 悪いことは言わねえ…ファン3つの冷却全振りを買うんや… >>814
一切って程ではないけど自分でやった場合のキャラloraだとトリガーになるワードを入れないとほぼ影響しない
正則化入れてるからかもしれん >>815
CPUなんて殆ど使ってないんだから増やそうが減らそうが誤差程度にしか影響でないんじゃないの 3060でファン2つの内一つ止まっていたまま3ヶ月ほど使っていた後、
ファン2つ回り始めたらhotspotの温度10度近く下がって草
ファン3つとか、もう敵無しなのでは?
高いグラボって、大体OC(≒冷却)性能加味だと思ってる
安くてファン3つ付いてるなら、OCしない限り問題ないと思うけどな せやけどな、もはや自作PCが安い時代は終わったんやで
自作が趣味じやなかったらBTO買うんや
悪いことは言わねえ、BTOでいいもんを買うんや >>824
なんやかんやでcpu使用率、学習の合間小刻みに30%ぐらいまで動いてるんよね
まぁcpuが古い(i7 8700k)からかも知れんが
これまで話題にもなってないあたり、動く設定なら大きな問題無さそうか 12月にPC工房で中古の3060を3万7000円くらいで買ったけど今のところは普通に使えとる 10万未満で売ってる中古3090は凄く気にはなる
まぁマイニング落ち確定レベルの余命ガチャなんだろうけど…‥ 今はまだいいけど夏がヤバそうねんな
水冷真剣に検討するレベル 3090そんなやばいんかw
やっぱ極端な安さには理由有るって考えた方が良いよな…… >>834
新品でも熱がやばい
マイニング落ちはなおさらやな >>832
デカパイええな 何dimでやってる?
ワイは今64と32試してるけど32なんか若干薄い気がしてきたわ >>823
これ見て>>795がちょっとわかった気がするわ
自作LoRaのトリガーワード機能してないなーと思ったら正則化画像使ってないからか
ネットワークが適用される強度にprompt editingはできないけど正則化入れてトリガーワードが他概念と差別化できてるLoRaなら
トリガーワードのほうにprompt editing利かせればいいんだな たぶん >>815
バッチそれぞれにつきスレッドが割り当てられないと切り替えで遅くなるんじゃね?
とりあえずバッチ数より多くしとけばええやろって雰囲気や
1111で絵を出してる時にtopコマンドで見ると、pythonのプロセス自体は1CPUコアをほぼ全開で使いよるで 別スレで自作は動画見れば簡単って聞いたからグラボ以外全部揃えてから買おうかと思ってたわ🥺 >>836
6432や
複雑なもみあげの覚えさせる方法模索中 >>834
学習中は常時70度オーバーどころか80度手前まで行くから3090は長持ちしそうにないわ zotacの3090tiが尼で17万で売っとるが罠なんか? >>841
それってもしかしてRAMとかhotspotとかじゃなくてGPU温度?
30602ファンで今loconやり直してるけど、FAN60~70%設定でgpu50℃から越えない(hotspotでもmax57℃)ぞ……
やっぱ3090使う場合は色々前準備必須か…‥
あぁー、でも3090ロマン度高いよなぁ……いいなぁ……
>>838
ほほぉ、サンガツ
その雰囲気見習っていくぜ 3090はパワーリミット75%以下で使う代物や
これでコア60℃ メモリジャンクション80℃以下になるんやで タグ付けについてなんだけど、例えばポニテと髪おろしてる2バージョンあるキャラで、ポニテフォルダと髪おろしてるフォルダ作って使い分けようとしたときに、髪型を正常に学んだ時に顔は過学習気味にならない?あんまうまくいかない。
横着しないでlora素直に分けた方がいいかなぁ >>715
参考になったぜニキ!チェックしてやってみるサンガツ!! 出張で東京来てて仕事が早く終わったから秋葉行くけどグラボ安かったらいいなあ
どこのショップがオススメとかある? >>312
選択ボタン以外にもテキストボックスからパス設定出来るようにしたで >>826
ワイBTOの初期不良で騒音がひどくて送り返しても治らなくて我慢しろって言われて涙を飲む
自作スキルが上がって調べたらHDDのネジが足りなかったのが発覚
無事BTO不信になった模様 >>811
・バッチサイズ1の時
画像枚数×繰り返し回数(フォルダの数字)×epoch数=(1stepで画像1枚読み込んだ)ステップ数
・バッチサイズ2の時
画像枚数×繰り返し回数(フォルダの数字)×epoch数=(1stepで画像2枚読み込んだ)ステップ数
やから、「バッチサイズ1の1000step」と「バッチサイズ2の500step」は等価やと思う。
人に話すときは「バッチサイズ1の時のstep数」で話すと誤解がなくていいんかなとも思うけど、皆が共通認識を持っているのかは分からん >>848
ドスパラはPalit扱ってるから安いのがあるで 現地でもネットと価格変わらないと思うぞ
中古のジャンク漁るとかなら話変わってきそうだが……
かなり昔って「安いものは現地で!」ってイメージだったけど、今は「ネットで買っても同価格、むしろ現地だと最安を探しにくい、最安見つけれても労力でマイナス」って印象強いな >>737
黒ブリーフとニーハイソックス履いて撮った? >>632,641
6900xtやが生成も学習もできるで勿論おすすめはしないが
webuiのインストールに関してはとしあきwiki「Radeonで1111」のLinuxのところが簡潔にまとまってる
学習はちょっと古いけどhttps://rentry.org/lora_train_amdを見ながらやったらなんとかできたわ 小物パーツ(ねじとか)を少ロットで買うなら現地やけど…
Amazonでええわ >>850
それ買ったとこが悪いわ
ワイはネットの評判も最高な例の店で買ったけど初期不良はパーツ全交換対応やったわ 現物買いは品薄で通販市場に流れないものを直接買い付けるか不良在庫の特売品を漁る意味しか無くなったね
普通に流通してる売れ筋商品なら実店舗で買う意味は無いに等しい taggerで.txt作って必要なのを抜いた後、律儀に先頭以外のワードを並び替えてるんだけど、shuffle_caption=true ならこの作業いらないのかな? まぁでもたまに現地行くのは良いと思う
現地行くと目的の品以外のものも自然と目がいくから、界隈の知見が広がる
ネットだと目的の製品ジャンル以外の情報は、自然とシャットアウトされがちだしな AOM3にchilloutが入っとるからライセンスがややこしくなっとるっての見たけど、
レシピ見る限りAOM3のA1のみにchilloutが入っとるってことでええんよな? >>853
サンガツ
ドスパラかぁ…地元にもあるんよなあ
>>855
夢のない話やね、便利なのは嬉しいけども
ラーメンでも食うか… 1ヶ月ほど浦島してたらスレの内容3割程分からんくなってもうた
過去スレ漁り直す旅に出るとするで >>830
マイニング落ちってむしろ特だぞ
錆取りと簡単な修理さえできれば基本コンディションいいはず
マイニング効率あげるためにダウンクロックしてるだろうからむしろ普通の中古品よりマシなんだよ本当は >>855
現地は気持ち高いけど店員から話聞けるしさわれる分のプレミアムだと納得できる程度
ネットが安いって印象の方が強いんじゃないか?実際にはほとんど変わらないってのがその印象に対する実情 >>866
なんという誘惑……
せやな、どのみち3090使うならフルでダウンクロックするし、ならばいっそ…… >>860
大体セットで買うと割引入るから実店舗優勢 >>869
もちろん基盤溶けてるとかありえるから外れの時はゴミを買うことになるというリスクはあるぞ
グラボを躊躇無く分解できる人間なら割安くらいの感覚だから… 「ネットが安い」っていうか、現地だと最安を見逃すリスク高いと思うんよ
「現地で頑張って探した最安」=「ネットで数分調べて判った最安」なイメージだわ 現地は3060 12gと3060ti8gしかないぜ
radeonは結構あるんだけどな 地方やから店に4000番台のグラボ置いてなかったわ マイニング落ちっていちばん買っちゃダメなやつだわ
長時間稼働で状態がボロボロだから実店舗ですら買い取りしたくないシロモノなのに >>867
LSて普通にガチ児ポやんけ、ソースはあるん? やっぱマイニング落ちはだめか?
結局「最終判断は己自身」ということか…… やっとlora使って色々やり始めたのにloconとかやめてよ 16日からのペイペイ祭でパリット4080買う予定や
5のつく日の今日でもええがな マイニング機は何より劣悪な環境で使われてたから敬遠されるんや
この「劣悪な環境」ってのがワイらと基準が違う、排熱が悪いだけの屋内ならまだマシ、砂埃まみれの土間とか雨粒飛んでくる屋外同然のバラックとかそんなレベル >>867
ワイみたいなプロは一瞬でわかったわ
>>724 >>837
正則化足してもう一度試してみよかな……複数適用時の汚染度合い軽減できるかもういちどみたくなってきたわ
ぶっちゃけトリガーワードでは呼べるんやけどもっと綺麗に適用したいんや
>>852
その情熱、尊敬するやで >>881
なるほど、凄く納得した
確かに、普通の部屋で使ってるレベルですら無い可能性が全然有るんだな…‥
確かにネット上でもたまに、良くわからん汚れ方してるグラボ出品あるわ >>877
このモデルに限らずだけど
いつもネガティブに入れるようなロゴやテキストを出すようにすると
学習素材これだろってのが分かる時がある >>884
ちなみに補足しとくとマイナーどもはPCパーツの扱い方も知らん、「汚えから掃除するンゴwwwwww水で丸洗いブシャーwwwwww」→天日干し→見た目はマシだけど中の部品錆びてる!
なんてのも聞いたことあるで 3090熱そんなやばいのか
3070ツインファン学習で40~50度だけどメモリ性能と熱って等価交換なんやね… 聞けば聞くほど中古はガチャ完全にガチャやな…‥
あと3090が熱やばいのは、熱源として効果的なRAM搭載量が多いのがダイレクトに関係してるんだろうな 中古グラボはたし🦀ガチャだけどいうてそこまでヤバイのは出品よく観察してれば回避できるやろ
あとはちゃんとメンテ(サーマルパッドの厚み測って張り替えるとか)の手間で10万くらい浮くなら儲けもんや 今使ってない3050分解して、グラボメンテの勉強しようかな >>888
3090は基板の裏面にもVRAMが12個付いていて
そっちの冷却が甘いんや
そしてGPUコア温度しか見ない人が
知らない内に裏面のVRAMを酷使しちゃって壊しちゃうんや
4090では表面のみに実装になったことでその点が改善された 画風はTIが一番上手くいくかなー、LoRAのは好きだけど再現ではないな ヨドのGPUコーナー見てたけど3060 8GBばっかやな
中々の罠だわ >>859
マ?最高ってどこなんや
個人の感想でいいから教えてくれんか kohya氏新しいドキュメント書いてくれてるやん
前の記事の復習でもあるけど、正則化画像の意義とかキャプションの前処理とか結構重要な事たくさん書いてあるで
https://github.com/kohya-ss/sd-scripts/blob/main/train_README-ja.md >>882
FBIってどういうことや
バケモノしか出てこなくて確かにゴミやったが gitのloconページにある「Finally you can use this package's locon_kohya to run kohya's training script」のとこの作業は何すればええんや
.pyの中身に追記すればええんか? エロプロンプトのためにchatgptちゃんに電話番号渡して噂されたら恥ずかしい… >>903
英語のお決まりの定型文やろそれ
「これでlocon_kohyaがkohya-ssで動くようになったで!」以上の意味はない >>900
ほほぉ……
「この人はhogehoge派じゃなくてpiyopiyo派なんやなぁ」
ってことは理解した! >>896
TaggerっていうのはWD14Taggerのことやんな?
0.2って何の変数や? >>770>772
>>787
>>794
サンガツ
意味が分かった
赤ちゃんとはこういうことを言うんやな・・・
操作ミスでPoweShell以外のもんを起動したり、modelとmodules読み違えて開いてなんやこれって焦ったことはあるが、
その時に余計なことをしてしまったのかもしれない
身に覚えはなくはないが意図的ではない変更をしてしまっていたようだ
今後のために変更部分を元に戻しておきたいが、webUIのバックアップってあったっけ? この程度のエラーメッセージならChatGPTちゃんが秒で解決してくれんだろ >>912
聞いてみた
git checkout .
git restore .
どちらかをやれと言われたんやけどこれでいいのね >>910
タグ付けするときのThresholdの数値やろ
デフォだと0.35のはずや >>906
エラーばっかりで全く動かへんわワイにはloconはまだ早かったようや 赤ちゃんワイは困ったらモデルとloraだけコピー退避して全部再DLしてるわ👶 1111ってなんて読むの?
いちいちいちいち でええんか? >>892
ジャンクよく扱う奴ならジャンクより低リスクな品としてマイニング落ち中古は扱える
違うならやめとけ >>914
玉ありはpenis入れたら出るやろ👹
玉無し派がどれだけこれまで迫害されとったと思うんや >>896
0.35でやってたわあとでやり直してみるわ
正則化無しベースNAIでやっとるけど他はデフォなんやろか? loconってなんや何かまた起こったんか?
彼女と2日過ごしてる間に浦島太郎や 忍者の印結ぶポーズ出したいんやけどどうやったら出るやろ >>930
ダメなとこTaggerの数値だけか🤔
ちょっとやり直してみるわサンガリア >>837
ちなみに画風loraの時は積極的にタグ汚染したいので正則化はしない方が良い印象やね >>924
まじかー😺会話の中で言うには結局長くてだるいんやな
まぁ会話する相手とかおらんけど >>931
今はCN使っちゃうのが手っ取り早いやろな >>928
>>929
loconってなんなんや・・・ >>909
もらった
たまたまあるとおまんこ見えないからねしょうがないね >>936
ググった?→No→ググれ
↓Yes
Wiki見た?→No→Wiki見ろ
↓Yes
それでも分からなかった?→No→じゃあ聞くな
↓Yes
諦めろ loconで大量のキャラを覚えさせた時の1girlちゃん
エロ絵そんなに入っとらんのに乳丸出しがデフォの痴女になってしまった
https://i.imgur.com/SSmQHQA.jpg
https://i.imgur.com/XFmvJDt.jpg 3060買ったし学習や!とメモリ増設したらKP41や
memtestクッソ時間掛かるわ ちな今までタグ付けずにLORA学習してたんやが、
WD14Taggerとかで学習画像に1:1で対応するcaptionファイルを作りさえすれば、今まで通りのコマンドで勝手にタグで学習してくれるんか? 九字の印は文字通り9個あるけどめっちゃ面倒そうなのも混ざってるからな >768だけどお騒がせしました
無事git pull通りました
これで何も問題ない、と思ってたら、webui-user.batがまっさらな状態になってて気づくのにちょっと時間がかかった
もし他の人で、原因はともかく git checkout .か git restore .でwebUIを修正したなら、
modelとかLoRAとか作った画像フォルダは影響を受けないが、webui-user.batは白紙に戻るんで注意されたし
ワイはコマンドを3つか4つ程度しか並べないんですぐに復帰させられたが、長々とコマンド並べる人はどこかにバックアップを作っといたほうがいいかも >>900
特定のキャラだけloraは正規化画像いらないのか
画風とかならいるんだな >>948
ファイル名変えればgit管理じゃなくなるんじゃないかな?
waino-webui.batとか 起動のbatファイルは複数作って、名前変えて運用してるな
たまに設定変えたいときとかその方が楽だし loconって竿役が一緒に出るシチュみたいなのも学習させられる?
例えばloraとプロンプト使っても竿役が出るのが10%以下の確率なので、その確率を上げたい >>953
アホみたいに独善的に断言連発する奴やなと思ってたらその口癖で合点がいったわ
お前一昨日いたウマシコガイジか >>950
わからん
ASUSの12GBが47980円だったみたいや
ワイは何故か上海問屋でフィギュアケース用のLED証明を買った 自分もwebui-user.batはコピーしてt2i用のt2i.batと
Vram消費抑えるオプションいれたi2i用のi2i.batにリネームして使ってるな
Vram抑制オプションいれると生成遅くなるからグラボへの負荷が小さくなるような気がする
時間長くなるから最終的な消費電力は大差ないやろうけど温度とかいたわってやらんとな 率直に正則化関連では疑問なんやが
特定のキャラのみ再現したい場合でも正則化画像用意しといたほうがええんやないの?
LatentCoupleで複数LoRA使って再現したいときとか、周囲の画風影響減らした方が効かせやすい気がするんやが >>957
それってloraが悪いんじゃなくて学習モデルのせいやろ >>953
ニキ経験豊富そうやし正則化なしでの学習の検証結果まとめたら皆喜んでくれるで🤗 git status
で現状のファイル差分を表示したりできるで
編集済みのファイルは他の場所に避難させてから色々やるのがええ >>923
めっちゃキレてて悪いけど草
いままで苦労したんやね
ワイはどっちでもいい派やからサンガツや >>807
ngrok使ったせいでBANされてるやつ
サポートにメールで連絡してパスポートの画像送る必要ある 雰囲気似てればNAI出力のマスピ顔AIボディのキャラでも全然オッケーな人種ならいらん
そうでないなら
使っとけ >>963
そうか…
じゃあ結局lora作り直しても一緒か…
modelにデータ追加でmergeするしかないか LoRA Block WeightのIN01とかがそれぞれ何の役割があるのかの説明ってどこかにある?
公式のドキュメント見てもよくわからん ミスを発端に初心者的な気分に戻ったんで、そのノリで11月あたまにwebNAIちゃんで作ってたお気に入りをハイレゾにでもしてみるかと思って、
png読み込ませてmodelもVAEもnaiにして作ったら似ても似つかないものになったたんだけど・・・
一切の強調なしでvest qualityタグON、ネガもBad Anatomyまで入れてるから条件としては極めて再現性が高いはずなのになんでだ
ローカルだとアンダーバーは使ったらダメなんだっけ
WEB版で使ってたアンダーバーは何に変換すればいいんだ loraの階層適用は簡単なのと難しいのとある印象
ふたなりに穴あきパンツにヤンデレポーズはいつもの4つだけでいけたが
触手服はどれが作用してるか差分表示してもさっぱりわからんかった変な学習してるのかもしれん >>971
あー公式ドキュメントにXYプロットで検証してねってあったけどそれぞれで違うから各自で調べてってことなのね
合点がいったわサンクス >>969
マージモデルはNAIちゃんが持ってた男の情報すっ飛んで竿役出現率が激減するパターン多いからな >>952
画風もいらんと思うで
doremiという絵師の画風を学習したい
↓
1girlって出すだけで全部の1girlがマリーちゃんに似ちゃったら困るなあ
1girlって出すだけで全部の1girlがヒナちゃんに似ちゃったら困るなあ
↓
最終的に全部吸い取るから結果ただのdoremiという絵師風のLoRAになるだけ
あくまで画風LoRAなら複数キャラを同じLoRAでマリーとヒナを別々に呼び出すこと企図してないから混ざっても問題ない >>967
ngrokでBANされたけどパスポート画像なんて送らなくても事情説明のメール1通で解除してくれたよ
サポート担当者によるのかもしれんけどね 指定枚数を作成し終わる前に強制停止で数枚しか作成できないことあるんやけど
メモリ?VRAM?CPU?これってなんの性能が足らんのやろ >>978
よく見ると目がバケモノだから捨てたほうがええで
ゴミしか出ない ガチで危険な匂いがする
chilloutくらいでキャッキャしてるやつも真顔になるレベル どんな実写風モデルでも年齢指定すれば児ポぽいのできる定期、と思って試してみたら、これは本当にアレやったわ >>953
ワイはkohay氏を信じるで
雰囲気じゃなくてここの誰よりも詳しくていっぱい作ってくれてるしな
まぁわいは結局正規化画像使わんのやけど これガチのまじで例の死人も出てる世界大富豪連中のスキャンダル絡みのやつちゃうんか
こんなんよー落とすわ 児ポ生成したら外出た時にカワイイ子供を見る目が変わってしまうのでこの扉だけは開けないようにしてる… >>986
やり方教えてるやん
それで一回やればわかるやろ
>>988
逆張りしたいだけで草 説得も能力やから
それが苦手な子に無理して説明させるのはかわいそうやで
人それぞれや あんま鵜呑みにせん方がええで
彼、思い込みでしか語らんから
この前のスレで大暴れした時も酷かったやろ >>995
お前みたいなやつは俺が何言おうと勝手にレッテル貼ってくるだけやし楽だよな >>993
どちらかというとkohay氏が正やからあんたが逆やろw >>996
検証結果まとめたら全てが明らかになるで🤗
論より証拠や😎 >>997
お前も正則化使ってないから別に間違ってないやん このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 8時間 29分 23秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。