なんJNVA部★164
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★163
https://fate.5ch.net/test/read.cgi/liveuranus/1677881751/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>15
カッコイイ!これってpreference sheetのプロンプトだけで出してるの? >>9
逆にすげえ
素材とかタグとか色々
どうやって作ったのかすげー興味あるわ >>19
基本は前スレに貼ったラフスケッチ1girl設定画プロンプトで、modelにcounterfeit-v2.5_fp16を使ってそれに合わせて強調の数値弄ってます >>9
やりたいことがわかり過ぎて草
学習設定気になるわ サンイチ
このシチュすきなんだけどこのLoRAって絵柄貫通しすぎるんよなあ
アビスでもbasilでもほとんど同じ絵になってしまう
https://i.imgur.com/v8RvM32.png 1024x1024Locon6432で仕込んで置きましたが1epoch目から既に
https://i.imgur.com/2rzClpO.png
という悲しい結果になりました
何がいけなかったんでしょうかねえ 前スレでpaperspace使ってたら規制された807だけど、ngrok使ってたのが原因っぽいね・・・
メール問い合わせ中なので断定できないけど、ググったらそういう事例まとめもでてきたのでたぶん正解
じゃあどうするかって話なんだけど、ngrok以外でstable diffusionをストレスなく使用する方法って他にある?
gradioは転送サイズ制限があるので使い勝手悪い
paperspaceのターミナルとかから直接操作するのもまあ悪くないんだけど、やっぱりブラウザからいろいろできるとうれしい >>30
--gradio-queue使ってる人が多いみたいやで >>24
あ、pencil drawingを追加したりもしてるのか サンイチ!
プロンプトでの黒マスクと白パンツの両立に時間浪費してたわ
https://i.imgur.com/IrkGRcr.jpg >>33
adamwやで
512x512で100枚以下のデータセットでやった時は出来てたけど
それ以外一緒で1024x1024にして3000枚くらいの別のデータセットにしたらこうなったから犯人はどっちかや
あるいはその辺いじった時は>>32の言うようにlr下げないとアカンのかもな >>9
i2iかと思ったらloraなんか草
パロ画像沢山ありそうだし不可能ではないんか loconてもしかして今のloraみたいに使えないの?
じゃあ階層lora使えないのか >>31
ありがとう、gradioのオプションでなんとかなるんやね
BAN解除されるまではcolabでためしてみる paperspace上で1111動かせるようになって感無量だけどexformersだけはなぜか導入できんわ
みんなできてるんか? >>43
いとこも本当は女の子だけど忍者の里に産まれたから男として育てられたんやな >>24
ありがとうございます 別モデルで試したかったのでやってみます! >>43
逆に考えるんだ
めちゃくちゃ底が浅いプールだと サンイチ
wikiの実写モデル一覧に例のやべーやつ追加されてて草 >>9は以下やね
・学習素材130枚を総11700ステップでコトコト煮込む(パロ画像大量)
・resolution512 dim128 alpha64 lr 1e-3 text_encoder_lr=5e-5 unet_lr=1e-4
・タグはwd14taggerまんま
・finetuning手法LoRA
各教師がキャラ配置やポーズ、表情は結構似通ってるからそれを学習させるけど
いろんな絵で学習させる事でキャラ自体・画風は固定化させないって方向性やね
似た手段はサンライズパースやヤンデレポーズでも採っててワイ的には成功体験あるやり方やで 髪のインテークってどうやって殺せばいいんや
NPも中々効かんで
https://i.imgur.com/UZSqMQa.png paperspaceってgoogle driveとの接続は不足ない?
pydrive2でcolab並に快適なんだろか >>52
なるほどなあ、パロは相当あるからキャラや画風がうまいこと分散して、
結果自由にコントロール可能になるってことか
サンガツ やはりというかAIを活用するハイブリット絵師増えてきたな
結局ガチりたいならペイントスキルも必要になりそうだ >>9
>>24
サンガツ
組み合わせたら雑誌に載った設定画みたいなのがポロポロ出てきて楽しいわ
https://imgur.com/olIJmxg.jpg パンツ半ずらししてほしいのにすぐ脱ぎやがって
このヘンタイめ オタクが前髪スカスカ言うて嫌い過ぎるせいか
アニメ系モデルやとシースルーバング全く出んわ >>52
直接絵柄影響させない設定やなくて絵師の多様化か 生成した画像の厳選結果をAIにフィードバックさせることはできんのか? >>59
これをどうにかいじくりこねまわしてヴォイニッチ手稿みたいなん作れんやろか
文字ぐちゃぐちゃなのが逆にそれっぽくならんか >>65
蒸留やろ?ワイもやっとるし結構メジャーやと思うが
モデルごと強化したいってなると無茶苦茶大変だから個人できることじゃないと思うけど >>52
そもそもパロ含めて130枚て。。。それ集めた時点ですげぇわ マイクロビキニから乳輪だけはみ出させたいんやが裸出力してから水着描き足してi2iしようとすると乳輪消失したり、乳首が違う位置に生成されたりするんや
何かいいアイデアないやろか あーあ適当にサイトのキャラ画像集めて低画質も混ぜて色んな服装あるからってキャプションそのままやったら全くポーズに自由がない失敗作になったわ >>69
書き方が悪かったスマン
厳選するとき「惜しい」「ええやん」「畸形見せんなこのダボ」とか人間が評価するやろ
この評価をAIが学習する仕組みが無いんかと
無さそうやけど 学習中は暇だな
その間に次の素材集めした方がいいんだろうけどなんかやる気起きんわ 学習は夜寝る前だけにしましょうという誓いを守れず我慢出来ずにvast起動しちゃう >>71
そらもうLORA作るか
フォトショでレイヤー作るか もう捨てたけどじぽモデル2GBなの謎だわ
真の使い方は合成用の素材なのか? スレ追えなくて今更過ぎて申し訳ないけど安定して普通の男女カップル出す方法てもう確立されたんやろか
LatentCoupleで1boy1girlとか使っても9割がた百合か女単体になってしまう 半月前からはじめたんやけど毎日2-3時間ずっと生成してて電気代どれぐらいかかるもんや?
3070で512x512しか生成してない Lora階層なるものを知って、拡張機能から導入したんやけどエラーが出て困っとる
ポージングのLoraで絵柄まで引っ張られるのが嫌やからwikiの
「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」
これをOpenTextEditorに追記してセーブして、<Lora:1:CT>という表記でプロンプトに突っ込んどるんやけど、
Failed to match keys when loading Loraというエラーが出て、
['lora_unet_down_blocks_0_downsamplers_0_conv.alpha', 'lora_unet_down_blocks_0_downsamplers~~
みたいな長文エラーがbatのログに出るんやけど、誰か詳しい人おらんかな >>9
すごいぃ
そして全部「フン」って言ってる奴が居て草 >>82
男が出るかはモデルによるところが大きいんちゃう
源流のNAIは男出やすいけどマージで比率が薄くなるほど男が消えるし >>80
縮小済みなんじゃないの?7GBとかは余分なdataだし 1girl, 1boy, pair, date, kissで試してみたら普通に出るからモデル次第やろな
https://i.imgur.com/rnQOF3o.png >>87
一応確認だけどその書いてるloraってlora:ローラ呼び出し名:1:CTであってる?
設定できてれば花札で呼び出したあとに後ろに:CTつければ動くはずだけど >>85
ゲームやってると変わらんから大したことない >>93
書き方が曖昧で申し訳ない
<lora:(ポージングのLora名):1:CT>
という表記です。()内は正しいLora名で、他のLoraだとCTが適用されてログにもこんな感じで出る
LoRA Block weight :(別のLora名): [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 1.0, 1.0, 1.0, 1.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.~~ >>87
>>95
Locon使ったloraだと階層やれないけどそこはどうや? >>74
そういう判断は難しいね
一応AIの美的レベルを判断する仕組みはあるけど、あれの結果も人間の美感と合ってないからな
更に言えば人それぞれ美感が違うから、自分専用のカスタムモデルを作る必要がある
ただ「人間として標準の形を逸脱してる」とかいう判断ぐらいはやって欲しいなところではあるわな
何が標準なのか?って話は標準画像を提示してやればいいし、そもそもその仕組みが深層学習の本丸なんで
技術的には可能ではあるんだけど、巨大なデータセットが必要になるから結局個人じゃ無理ねって感じ >>94
そんなもんなんやなありがとう
ちんぽに正直に生きることにするわ >>89 >>91
ありがと
モデルNAI系列だと簡単にはいかんのやね
苦肉の策として2boyとか2shotaとかにして片方に女の特徴を盛ったプロンプト入れたら
外観それっぽいのはできるけど服が混ざったり脱がす難易度がまた高い loconすごくね?
キャラクターの再現度が段違いや
ちょっと容量多めやけどdreamboothと比べたら全然マシやろ >>91
手の再現度かなりいいやん
秘訣あったら教えてくれ ノートPC買おうと思っとるんやけどHPのEnvyって液タブみたいに使えるんかな
持ってるやつおらん? locon、またadafactorみたいに差がよくわからんのかと半信半疑だったが、これは確かに精度上がるなあ。
今まで作ったの作り直したくなるな。コンバータみたいなのありゃなあ loconは今までなんとなくうろ覚えで描いてたような模様もばっちり出してくるでな >>101
読書して食パン3斤作って掃除して筋トレ
しつつAIイラスト生成した >>102
雰囲気でやってるからよくわからん
今はなきchill-NiをBにおいてマージしたぐらいだからchill-Niのおかげやないかな はー、しかし次から次へと変わるからほんと追いついたらまた新しいの覚えてってやってると
生成した画像見たり整理する暇もないわ
まあそれ自体が楽しいのもあるが >>101
親戚の空き屋引き取ったから樹木伐採してた
遠方なのでローカル生成できなくてweb版naiのアプデ試してた 竿役とのぶつかり稽古の画像出したくて、写真を元にCNi2iやってもだいたい画質がゴミ化するな…
やっぱプロンプトとloraで根気よくガチャするしかないの?
しかも運良くガチャで良い体位出ても、腕足ぶっちぎれてたり、余計に生えてたりするんだよな… >>114
追加学習した中に指定したポーズに使えるデータがないとNAIの血が目覚めて画質が落ちる >>96
使っとるのパンツあやとりLoraなんやけど
たしかに説明文にLocon使ったとあるな・・・でもLocon使ったとあるバージョンには使えて(現に絵柄無視でポージングだけ再現できとる)
NAIベースをもとに作成したLORAのほうでエラーが出る感じ
なにより階層の拡張機能入れる前は普通に機能しとったLoraで
呼び出しも花札からやっとるからネームミスの間違いはないはずなんやけど、
拡張機能の導入(それに伴うアプデ?)で使えなくなるLoraとかあるんかな Easy版のコマンドラインについて聞きたいんやが
# architecture arguments
self.locon: bool = True
self.locon_dim: Union[int, None] = 64
self.locon_alpha: Union[int, None] = 32
に書き換えて、実行画面で「create locon module」と出とったらええか? うちもchillを1割混ぜて、ハイポリloraを0.04かけたら気の所為程度に手が良くなっている気がしなくもないような気がするかも知れない >>122
なんか気になるやん
マンションなのか戸建てなのかとか すまん、なんかいま配布元のページみたら
「これ壊れてます」のレビューで星1あったからLora側の問題かもしれん
CT表記切って、花札から普通に1の値で出してもエラー出るのと、手持ちのLoraだと現状大丈夫そうだった lora確認してて学習ミスったと思ったらネガ入れてなかった奇形だらけ沢山精製しちゃったw >>94
このウマシコガイジ今掘り返しとるんやが
基本検証ゼロなクセに押し付けばかり激しい謎情報ばかりで
画像上げたにしても他人が上げたLoRAをテキトーに使っただけのヤツばっかりやな
他の人が検証画像付きであれこれやってくれとる中ノイズにしかなっとらん
特に解像度768意味ないだの
loconの学習具合の初報を画像で出してくれたニキにコピー機やら学習画像そのまま出てるやら無根拠な放言してるのはひどいわ >>130
だからみんなそいつNGしとるやろ
反応しとるのはなんも知らん新規だけやで >>130
1024はともかく768は意味ないってのはとしあきや4chanも含めて割と一致してる見解だと思ってたぞ >>116
やっぱlatent coupleで竿役と別々煮出すのがいいかな?LCって真横か縦に並べるしか無理なんだよなぁ >>135
としあきは512にサイズ合わせる手法でやってるからな
でも実際は画像サイズ合わせる必要ないらしいで wikiのやつ追加されたやばいのwikiから消したわ
anonfilesで消されるとかやべーやつやろ
あそこウィルスですらセーフみたいなのあるのに >>129
chillをAにするか、Bにするかでも絶妙に変わってる気がする
アニメ系と合わせる時は、大体2割くらいから顔の美形が崩れる予兆を感じる
あと以前はchillにアニメモデルを合わせてから、それを更に3割にしてメインに使いたいアニメモデルを合わせるってことをしてたんだけど、これでも手は改善された印象があるンゴ >>138
普通の配給サイトで扱えない時点で
どれだけヤバイかわかる >>138
乙やで
なんかあったんか?ウイルスファイルでも紹介してたんか? サイズ感良うわからんから元サイズのでかいやつと512に小さくした画像で学習しとるわ civitのディスコード入ってるやつおるか?
あそこにしかないLoraとかあるんか? >>138
向こうからしたらasianが拡散したから消すとか普通だが >>125
1枚目がAOM3で2枚目がanything-v4.5やで >>148
完璧なんちゃう?
どうしてもってなら繰り返す数をちょっとだけ減らして再走や なんかimgガーが激重なんやがワイ環か?
まじでまともに専ブラから画像開けないレベル >>148
これ塗りLora?よく出来てるなぁ
タグの付け方ってtaggerでタグ付けして先頭にキーになる適当なタグ入れればええのん? >>139
サンガツやで
チルが崩壊サポートしてくれるとは思わんかった 一回空白の入ったフォルダにTrain Networkインストールしちゃうと最初から構築しないおさないとあかんの?
フォルダ名変えてもコマンドのパスは空白入りになってるわ
再起しても変わらない >>151
回数がフォルダの先頭につける数字やとしたらそれはもう1なんや
もっと枚数増やしたら絵柄がシチュに引っ張られんくなるかな? >>138
そもそも半月くらい前からとっくにトップページにデカデカと「児ポ学習してそうなモデル載せるな」って記載されとるしいちいち報告いらんわ
元々Cstaber以前からBstaberもあのwiki的には除外対処なのに今更やわ >>148
ええ出来にみえるが引っ張られる感じはどの辺気にしとるんやろか >>140
元々あの作者はすぐ消す
7zにも常にパスワードかけて配布してる
としあきwikiに堂々とパスワード書かれとるけどな >>157
taggerのthreshold下げてタグ増やすか学習のflipを使う
最終手段は手動で素材水増しやな loconでポーズlora作り直したけどむしろ劣化したみたいや
何でもloconにすりゃいいってもんでもないのか >>148
すげーな
狙いの絵柄にしたくて試行錯誤してるけど微妙なんばっかりやわ
なんかコツ掴んでたら教えてな >>166
やっぱり既婚か
今戸建てってかなり高いんちゃうの? >>146
ありがとanything-v4.5ってこんなアニメ絵でるんやな 通常のwebuiの赤い花札みたいなのでloconlora使ったのと下のスクリプトから適合させるlocon用のを使って見たらだいぶ変わったけど
これlocon入りで学習したら通常のloraとloconのlora両方のloraが楽しめるって事でいいのかな?
それともloconを外した方が精度が上がるのだろうか
locon出力にしたら造形が学習の絵そのまま出てくれる感じがある気がする chill2割混ぜれば手とか改善されるんか目からウロコや
実写モデルとアニメモデルを混ぜるなんて思いつきもしなかった >>149
すまん
>>96
は訂正や
Batのコンソールにエラー出るけど階層の適用はされとるのを確認した >>161
学習教材を知っとるからこそなんやろうけど指定したシチュに対して似た構図の物が多くあった物にかなり寄った感じになってしもとるんやそこをもう少しマイルドにしたいんや 配布サイトでいえば中国のモデル共有してるTelegramもディスコと比べるとなんか敷居高く感じて加入できてないけど入ってるやつおる? >>169
locon専用エクステンション入れた状態でaddtional networksからじゃないとloconで学習した階層を引き出せないんやで >>171
悲しいなあ
やっぱりさらに上がるかもと思って決断したんか もともとアニメモデルにインスタモデル混ぜると手指改善というのがAOMあたりの話やからな どこでモデルがアウトか判断しとるか知らんけど過剰反応をイチイチ書き込む方が一般の興味引くんやないか?
そんなんSDから言ってアウトなんやし >>175
そうそう、だからそれがlocon学習してないバージョンのloraと一緒なのかなって思って違うのかな Loconに作り直すのめちゃくちゃ面倒やけど、下半身がそうせよと囁くから少しずつ作り直すで~ >>179
普通に児ポモデルや
その話もうしないほうがええのは同意
>>181
それはさすがにわからん >>182
かなり変わる普通のバージョンとの比較や検証殆どしてないから断言はできないけどリアル系はこっちが学習率低くてもいいのができるかも >>182
二台稼働したくなってきたわ片方に学習させてもう片方でシコシコ画像作って調整して~って インスタモデルとか懐かしい響きやな
今じゃ完全に埋もれたけど影の立役者やでホンマ >>184
ですよねw誰か検証してくれたりしないかなw
当分loconlora作ってればいっかw >>175
そうなんか・・・花札からやっとった・・・ トレンディのポーズしてほしかったんだけどopenposeだとなかなか首を上に向けてくれんな…
https://i.imgur.com/OLgJI1w.png >>184
だからなんでわかったのかって話や
そうやって騒ぎ立てるから変なの寄って来やすいんやないか
量の大小はあれどSDだって入っとるやろそれと同じ扱いしとればええんやないか?
わざわざこことかwikiに書いて実は宣伝しとるんかって思うわ >>153
ワイはtaggerでタグ付けするときにタグを追加で適当なタグ付けとるわ
そう思うと適当なタグが先頭に来てない事もあるやろうしやり方として間違っとるかこれ なんか飽きてきたけどお題箱とかランダムで出してもらってやればモチベ回復するんかなぁ
モデル色々変えて味変してるけど食傷気味だわ >>190
いいすねベースモデル何で出されたのですかね? なんJデイリーお題箱みたいなので各々の秘蔵モデルやLoraで出力して発表とかか すまん、コマンドライン版で学習再開する時はどこで学習途中のファイルを指定すればええんや?
bingは「self.load_model: strで指定しろ」と言うけど、その項目自体がArgsList.pyにないんやが・・・。 Multi controlNetでOpen Pose2つ使ってLatent Coupleと併用して2人ポーズってできる?
>>92
なんか好き loconのアドオンはログにbuilt-in lora hijackedとか出るから花札からでも有効ちゃうかな >>194
別に飽きてもええんちゃうか
無理してやることもないし何かアプデ来たらさわればええやろ >>176
子どもが多いのと金利が上昇しそうだったから駆け込みで固定金利の住宅ローン組んだ >>209
ありがとう。使ったことないのすわ。試してみます。 >>204
花札でもちゃんと学習内容がでるから気づきにくいよねw >>204
何か説明変わった気がする
前はAdditionalNetworksからでも出来るみたいな感じだったと思う 悪堕ち衣装Loraとか無いかなぁ、ボディスーツLoraはあったけど >>148
下から二枚目すごいな
綺麗なアニメ塗りや >>192
なるほど手を加える感じか
ワイもチャレンジしてみたい >>206
三白眼の目つきの悪いロリを探求してたんやが結局そういう絵柄集めてLoraするしかなさそうでちょい落ち込んでるわ
なんか一つ別ジャンル絞るのもありかもしれんな >>205
若干絵柄に影響するけどこれはええわ
>>216
アプデしたのかもしれん >>217
悪落ち衣装の定義がまずピンキリやからな
出てきてもニキが納得するものとは限らんで >>220
三白眼ニキだったのか草
ワイのオナホ妖精にも三白眼実装出来るかいじってみるわ a1111-sd-webui-loconはリリース2/28からずっと🎴から使う拡張なんやが、なんでしったかぶりするんやろうな ネタ切れなやつはショタちんと長乳lora作ってクレメンス 別にどっちから使ったところで変わらんよ
花札適用した状態でさらにAdditionalNetworkしたらそら変わるが >>211
今調べたらシードも同じにしたら同じのがでましたw
朝はインストール前だったみたい花札からでいいんですねw >>222
そうよねぇ、同じキャラでも人によって当然オリジナルだしねw
納得いくのは自分で作らないとな…そろそろ衣装もやってみるか
逆にガチャ向いてたりするのかな ワイ、今になってようやく三白眼と三只眼(吽迦羅)を勘違いしていたことに気付く >>224
エクステンションのusageと下のaddtional networkごちゃになっただけや
>>225
この怨霊誰か払ってくれ としあきwikiもなんUのwikiも言ってることバラバラだし生成時にlocon okと出るわけでもないし雰囲気でやってる >>198
途中のモデルを追加学習するならこんな感じで動かんか?
network_weight=X:\hoge.safetensors これって正解がないから「ソースは出せないけどワイは正しい!反論あるならソース出せ!」みたいなことになりがちやな >>229
civitaiにさっき上がってたblacklight Loraが役に立つかもしれへんで、作例見るとそれっぽい雰囲気出てるわ 説明読む限りだと、基本的に花札からつかうけどあとからAdditional Networkにも対応したんでしょ
いまはどっちからでも良いと思うよ
としあきのコメントと、KohakuBlueleafの説明を合わせるとそういう解釈でいいんよね locon言うほどいいか?
実際にloconで学習した例見ても違いがよくわからんし、普通のAdamでいい感じするけど キャラLoRAでも素材次第で最適なdimも変わるしlrも変わるしstep数も変わる
loconも同じでピッタリ合えば良い出来になるが、合わなきゃゴミが出来るだけ
状況状況で変わるのに、これが正解、なんて出せるわけなかろう あとからAdditionalNetworkにも対応したで! ってなっただけやったはずよ
ってことでさっくり比較置いとくわ
https://i.imgur.com/sglOizP.png
こっちが花札経由で
https://i.imgur.com/K2OPJiW.png
こっちがAdditionalNetwork経由や
差異出たニキはXformersでもつけてたんちゃうの 12GBだけど1024の解像度での学習無理だった
前できたって人いたのに
loconがオンだからかな? loraやろうとした矢先にloconが出てきたのでloconしか手を出してない
とりあえず満足するまでloconしまくって構図なりキャラなり学習しまくってやるです locon使ったのと使ってないの使い比べたら差が歴然だったから全部作り直しだわ
細部の再現性がかなり違う >>242
そんだけVRAMあれば余裕でできると思うよ
バッチ1にした? 今まで作ったloraが良くなるかlocon試さんといかんな 腰が重いわ >>233
これでええんやろか?
'lora_model_for_resume': 'network_weights = E:\LoRA_Easy_Training_Scripts\sd_scripts\gakushu\ituki\6\ituki.safetensors',
とりあえず学習は始まったけど、本当に読み込んでるんか分からんな・・・。 >>245
したんだけどなー なんかミスしてたかな >>236
こんなLORAもあるのね、覚えておくわ、サンクス
Locon試したけど何か良い気はするわ よく分からんけどeasy trainingのやつでもloconとやら入れられるのか? loconでキャラもlora作り直したが……
画風含めた公式的な絵が欲しいならloconだが
柔軟に絵柄変わって欲しいならloraだな、サイズも小さいし Loconの適用についてはextentionが導入されていればWebuiのbat起動時にLaunching Web UI with argumentsの下あたりでLocon extention~~~とかの表示があるんでそこ見れば個々人の状況が判断できると思うで >>257
服装の一貫性とかが上がってるなら使うけど、これを見る限りはloraと違いなさそう。。
ただこの辺人によるからなぁ。結論は自分でやれ、なのよね。 脇が赤くなる(というか多分ま○こ化してる)のを防ぐプロンプトってないかな
特定のモデルで発生するんやが、他人の作品見てもたまに発生してる人見かけるしなにか抑える方法があるならご教授くだし >>262
絵だとぼかした時の形状がね…
さておきpregnantのヘソ問題然りでその部位を明示的に指定してやると打率は上がるで
Pregnantの場合detailed navelとかbeautiful navelとかで結構回避できるんよ
腋の場合だとdetailed armpitとかなんかなぁdetailed axillaryとかでもいけそうやけど armpitsは腋マンコ化するからarmpitsをネガに入れてarms upとかで出すみたいなのNAI公式で語られてたの見たから今ならそれをCNに置き換える形で行けないだろうか
あとはAOMでよく使われるrealistic, lip, nose, tooth, rouge, lipstick, eyeshadow,abs, muscular, ribは
直接的でないくても周囲を引っ張ってその辺の腋画風にも影響及ぼしてる気がするで 花札とAdditional Network
https://i.imgur.com/570YLXr.png
同プロンプト同シードで.safetensorsを移動して比べたけどほぼ一緒や(xformersあり)
なんか絵が変わると思ったらシード固定がバグっとった >>247
load network weights from: X:\hoge.safetensors
って出てたら成功やで locon、network_dim、alphaは半分(64、32)でいいと見かけたけど、
conv_dim、alphaはいくつがいいのだろう?
設定してるニキおる? ワイ1060 control net使ったらVRAM使用率100%になり無事死亡 >>262
ワイは最近これ使ってるけどまぁまぁ抑制されてる気がする
(armpit crease, armpit peek, armpit hair:1.1), LoConのconv_dim/alphaってAdditionalNetworkのどこかに出てきたりしたっけか 悪落ちはdark personaタグも結構効くやで~ >>267
出てへんな・・・。ワイが探しきらんだけやろか。どの辺に出るもん?
生成画像比較してみたら微妙な変化はあったけど、xformerのせいかもしらんしなぁ。
コマンドラインは赤ちゃんにはきついで。GUIがEasyにも対応してくれることを願うばかりや。 背景を確実にぼかしてほしい時ってどんなプロンプトいれてる?
調べたらカメラ名とF値入力する人もいるけど、どれが正解なんやろうか >>264
とりあえずbeauty armpitで80枚試して1枚腋ピアスっぽいの出た以外は問題なかったで
Armpit単体だとアカンかもだけどbeautyとか付ければ結構いけそうや >>27
ベースモデル読み込んだあとピコピコ出てくる所に混ざっとらんか?
あとパスを""でくくらんといかんかもしれん
言うの忘れとったわ >>276
不確実だけどDepth of Fieldってのもあるな VAEって普通にCheckpointMergerでマージできるんやな
マージVAE配布してる人おったから試しにやってみたらなんか出来たわ >>271
セレスフォニアネキやっぱ人気なんやなぁ 腋マンコ問題 >>263 >>264 のやってみたけど解決しなかった...
CNとの併用も試したけど同じ。この問題根深そうやね
>>272ニキのトライ中 >>288
逆になんのモデル使ってればそんなに腋マンコ出るのか腋マンコ民としては知りたいんやが なんかで見たと思ったらセレスフォニアか
めっちゃ抜いたのに忘れてたわ 正直VAEはどれ使えばいいかよく分からんわ
二次元イラストはanyやorange、実写は84000みたいな奴使ってるけど LoRaのalphaって数字増やすと学習結果が壊れるんだけどどういうバランスにすればええんや?
dimいくつに対していくつとかあるんか? vaeって使った方がえてんか?ずっとnoneやったきがさる >>286
>>291
同人エロゲはもろ素材の塊やから作りやすくてエエで、構図も豊富やし >>288
>>290
せやね
ワイはyuzulemonchailatteの3.5でbeauty armpitsでのテストやで >>292
二次やけど84000しか使っとらんな
やっぱり違いでるんか? >>298
絵柄じゃなくってシチュとかの学習元ならそっちのが良さそうやね
言われるまで気づかんかったわサンガツやで NAIだと淡すぎ、WDとか840000だと発色が良すぎてケバい気がするみたいなときにマージVAE用意しておくと良い気がするわ
前から微妙にモヤモヤしてたからこれでスッキリやで depth libraryの要領で三白眼出せないかcannyとかhedの開始位置遅らせてやってるけどうまくいかんなぁくそぉ 久しぶりにCounterfeit触ってみとるけど短いプロンプトでそれっぽい絵出すのは得意でも色々細かく指定しようとしても聞いてくれへんねやっぱり
自我が強すぎる なんでニキらのloraは乾いたオナティッシュみたいにならんのや
ワイが作ったら薄めないとカピカピになるんやが 背景透明大丈夫ってここで見た気がしたから試したら体のアウトラインガバガバのぐちゃぐちゃになってしもうた
やっぱ駄目なのか?
あと公式イラスト26枚だけで作ったら顔の表情の変化が乏しくてハンコになった
やっぱ少し公式から離れてでもファンアートから混ぜるべき?
背景透明のせいかな >>235
ソース開示は著作権侵害確定しちゃうからな
お気持ち勢呼ぶだけだから、突っ込まないほうがいいんや >>306
設定とか枚数は分からんけど間違いなく過学習やろうね >>306
ワイはドロドロ144MBを作って層別やらウェイトで薄めて使っとるで >>205
ありがとう
個人的にはネーミングは「パイ射」が好きw AIに使ってもええでって許可出てるキャラとかで素材一緒にして誰が一番うまくlora作れるかみたいなことせんと決着つかんね 結局CNせずにゴリ押したほうがまだ三白眼に近い...?
これ以上は瞳小さく中々なってくれねぇよキャラLora薄めて入れなきゃだめかなぁ
https://i.imgur.com/mydXfNQ.jpg
https://i.imgur.com/3q04jWC.jpg 飽きてないけどやる時間なさすぎて
新しい技術の習得までいかんからつらいな
いま素のプロンプトでなにか生成しても人権ないやろ 三白眼キャラの目だけ集めて学習させたらいいんじゃねえの LoRA block weight LoConに対応したよ >>317
目の素材だけ集めてLoraかあーLora自作ハードル高そうやがやるしかないかぁやるかぁ >>313
そういうコンペやるの面白そうやな ワイもやってみたいわ >>235
さっきのlocon適用の話ならウマシコ君は結局証拠出せてないからなぁ 消えたら大変だと思ってloraをDLしてるけど
毎回、数ヶ月に新技術登場ですべてゴミになるの繰り返しそう >>296
どのVAEを使うかでだいぶ仕上がり変わるよ
実写系とアニメ系で使い分けないと >>320
細部のマニアックな奴はLoRA、ポーズはCNが今の所の王道やな
逆にいえばこの二つ使えるようになればすべて制覇できるっちゅーことや! >>318
まだlocon対応してなかったのか!
うまく行かねえなぁって試行錯誤やってたわワハハ https://i.imgur.com/CFeUHxU.jpg
黒画像吐く可能性もあるゴミもあるけど(修正できるならしたいが分からん)前に上げた学習させたVAE再掲しとくわ
画像内のanyのはanyに付属してるVAEじゃなくて素のanyから直接抽出したVAEや >>159
半月前やなくて半日前やなくて?
念の為確認したけどトップページは昨日からのはずやで 最近本体更新無いけどAUTOMATIC1111ニキ生きてるんかな vaeの学習についてはまだ全然検証って進んでない感じなん?そもそも作り方わからんけど >>334
vae学習できる事自体知らなかったわ
>>335
サンガツ
早速B使わせてもらうで >>332
そもそもトップページのルールを掲示板で議論しないで勝手に変えるのは荒らし行為やからやめてや
こっちで話すことちゃうからこれ以上は向こうに書いてくれ VAEの学習ツールに関してはとしあきのところで拾ったから向こうで聞いてみるとええかもな
VAE学習の検証に関しては大胆にやっても効果が知れてるからあんま誰もやらん感じに思える 学習時のバッチサイズって上げれば上げるほど速くなるって思ってたんやけど、もしかしてこの認識間違っとる?
試しに1から順に上げていったら6までは速くなってたのに、8に上げたとたんバッチサイズ1と変わらなくなったんやけど、おま環かな? civitai眺めててもお前らが上げてそうなの全然見当たらないけどちゃんと上げてる?
独り占めしちゃダメよ >>341
VRAM容量が足りてる間は増やせば早くなる
VRAM容量超えてまで増やすとスワップやらなんやらで遅くなる VAEの学習させることで漫画塗りというか疑似スクリーントーン貼れるんじゃねーの >>343
やっぱそういう事か
VRAM足りなきゃ落ちるやろぐらいにしか考えずにバッチサイズ無駄にでかくしてたわ
今までどんだけ時間無駄にしたんやろか…
サンガツ https://i.imgur.com/oqhj8x9.png
むほほ層別ちゃんと効くようになった…かな?多分
整合性はともかく方向性はええ感じやloconええのう paperspaceでngrok使ったらVANされた>>30だけど、解除されたので報告
メール問い合わせしたら、利用用途と個人情報の提示を求められたので、
性欲を持て余しているだけで悪用はしない旨を真摯に説明したら個人情報は提示しなくても大丈夫だった
よかった >>295
半分に設定した結果がノイズだった場合何が悪さしてるか分かるなら教えて欲しい >>342
なんかここのところアップは全部無視されるんや…… 上でLoConを花札経由で使うのととAdditional Networkを経由して使うので結果変わるっていうやつ、試したらワイも出力変わってたから理由調べてたら
設定の「Apply Lora to outputs rather than inputs when possible (experimental)」を有効にしてたからやった
Loraの時はこれ有効にしてたほうが結果良くなった気がしたけどLoConやとどうなんやろ >>351
ワイもまさに昨晩>>29をやらかしたところやから今夜はlr下げてやってみようと思ってるところや XYZ Plotで
Yでtextural Inversionの効き方を0.1,0.2,0.3と変えたかったらどう書けばいいの?
例えば上のpromptに、1boy, <Ringo:0.1>とRingo TIを書いて
X Seed -1,-1
Y Prompt S/R 0.1,0.2,0.3
にしてもエラーで動かないです >>356
TI使ったことないからわからんのやけど、多分その場合Y Prompt S/Rは数値じゃなくて
<Ringo:0.1>, <Ringo:0.2>, <Ringo:0.3>
やないのかな? >>359
使い方も丁寧! サンガツいただいてくわ! 最近風船という単語にビクッとしつつも期待してしまうようになってしまったんやが… >>324
ココアさんが消えてたのでDLしてなかったら咽び泣いてたよ 風船のようなおっぱいの絵を長瀞さんの作者が描くようなかわいい画風で見たいなあ >>356
>>358
すまん
loraだけど、手元で試したら0.1,0.2,0.3みたいな数値でもいけたわ
プロンプト内に他に0.1が書かれてるってことはない?
もしくはプロンプトの方で0.1じゃなくて01みたいにタイプミスしてるとか ちょっと思い付きで色々出力微調整用LORA作ってたんだけど、どーだろ
https://i.imgur.com/w6erGEA.jpg
強度は-1~2まで0.25刻みで試した
これが何に使えるかまだわからんけど、なんか気になるのあるかね? prompt S/Rがval1にヒットするのが2箇所以上ある時は前方なり後方なりの一つだけを置換するのか全て置換するのかとか全く知らないし確認もしないまま、調べるのもめんどいので雰囲気で複数ヒットすること自体を避けている locon使いたいけどcolab版が出るまで低みの見物 >>358
なんか自分のSDがおかしかったようで再起動、UIリロードしたら数字だけでもいけた!サンガツ! >>367
2,4,5列めあたりはノベルゲームとか作るうえで使えそうな感じでよさげやな? >>367
なんのLoRAなのかわからんけど…
ボケみとか顔の落ち影とか微調整できるようになったらええな >>356
TIの場合は<>じゃなくて普通のタグとしてファイル名を書くので強調は()のはず locoは古いアニメキャラとか特徴的な造形のキャラの再現度が上がったと思う
今時のキャラデザだと元々再現できてたからあんまり変わらんな そもそも管理人まだおるんかなwiki
去年の10月最後に記事の編集も掲示板への書き込みもしてへんみたいやけど >>374
あ、そうだったんだ!花札押したら<>で出てくるのでそのままやってた。サンガツ!
あともし知ってたらでいいんだけど、
XYZ Plotで、Seed50個分をX Typeに-1,-1,-1..って50個分入れて出したら横一列の細長いサムネが出来た
例えば横10x縦5のサムネで全部ランダムSEEDで出したいときってどう打てばいいの? 花札からTextual Inversion選んだ場合は<>付かないはずやが…
タブをTIに切り替えてそこに並んでないなら、それはTIじゃなくてLoRAや >>378
ほんまわ!なんか前の人がTIに<>付けてたから思い込みでそのままずっと付けないといけないと思ってた…サンガツ >>377
その場合、plotは使わずに設定でグリットの列数を5に設定してからbatchか1回当たりの枚数の方を10にして作るが本来の想定されてるやりかた
設定いちいち変えるの面倒とかどうしてもplotでやりたいとかならcfg scaleやらvar seed辺りのどうでもいい値をxとyそれぞれに全部同じ値とかでセットしつつ「シード値を-1で固定」にして生成とかでも行ける
https://i.imgur.com/BF6zNII.jpg すまん10x5なら列数を10にして生成を50やな5x2と勘違いした
plotでやるなら
xに8,8,8,8,8,8,8,8,8,8,8
yに8,8,8,8,8
的な感じやな >>381
ありがとう
設定でgrid row5にしてbatch count 10でも10個の画像しか出なかった…
SEED値毎の違いが見たかったからSEED表示してほしかったんだ…
ちょっと自分でも調べてみる。やってくれてサンガツ! >>383
すまんその場合はそこの数字50やったね
ただseedも明示しときたいってなるとちょっと難しそうやね… >>271
おぉ〜良い感じだね、試しにやってみてくれてサンクス
これは戦うヒロイン系LoRAも作りつつ試してみねばな… 重複に貼ろうと思ったのに本スレに貼ったわ。。romるか。。 controlnetに手を出し数枚作ったワイは気づいてしまった
単体の三次スケベを二次に変換してくれるのはとても楽しい
でもあまり楽しくはない
つまりワイはt2iガチャが楽しかったんや
出力に揺らぎがほしい
揺らぎが >>386
昔に海外かなにかが作ったのと比べて精度高くてええな >>367
左の下から4列目と右の下から3列目が好き >>389
完璧画質のデジカメ時代に、オールドレンズでフィルム撮影する楽しさやな分かる 今更やがTIの勉強しとる
日本での知見がなく大陸へ留学しに行くまである >>389
あの頃は良かった……って思ってしまったわ
もう懐かしい civitaiで集めた大量のloraデータの管理どうしてる?
一応フォルダ分けはしてるけどどのモデルでどう使ったらいいかもう分からんくなってる >>372
あー、ノベルゲーのCGか、確かにありかもな
こういう特殊エフェクト系はプロンプト出そうと思っても出てくれんからねー
>>367
これは学習方法のテストのために作った試作Loraみたいなもんさ
全体ボケさせる奴なら1か月くらい前に作ったなたしか、落ち影調整は面白そうだなー試すか…… >>399
1年も経ってないのにそこまで来るって技術の進化もすごいけど、人間のコンテンツ消費速度も地味にエグいよな >>404
フォルダに突っ込んで名前も一緒にして必要情報書いたメモ帳(何なら画像も)も入れとけばとりあえず使うのに困りはしない
ただなんだかわからんのを一々確認するのも面倒だから結局そのまま >>205
他のLoraと組み合わせるとぐちゃぐちゃになるんだけどワイだけ? せっかく海近いんだから水着JKがはしゃげるスポット作ってくれないかなディズニーシー
https://i.imgur.com/mhDje05.jpg 去年の夏頃やったな、WD1.2でワイワイやってたの
何もかもみな懐かしい あの頃はみんな長文で新海誠のような美麗な絵柄を目指していたのぉ
今やそんな奴はおらん うおおおおおおおおクリークのLORAきたあああああ
職人ニキサンガツ!!! LoConで生首学習するついでに、白背景、白背景を透過色化、黒背景、黒背景を透明色化した4パターンで比較してみた
https://i.imgur.com/LcqtHAt.jpg
https://i.imgur.com/oC3CuCi.jpg
上はloraのweight:0.6、下はloraのweight:1.0
背景色が服の色に強く影響している
また、過去に検証してくれた人の結果通り透明色にしても元の色が学習されている
白背景で青い服が多いのは多分プロンプトに blue eyesを入れているからだと思う
blue eyes以外で色付きのタグは無し
下の画像だけ見ると透過背景の方が生成時に背景を描写されやすくなるように見えるが、
さすがにこの枚数だとただの誤差なのか判別できないので、もっと大量に出力して比較する必要がある >>416
こういう検証は毎度助かるわ サンガツ
ワイは自作LoRAで正則化画像有無で比較しとるが正直ワイのキャラの枚数だとあったほうがええな…… 半年前に比べてLoRAとControlNetのお陰で1キャラだけならかなりスムーズに作れる様になってる
次は複数キャラの配置が楽にできるようになればいいなと思う
https://i.imgur.com/l5dUm8f.png >>389
こちらはtrinart2やが、今や1920x960を直出し(hiresかけてない)できることに驚きを禁じ得ないw
これ上下切れてるから、本当はoutpaintingでフレーム端が出てくるまで拡張しないといけないんよね……。
https://i.imgur.com/dlacZo0.png 最新のLora拾ってもAOM2~AOM3でガビることが多くなって来たわ
調べたら「AOM2-ElysV3」とかいう亜種があるみたいなんやけど、これってどこで拾えるんやろ >>416
どれも影響あるし難しいな 背景ありの適当な学習画像も何百枚か入れて学習させた方がええんやろか(正則化画像やと学習回数の調整効かないから学習画像にして繰り返し回数調整する感じで) 同じ生首をコピーして白背景版と黒背景版で相殺とかできんやろか おそらく背景ほどほどに混ぜるのがよい気はするな
正則化画像は生首の場合どうなるのか正直やったことないからわからんが 色々な背景色の素材混ぜたら背景の質が上がったっていう報告も以前あったし、
白黒混ぜたりとか、他にも空の色とか森の色とかの背景色も混ぜて試してみるのも良さそう 背景はできるだけバラけさせて変に覚えさせないようにした方がええんかね
正則化との兼ね合いもあるから難しすぎて頭沸騰しちゃう とりあえず水平線で太陽光らせながらillustration of a beautiful girl, detailed beautiful face, detailed hair, detailed human eyes, detailed mouth, detailed arms, detailed bust, looking far away, shot diagonally, artstation, deviantart, concept art, award-winning, cinematic postprocessing, cinematic scene, cinematic composition, cinematic lighting, overexpose, ray tracing, 8kしとけばええやろの精神
https://i.imgur.com/NZUbILP.jpg huggingfaceって容量制限とか無いんか?
無限に上げて大丈夫なんやろか >>389
なんか完璧すぎないからこそ感じる安心感というか、好感度ってあるんだなと思った 今のところテラバイトで上げても何も言われんらしい 太っ腹過ぎて怖いよな >>431
はえー
遠慮なく上げてもええってことか
凄いな あー、ミスった>>373だったなさっきの
さっきの作るのに使った素材、1列ごとに実は実質1枚だけなんだけど、構図絵柄には影響与えずにどんな絵でも効果出るのよねコレ
横顔でも全身でもchibiでも目が光るのさ
https://i.imgur.com/razhMeQ.png
https://i.imgur.com/T0R96dS.png
https://i.imgur.com/FJomNfY.png >>406
おお!作者さん!ツール使いやすかったでサンガツやで!
ただツールの出来には大変満足やねんけど、このControlNetのDepthとCanny使ったら虚無の空間にダイブする人みたいなシュールなテクスチャになる…
他の人がやってるみたいにモデルの質感が全然でーへん
outdoorとかプロンプト入れても風景一切出ん…
モデルはAOM使った。ワイのおま環なんかなぁ?
https://i.imgur.com/NKFCDV8.jpg >>434
ControlNetのWeightいくつでやってるんや……? >>434
Control Netのweightを両方0.5~0.6ぐらいにしてみ CNのDepthって白黒にする前の元画像にもある程度引っ張られる感じ?
元画像が3Dソフトのタイル床が写ってるからそれが白黒画像には反映されてないのにタイル床が結構出る cnの線画使うとなんかガビガビになるの設定よくないんかな depthは結構モデル絵の特徴拾うで
その分重み下げといたほうがええことが多い >>438
annotator resolutionとかweightとかいじるんだ >>439
やっぱりそうだよな、サンガツ
openposeやcannyと比べて遠近感が再現されやすいのも元絵から拾ってるからか >>433
>>367
色温度、glowing eyes、 シャープネス/ハイコントラスト、色相反転、線画発光、明度/露光量、ポスタリゼーション、白目、リアル化、漫画化、レベル補正、デフォルトって感じ?すごいなコレ loraGUIアプデされとった
細かい要望やったのにベリーサンガツ >>419
実際のところは、あまりサイズでかくしない方が何が描かれてるかわかる(わかるとは言ってない)ので、SD upscaleででかくするのがいいかもしれん。
https://i.imgur.com/t3Y3rXv.png >>420
「AOM2-nutmegmixGav2+ElysV3」でググったら上から5番目にmegaのリンクが表示されてるけどこれじゃね?
一応リンク貼っとくけど責任持てんでttps://mega.nz/folder/olJGRBoR#1I2DoAtIXlD_dD44pa_S0Q アニメ原画やスタッフ用設定資料は貧乏下っぱメーターがオークションに流してるから実は手に入れやすい
ヤフオクには専用カテゴリがあるぐらいや
そして悪い人がスキャンをその手のサイトに流していたりもする >>442
そだね、大体そんなかんじ
元々は、絵柄とか構図になるべく影響与えずにLora作るにはどーするかって思い付きだったんだよ
そもそもなんで絵柄とかが引っ張られるのかって、学習元のモデルと学習したい画像の絵柄が違うんだからソコ学習しちゃうよなーってことなんだけど
なら学習に使うモデルと画像に絵柄とか構図の差がなければいいんじゃね?…て思ってさ
まず、画像1枚でコピー機Loraを作るわけだ、何入れてもこれしか出ないコピー機
https://i.imgur.com/aIuQxdg.png
それをマージしたモデルベースに、元画像にフィルタ掛けたりエフェクト入れたの1枚で学習したらああなるわけだ
目を光らせるLoraとかもGimpのフィルタでこんなん入れただけだし、白目は目のとこ白で塗りつぶしただけだぞアレ
https://i.imgur.com/6HD5gOz.png
https://i.imgur.com/BdacyFz.png >>367
なんやこれ
ちょっとのパラメータでこれだけいじれるんか? 下から3列目の一番右
版画化とか切り絵化とかの感じで使えそう 賢者タイムぼく、試しに背景を観光名所や世界遺産を入れてどの辺まで認識してくれるか試してるうちに2時間経過し無事死亡 >>449
縦軸がLoraの種類で、横軸が適用する強度だよ
さすがに1個のLoraでこれ全部は無理…いやキャプションとかタグで分けたらいくつかの効果は1個にまとめられるかもしれんなコレ
生成後にフィルタで調整するのとは違って、初めからそういう絵!って感じで出てくるから結構アリかもしれない 本体更新してControlNet入れ直したら動かなくなったな。GPTちゃんに聞いたら
モデルの状態を正常にロードできたものの、C:\WebUI\stable-diffusion-webui\extensions\sd-webui-controlnet\models\cldm_v15.yamlというファイルを読み込めなかったことを示しています。このファイルが見つからないため、ControlNetを実行することができません。
て言われたんやが、普通にそのファイルはそこに存在してるんやが
消して入れ直しても動かない >>456
850 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1a91-pouK) sage 2023/03/02(木) 18:25:53.28 ID:PTvmJbrO0
>>842
niel氏のnoteより
0302 現在、最新版のControlnetを導入すると
「cldm_v15.yamlがないよ!」というエラーが出ることがあるようです。
対応策としてはmodelsファイル直下にcldm_v15.yaml(extensions\sd-webui-controlnet\models の中にあるのでコピー)を入れて再起動すれば解決するようです。 >>458
情報出てたんやな。すまんやでサンガツ! >>350
ちゃんと伝えると許してもらえるんか…
>>452
シュールすぎるwww >>457
ワイの性癖にガン刺さりや
詳細教えてほC ここになんか性的なものを挙げたら、誰かの性癖に漏れなく刺さるのか…… >>463
性的じゃなくても刺さるぞ。恐ろしいか? WSL2のdockerでやっとlocon動かせたよ >>457
これ日本昔話loraか?
まぁ、クレしんlora作る人が居るぐらいだからなぁ
性癖こじれ過ぎだろ・・・ 色が変になる原因になってそうなカーディガン組を排除した結果素材が半数まで減ってしまいその状態でstep増やしたがやはり線がガビガビしてきた…
https://i.imgur.com/m3vpExu.png >>464
サンガツ!
詳しい使い方まで書いてくれて助かる >>457
おもろw
これは動いてないとアカンやつやなw 学習すべき要素数に対して次元数が高すぎると、空いてる次元に余計なものを学習してカピりやすくなる >>119
普通にどっちも階層使えたやで
でもLocon版は階層分けの追加機能を最新にしないと正常に機能しないっぽいわ
後星1にしてるのはLocon導入してなくてできないでつけてるだけだから関係ないと思うで(現に発言者批判するアイコン5つついとるし) >>288
NGにも弱めに(armpit:x.x),とドストレートに(vagina in armpit:x.x)で言うこと聞くで7th Layerだと BLEACHの表紙みたいな黒ベタ多めなLora作りたいけどやり方思いつかねえ あと生えかけの陰毛をだすプロンプトってないかな。
pubic hairだと結構剛毛寄りが出て困ってる >>481
pubic hairの関連タグにsparse pubic hair(まばらな陰毛)ってのがあるけど
これが通じないならexcessive pubic hair(過剰な陰毛)をネガティブに入れるか自分で学習させるしか無いんじゃね
https://i.imgur.com/D4pM9wW.jpg loconやってみたけどlora単体と違いわからんってよく言われてるけど
もし本当にそうならメリットデカくね?
品質同じでdim半分に下げれるから学習速度上がるし必要なVRAMもへるってことやろ >>350
ワイは「機械学習とその成果の確認をしているだけであり、何も悪いことはしていない」で釈放されたで
サポセンも面倒臭いことしたくないだろうし、ちゃんと話の通じる奴ならこれといって取り調べも無く釈放してくれるんやろな >>481
いくつか試してみたけど>>482の言うとおり、「sparse public hair」でも減る
でも生えかけというより陰毛を整えてる程度に見えるかもしれない
正解は多分「lanugo pubic」 これを「lanugo pubic hair」とすると間違い 朝鮮の料理店覗くとなんで面長つり目で頬骨エラ張りばかりなんだろうなw
きっしょいからさっさと死ねよゴミ^^ Multi CN全然指上手くいかねー
そんなもんなのか? あーこれ同時にやったら駄目なのか
手間かかって面倒くさいな 実写のbasil mixでしか試してないけど
程よい陰毛はtrimmed pubic hairが一番うまくいくで
次点でshort pubic hairとかchildish pubic hairとか ((lanugo pubic))
ttps://imgur.com/PTnwxeI.jpg
[[lanugo pubic]]
ttps://imgur.com/vEMYicx.jpg
何か強調具合にって生え具合も連動するみたいだわ >>367
白目になるやつ外人が好きそうやん
アメコミヒーローの文脈で
日本だとガラスの仮面か 男もそれなりにいる教師画像でLORA作ったけどそれでも男が全然描写されないのってまだまだ足りないってこと? >>138
anonfilesってダークウェブの奴が使うところらしいで
そんなところにTorなしで接続したら絶対IPがブラックリストに入るやろ コマンドライン版LORAでタグつけ学習する時って
学習画像のフォルダに:キャプションファイル用意しておけば、タグ使ってなかった時のコマンドそのままで、タグ使って学習してくれるんか? locon何も考えず今までと同じdim128で作ったら黒画しか生成されなくなったわ
dim32まで下げたら正常になったけどこれだと使う意味なくね >>369
colab民だけどlocon使ってるで。 自作Loraのバージョンアップして前のバージョンのが出来良いとショックだ ええ感じに作れたと思ったloconがなんか変だなと思ったらコピー機になってたわ
学習に使ったモデルに学習に使ったプロンプト流し込んだら学習絵のトレス的なのを出してくるようになってた
で、作り直してようやく触手服がloconでええ感じになってきたわ
後はプロンプトバリエでどんだけ遊べるかやな
https://i.imgur.com/7K7KsgK.jpg
https://i.imgur.com/LdcqRlk.jpg
https://i.imgur.com/ROADad3.jpg
AIくん?学習データに無いよね?ちんちんリスペクトの器官を取り付けるのは辞め給え
https://i.imgur.com/vyzl3Y4.jpg
https://i.imgur.com/2L4IlvF.jpg
https://i.imgur.com/3SI3AEZ.jpg ワイもloconはdim128α64で作れてるな
loraと違って細部まで学びやがるからかちょっと多く回すと
コピー機になっちまう気がするで
みんなも気をつけような AOM3でnaiで学習したLoRA使うと強烈にガビガビになるんやけど他ので学習したら上手くいくんやろか… >>462
日本昔ばなしloraを自作したんや
本当は世界名作劇場を脱がしたかったが質の良い絵が見つからんかったんや
こっちはつべに高画質があったから簡単に作れるで >>503
わいも>>259で出したみたいにガビガビではないけどLoraおかしく感じる ワイ赤ちゃんで申し訳ないんやがLoraって同じ名前で呼び出してプロンプトで分けて使うことはできるんか?
花札押して出てくるタブがゴチャゴチャしてきて困っとる >>493
学習につかったチェックポイントマージ(モデル)の影響かもしれない
同一設定でモデルだけ変えてLoRA学習させてみたけど生成される画像結果が異なった、試した数が少ないからはっきりとは言えんけど >>503
ガビガビになるのは過学習だからなんちゃうか
ワイはAOMシリーズ全然使ってない異端だから相性はわからんけど >>503
Counterfeit2.5マージしてるのが原因やろな
アレは背景良くなるかわりに人物がウンコになるから
AOM4作る時は混ぜないで欲しいわ >>497
LoConふつうにDim128で学習できるよ
としあきwikiにもDim2~128で試した結果が載ってるけど、どれも破綻することなく綺麗に学習できている
通常のLoRAよりもLoConは過学習しづらく優秀ということらしい >>503
やっぱAOM3おかしいよな
AOM3A3つかってるけど、同じLoRAでもこれだけ他のモデルと違ってあからさまに出力される画像が違うんだけど 文字コラ作るのにエロい文章考えてくれるAI欲しいわ
自作だと抜けんしChatGPT騙して作るのも手間かかるんや 全くAIと関係ないんだが、PC版chromeでwikiのエロ広告を、
無くすとまでは言わないが、普通なものに替えれんかな。
仕事場(当然休憩時間だが)で見れないよー。
adblock等の拡張じゃ無理なんか、オレの設定が悪いのか、、、 ガビガビになってるやつだいたい過学習やろ
AOM3普通に使えてるぞ >>517
死人に口なしとはまさにこのこと
って一瞬思ったけど、生前から既に国民のおもちゃだったわ >>493
ベースのチェックポイントが男を知らない生娘だったらtext encoder に新たに男と男の扱い方全般を学習させないと出てこないで
LoRAよりcheckpoint mergeの方が適任だと思うで aom3は実際相性悪いよ どのlora使ってもそうなる >>515
広告何が表示されてるかは普段お前が見てる物次第定期 nai製だけどガビガビにはなってないかな
相性までは知らない >>515
アドブロックは運営者ヤバいって聞いてublockorigin使ってるけど何も出ないで aom3はマージ素材にして、そのままはあまり使ってないな。
塗り以外はaom3ベース。
それはlorしっかり使えてる シチュ再現ならNAIで作ったのをAOM3で使いまくってるけど
そんなに異常には感じないなぁ
キャラ再現とか画風再現はやった事ないからわからんし、
層別適用してるからそれで問題回避とかしたりできてるのかもしれん
後ガビの定義人それぞれだったりするからモデル別の同シード同プロンプトの比較画像欲しいで >>521
ワイの環境やと一番AOM3がまともに出てくれるわ
学習のやり方にもよるんかね TI作りたくてRTX4090購入したんだけど、世間はLORAとかLOCONとかになってるんやね、完全に置いてけぼりやわ
とりあえずkohya-ssのgitを使ってLoraを試してみるけど、「Windows環境のインストール」でpip installでPyTorchとCUDAを指定して入れてるみたいだけど、現行のwebuiを汚したくないんやけど、前の行でvenvやってるから、webui自体には影響ないって認識であってます? ガビガビキャラLoRAもこのスレにあった層別の1,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1適用するとweight:1でもスッキリするで >>514
例えばトリガープロンプトがhogeのA Lora とトリガープロンプトがfugaのB Loraがあるとして、
hogeを入れたらA Loraが適用されて、fugaを入れたらB Loraが適用されるようなC Loraが欲しいんや >>528
それぞれのフォルダのvenvを使えば平気 >>530
大雑把な理解だと花札を開くのが面倒ってことかな
extensionでkohya版のloraだとスッキリするとは思う >>529
ガビガビってIN層が悪さしてるからOUTのみ層別適用させて解決ってこと? >>522
毎回incognitoで見てるからそれは無いやろ。
デフォの上位がエロゲなんで困ってるんよ。
>>524
いけたわ!さんきゅ!
adからのりかえるわー >>510
なるほどとっしーはAdaFactor使って過学習防いでるんやな
ワイもAdaFactorにしてみるか
12batchはワイの3070じゃムリなんで、600×12=2400maxstepsで同じ結果になるのか分からんけど >>501
一枚目ええやん
ワイは女体にに触手絡ませるのだけでも苦労しとるわ >>531
教えてくれてありがとうやで
まだLora初心者やけど、まずはやってみる! ガビガビ問題、誰も現物を上げないのでそれぞれがそれぞれの基準で語ってる気がす >>533
おっぱい星人ワイ歓喜 サンガツや ワイも授乳手コキ作り直さんと ガビガビってなにを差しているのかわからん
過学習で濃ゆい感じになってる状態のこと? >>545
なんというか、ピカソのゲルニカみたいになる >>534
理屈は分からんが上手くいったっていうのが正直なとこやな
これに更に体位とか構図LoRA併用するときは仰け反りニキの0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0使ってるで
ほんま感謝やで層別LoRA KohyaSのLoRA学習用サンプルデータでとりあえず動作確認しているんだけど、sd-scriptでtrainするサンプルコマンド叩いたら
ImportError: No xformers / xformersがインストールされていないようです
でエラーとなる。requirements.txtにもxformers入ってないんだけど、これってみんなは個別にxformers入れたの? ゲルニカをガビガビと表現されると伝わらない気がするな AOM3は使っててかなり我が強いモデルな気がする
その分上手く噛み合ったときの絵は最高やが
確かに手持ちにもちょこちょこ相性の悪いLoRAがあるわ >>549
いや、xformersは起動時に勝手に入ってくるはず
もし問題が起きてるんならこの前のアナコンダ事件と同じ状況じゃないの
アナコンダ入れてない? のけぞりニキののけぞりやワイの玉なしふたなりは層別適用済みlora配布してるから
層別適用の威力どんなもんなん?って思ってる子ほ試してみるといいかも
層別の拡張は結構探求者向けな作りだから利用者が使おうとしたら戸惑うUIなのよな ぼやける→ガビガビ
ブロックノイズ→ガビガビ
ゲルニカ→ガビガビ
他にもあるか? ガビガビはこれやろ
https://i.imgur.com/GGjgqrA.png
ここからさらに過学習させていくとゲルニカになるイメージや アウトラインが乱れる
過剰な服のシワやシワの影の描写
背景に謎の乱れ
ここらへんが過学習確定やね 俺もよくわかんなかったときにanaconda入れてたけど
Pythonってバージョンで動く動かないが激しすぎて
あんなもん入れちゃだめだとなったな LoRA同士での画風汚染気にしていまワイもいろいろやっとるけど、kohyaニキが領域別LoRA実装してくれたら気にしなくてよくなりそうな気はしとるんよな あと無駄に背景の光が強いとかも過学習やね
眩しすぎて草生えるレベル >>446
サンガツ
脳死でAOM3ばかり使ってたけど我が強いモデルなんやな・・・
>>548
階層Loraほんま革命よな
女児パンLoraとか最高のLoraやけど、同時に絵柄にも影響あって使用範囲が限られとったところを
階層のお陰でbasil産のキャラ再現Loraにパンツ履かせることができて感動してる ワイはkatanukiで白背景派だから背景が真っ白にならないエポックを試して採用してる >>563
wikiにいくつかパターン書いてくれたニキがおったやろ
あれから試してよさげなのを探ってつくりゃええんやないの >>527
その使ってるLoraの学習元がAOM3だとかじゃなくて? 口周りがマスクみたいになって壊れるやつとかも過学習っぽいよな モデルにコスプレさせたいだけやから画風を殺す階層LoRA使ってる
触手丸呑みに付属してたやつがすこ 最近ControlNetの話題が減ってるっぽいけど
結局のところ実用性のある使い道ってどういう感じなん? Automatic1111のインスコ時にアナコンダでうまくいかなくてミニコンダにしたらうまくいった
もうだいぶ前のことでよく覚えてないんだが、どっちか入れないとダメだった気がする locon、AdaFactorで何度か試したけど総ステップ1万くらいになるように回したら2000ステップくらいはほぼ学習しないんやな
2500ステップ目(epoch50)で急に大きく変わり始めて5000ステップ目(100epoch)辺りから学習素材の絵柄に近付いた
ちな7500ステップ~10000ステップ目(150epochから200epoch)は過学習でガビガビになっとった
https://i.imgur.com/94PvtNM.jpg controlnetもまだまだ思ったより万能ではないなって印象だけど使いこなせてないだけかね?学習元に少ない(ない?)構図とかは全然別物で出力されたりしない? >>563
wikiにカスタムプリセットを書いてくれた有志がおるで
感謝や
絵柄無視でポージング・体位(特殊シチュ)だけ引っ張りたいときは上にあるCTとかええで CN新機能搭載してツイートにぎわっとったで、ワイはまずlocon赤ちゃん卒業するのが先やが >>571
なぜそんなにadadactor使う人多いのか謎やがadamwでええよ >>569
そらポーズ指定や
でも結局それはガチャからツール化への移行で
やること増えて大変になって一定の離脱者生んでると思う >>577
神
こういう乳がほしくて作ったんやがここまで長風船出せるのは意外やね >>578
神はそっちやで
この画像は強度1.1から1.5にしてsagging breastsとかのプロンプトも入れたで >>571
Adafactorのwarm upをfalseにしたらどうやろか
効率がよくなるで adafactor嫌う人多いのは失敗したとか大した変化ないから、とかかねえ
そして、試されもしないオプティマイザも色々あるよね。。 ここで何度か見てるんやがどこにあるか分からんくなったから教えて欲しいやで
画像生成中に99%でかなり止まってしまうんやが何をwebui-user.batに追加すればええか誰かわかる人おらんかな LoRA初めて作っとるんやが、学習画像50枚×繰り返し20でepoch10でやっとるのに総stepが1270しかないのはなんでなんや……後生やから教えてクレメンス
https://i.imgur.com/x8BUHl7.png 論理上adamwより使えそうなのがlionやけどまったく使いこなせなくてノイズだらけになる dadaptionはいいの出してる人もおるんよなあ
lionはまだワイは使いこなせてない 拾ったloraのトリガー管理めんどうや
--training_comment="abc"をみんな使ってクレメンス >>584
理論上言い出したらAdamW後発は全部そうやで
あとAdafactorは一応T5モデルのコンペで一番優秀って実績あるんやで >>576
ワイはいまの操縦法がややこしすぎてとりあえず保留中だわ
当然積極的に使ってる人もおるんやろけど 理想のエッチ絵を求めて試行錯誤をしていると
いつの間にかパンツがガマン汁でビショビショなんやが
みんなこうなっとるんか? CNはこっちに主導権渡されても困るんや
ガチャでいいのを頼む Adafactorのいいところはdim128 alpha128 lr1e-3みたいな頭悪い設定でも普通に動いてくれるから好きなんや >>592
元から絵描いてたり3Dモデル弄ってたニキは歓喜しとるみたいやな
呪文メインでガチャやってた層からするととっつきにくいのはあるかもしれん >>594
AIから棒人間ポーズが生成されるのを待て
ぶっちゃけこれはAIなんて使わなくてもif-then式とか
データベースである程度クリアできそうな気もするけどな
手だけのdepth画像集が出てきたみたいに 領域CNやカップルがあるんやろ
二人以上出そうとすると途端に構図が難しくなるんよ >>590
ほんま?もっかいwikiググってくるわ ガビガビてのは学習とか関係なくCFG上げすぎの生成がギラギラしちゃうやつのことかと思ってた
アンシャープマスクフィルタを強くかけたような感じの
で、過学習loraだとそれがCFG7~10くらいでもおきるイメージ >>533
これウマ大丈夫なん?
ワイは何気なくウマ(健全)貼ったらウマの怨念湧いてえらいことになったで 赤ちゃんやけど、バッチサイズ小さくするとsteps数小さくなるんか?
小さい方が学習結果良くなる??? 新しく追加された?CNのPreprocessorのopenpose_handが何かすごいんだけど使いこなせない
OpenPose Editorが手の編集できるようになるまで待つしかないのか >>603
ここ数日暴れてる奴の話ならウマシコ部がウマ警察に潰されたことによって産まれた怨念だから
ウマ画像で召喚されるんじゃなくてウマ警察によって召喚されるんや ククク・・・覚えておくのだな・・・獣はオナニーの邪魔をされると怒り狂うのだ・・・! ウマシコ部潰されたって何があったんや…
AIのコミュニティなんか? >>491
強調具合って発想はなかった なるほどたすかる! これ以上怨霊増やすのはNG
ストーカーみたいなんもうええわ スク水Loraあらへんかな~と検索しとったら
サンプルが爺さんばかりでヴォエッ!ってなった
これあれか・・美少女やと検閲に引っ掛かるんか >>491の上をt2iで入力するとhttps://imgur.com/a/8m6FI7J.jpgが出力される
手の表情まで入れるのはスマホのカメラとかで自分の手の形を判別してくれないと無理じゃね? ウマ郭淮ひっそりしてりゃいいのに
やたら騒ぐよな
正義マン精神拗らせたやつが多いのか
ただのケモミミキャラに噛み付いてるやつとかいるし >>614
プロンプトにloli入ってるだけで画像弾かれたから規制ギチチや お爺さんならどんなあられもない姿をしてても良いということです? adafacは別に嫌ってるわけじゃないが
別にadamでええか…みたいな感じよな >>620
マジか・・海外厳し過ぎやろ・・・R18マークでも乳首もパンツもでとらん画像ばかりやし
むしろ日本が寛大すぎるんか
しかしスク水のタイプがぎょーさんあるのはええけど爺さんとにらめっこしなアカンのは地獄やな >>627
でも玉付き巨根futanariは許される世界 >>607
大好きなウマを守りたいじゃなくてえっちなウマを守りたいからってことかなんかワロス
規約とか調べてきたけどとりま健全は無問題だし、同人も一般的な暗黙の了解が許されるぐらいっぽい?
ウマLoRAなんかきれいにでるから最近気に入ってるわ。Civitaiでトレーニング詳細書いてくれてるから参考にもなる
https://i.imgur.com/mnEv58z.png 女キャラは割とサクサク衣装変更効いてたのに男キャラLoRA作って試してみたらめっちゃ頑強に提供されて笑う ワイ氏、絵の作成そっちのけでBingにエッチな小説を書かせようと奮闘する
いや、ふたなり絵を作ってそれに合わせるつもりなんでスレ違いではないと思ってる
ここまでは書かせた
https://i.imgur.com/tU16b34.jpg
続きも書かせたがヤバくなったので逃げられた
書き続けられる内容に抑えることを条件に、途中まで書いたものは表示させたままにってのも付け加えたけどやっぱり駄目だった
でもワイの目は見た
自分は両性具有者であり、どちらも付いてるからどちらでも楽しませることができるという表現を
相手は初めてであるがとてもその気であったことを
そして、まずはキスから・・・と、その文字が見えた瞬間にリセットされた
プリントスクリーンは間に合わなかったよ・・・くそぅケニア人め >>582
コマンドプロンプトに出てるエラーを貼るんだ さっさとエロも自由にトレーニングできてVRAM24GB RAM128GBとかで
1時間あたり10KBとか生成できる言語モデルこねえかな
24時間まわしたら小説1冊できているんや >>561
ワイ女児パンの作者なんやが、層別の数値教えてクレメンスか?改良したい。 このスレってクレメンスの使い方が崩れること多くない? プロンプト書いてたらエロの単語覚えるようになったわ
アニメで日本語覚える外国人になった気分や >>636
なんjから流れてきたんやなくてAIイラストに興味あってこのスレにいるだけやからとちゃうの? >>639
ムリに使わなくてええのにな
リアルで「よろしくニキー!!!!wwwwwwww」を見ている気分や 猛虎弁とかリアルで聞いたこともないから雰囲気で口調合わせてるだけや ○○定期を押し付けに捉えるやつもいるし半分はなんJ民ちゃうで ウィルトゥースまで基礎教養にしなくていいから(良心) 赤ちゃん以下でlora導入手こずってる
wikiの情報と違いすぎて進化速すぎ
諦めて芋ジャージ眼鏡委員長作ったらお気に入りたくさんできたわ 伝九と信さんをLatent Coupleで生成しろ >>520
亀ですまんがtextencoderって追加で男に関する文字を打てばいいってことなんか?
いつもこの辺デフォでやってたんやが >>648
タグの欄にNPが表示されるまでReloadや >>646
LoRA導入は、としあきwikiのが簡単や
LoRAの導入手順のとこに書いてるとおりにしたら10分くらいでいけるやろ
難しいbatファイルの書き方もメモ帳にコピペするだけになってて誰でも簡単に導入できるで 以下のエラーが定期的に出るんやが、どういう条件で発生するんやろか
バッチカウント多めにすると途中までは問題なく生成されるんやが、数枚目でこのエラーが出て中断される
Denoise0.6CFG4アプスケ2とかいう構図が破綻しやすい設定で生成してるから?
NansException を発生させる(メッセージ)
modules.devices.NansException: すべて NaN のテンソルが VAE で作成されました。 これは、画像を表現するのに十分な精度がないことが原因である可能性があります。 --no-half-vae コマンドライン引数を追加して、これを修正してみてください。 --disable-nan-check コマンドライン引数を使用して、このチェックを無効にします としあきのLoRA学習起動バッチは更新遅いし不備あるから微妙やなあ
直打ちしてたけど原神ニキがGUI作ってくれたからそっち使ってるわ GUIも常に更新し続けてくれるとは限らんよ
慣れてきたら自分で書くのが一番やで >>652
—no-half-vae付けろって言われてるぞ >>646
令和最新版アチアチLora導入方法や
SD-scriptをインストールしたい場所でSHIFT+右クリックでPowershellウィンドウをここで開く→https://github.com/kohya-ss/sd-scripts/blob/main/README-ja.mdへ飛んでスクショ部分をコピー&ペースト→accelerate configの質問に答える部分もURL先に書いてある→インストールが終わったらhttps://github.com/RedRayz/Kohya_lora_param_gui/releasesをダウンロードして解凍してSD-scriptフォルダに入れる→中のexe起動して学習に使うモデルや画像フォルダを指定する
https://i.imgur.com/xRlKP3c.jpg >>645
あれとセスタスでローマを学べ…鬼龍の様に…
そういや鬼龍lora出てたね 素材の選別って重要なんやな一気にコレじゃ無いのが出来てしまった 多分Lora出来なくて詰まってる人って学習画像指定する所とか間違えてるだけだと思うのよね
手打ちしなくてもKohya_lora_param_gui使えばポチポチクリックすれば良いから簡単だぞ フォルダ指定の階層間違いとか多そう画像が入ってるフォルダじゃなくてその一つ上 ワイはプログラミングとか全く齧ってないから直打ちはハードルたけぇ
元からエンジニアのやつは楽しそうで羨ましいわ そういえば、こんな感じの前髪ボリューミーな髪型だと必然的にエアインテークできないで。この髪型なんていうのかは知らんけど。
https://i.imgur.com/nYE3VEs.png
https://i.imgur.com/8uLu2Bg.png >>663
直打ちと言ってもbatファイルメモ帳で編集してダブルクリックで起動するからポップアップ入力より楽だぞ 人が書いたのメモ帳に貼り付けて編集したら問題ないしな あのオプション毎回全部手入力する人は流石にそうはおらんやろ 正直に言うとワイロリコンなんやけど3次ロリがアウトで何もできなくなった😭
2次ロリ系の絵柄のlora教えてくれんか?
tkmcは試した
他が見つからんのや
外人も避けてんのかな ラフスケッチ設定画、やたらと青の彩色多いと思ってたけど、ひょっとしてblueprintのせいか!? 「3Dの人形をポーズとらせるとかできるで! あとプログラミングできるで!
英語含めてネットで情報検索して集めるの得意やで!」
というオタ創作では最も煮え切らなかった層が爆発できるのがAI画像生成やね 3次LoRA0.6くらいでNAIに適用したらええんとちゃう
二次絵になるやろ 直打ちは書いてあるとおりにやって動けば素人でも何も難しくないんだけどそこでエラー吐くと対処できなくてもう完全にお手上げよ 絵柄なんて好みなのに何を教えればいいんだ
どのモデルでもロリなんて出るだろ WEBUI で強調()って初期段階ではオフにされてるって前スレで見たけど、設定のどこでオンにするの?項目が見当たらなかった… >>672
試してみるけど2次にphotorearisticかけるとリアルになりすぎて表に出せない傾向あるんよな… 生首学習の背景を学習してしまう問題、背景をブロックノイズにしたら特徴消えて解決するじゃないかで試したわ
結果無事にloraちゃんノイズを学習する😭 >>676
情報調べて実行できるってだけで相当な上位なんは間違いないと思うで
それが英語のページとかならなおさら 4090が高すぎるからって4080買うのは女々か? >>676
「うおおおおVRoidで作った静止画像を使ってUnityでエロゲつくるで!」
「そう……」 >>677
多重カッコでの強調がオフになってるだけで数値指定はOKだぞ
Use old emphasis以下略ってところチェックすればいいんだけど、多重カッコオンにすると75制限も入るらしいから数値指定にしとき >>682
4080使ってるけどバッチサイズ4で学習できるしコスパは最強だと思ってる >>686
3060でバッジ数5~6いけるぞ?
6いけるって話だけど俺の環境だと5だな >>682
ええで
生成速度においては70Tiでも3090並やからええで >>675
一応ローカルではやってるんやが気軽に表に出せるような絵作りしたいなって
アビスとかリアルマージしてる系でロリ作ると見た目危ない気がする 版権キャラのコイカツのスタジオで遊びつつ
modやblenderいじって
「でもちょっと似てないしいまいちなんだよなあ」
って層がすごく喜んでるのは分かるわワイやけど ウマはスレの貼り付けにお気持ち表明するガイジとwikiのローカルルールにまで文句つけるレスバガイジのバトルだったから無効試合や >>691
斑鳩一面みたいな言い方やんか
選別は抜く意志を持つ者の意地に他ならない 学習画像を収集するだけなら簡単
それにタグつけたり、背景塗ったり要らない部分トリミングしたりが凄まじい手間かかる
画像を加工する必要ないとはいうけど実際は背景学習してるよなぁ
白く塗ると人物だけ的確に反映されるけど背景そのままだとかなり似た背景画像ばかりになる >>553
>>558
結論から言うと、無事epoch回り始めた。ありがとう。Loraは初めてなんだけど、kerasみたいなepoch走ってるから、もう大丈夫だと思う
原因なんだけど、なんらかの理由でtorch,torchvision,xformersのバージョンがgitの手順と違っていた。完全に新しいフォルダ作っていたし、gitのコピペやったはずなのに、、、
なので、pip uninstallで上記の3つのライブラリをアンインストールして、再度gitのコピペでライブラリをインストールし直すとなおった
ちなみに、RTX4090でサンプルのカエルのTrainやってるんだけど、1epochの1分くらいかかるんだけど、そんなもんなのかな?(1.6 it/s)
遅かったりする? >>695
絵ではないけどアノテーション作業は高齢者格安で雇ってやらせてる企業あるみたいやけど
数年前にニュースでやってたわ >>685
サンガツ!
>>671
ワイの悪口はやめろよ >>693
そいつらの片割れのことならスレにウマシコ貼り出したし
civitaiにもウマシコ載せたりでやりたい放題始めたで
見えとらんのか読んどらんのかは知らんけど >>700
レッテル貼りレスバ大好きの模範的G民だから関わるだけ無駄や
構われるのが大好きなんやろ >>686,689
サンガツ
4070tiもええんか考えてみるわ >>694
時間なさすぎて新技術とか学習とか出来ないから飯風呂の間に生成したやつをhiresかけるのが唯一の癒やしだわ いやよく見たらツリーでAI製って言ってたわ
すまん 初期のNAIモデルで綺麗な風景作ってた人おったやろ
現行のモデルは女ばっかり学習してるけど、その辺の性能はどう変わってるんやろと思って試してたんだが
風景描けと言っても必ず女が出てきて苦労しとるわ
ネガに1girlとか強く入れても足が擬態した装飾になったり
コントロールネット使うしか無いんかな 同時使用した2つのlora間の色移りを体験しました
loraで学習させた服装の色指定が、違うloraモデルで学習させたヘッドバンドに移っています
ヘッドバンド要素だけをファインチューンで除外して実験しています
結果が出たら報告しようと思います ヒョンテは最近AI絵擦り倒しとるからな
全世界でこいつだけやろ
ここまで擦っとるやつ 同時併用したら共通する部分は汚染されるで
正則化画像いれてへんのやったらそらgirlとかどろっどろやろ 背景なら背景専用のcheckpointが転がってそうなもんやけど >>679
世界樹ニキの絵柄再現っていまやとどうしたらええんやろ
過去ログ遡ってオデッセイV2探したけどもう消えてたわ >>655
言葉足らずですまんやがもちろんno half付けてやってみたこともあるで。改善せんかったが。
逆にニキらはこのエラー出たことないんか?ワイcolabでもローカルでも定期的に出るんやけど そろそろloconやるかと思って学習させ始めてみたら
ついに学習速度がit/sからs/itになってしまった >>716
上のはバレンタインぐらいに新しく作ったやつやな
説明書と置き場
ttps://mega.nz/file/WYZ1FY7b#0rozWCWU_i1oS2Ugs9KSQSVfJlFl9Dd-43lxKibqWBM
ttps://huggingface.co/okiba/NJ118/tree/main
あとwikiのスレ民共有モデルにodysseyの紹介があるけど公開は不定期やし初期の古いのやから消しといてほしい >>718
たしか見たような気がする
ワイはバッチカウント50くらいまでしかやらんけど以前、導入ミスってそのエラーが表示されて、イチからインストールし直したら問題なくなったわ >>718
ワイは層別のxy比較とかやりだしたら辺りで支障あるレベルで頻発するようになったんで
no half vae入れたんやがそれ以降は出てないで 改善しないとかあるんか… i7-13700、rtx3060、メモリ16*2で考えてたけどもしかしてbto見る感じグラボだけ劣っていびつですか? >>720
ほんまに感謝やで・・・
なんとか自力で置き場までは辿り着いたんやけど説明書まではいけんかったのでお手数お掛けしました
この絵柄大好きなんで重宝させてもらいます。ありがとう 階層Loraでblock weightで聞きたいんだけど、
プロンプト書くときに
<Ringo:1>ってLoraなら
<Ringo:1:F=enable_OUT03-04-05:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0>
って識別子も階層毎の割当も全部書かないといけないんだよねx >>725
そこに全部書くんじゃなくて下のblock weightの所のpresetsに書いて反映してから
<Ringo:1:プリセット名>
やで >>708
最初っから人が出ないのが確定してるジャンルは変わらずやな
AOC3で古地図
https://majinai.art/i/R26KtHr.png >>725
階層LoraのOpen Textに書くのは「略称:0,0,0,0,0,1~~」だけやで
たとえばwikiにあるやつやと、絵柄無視のポージング再現が「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」
これをRingoのLoraに強度1でやりたいんなら
階層Loraのtextに「CT:0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0」と書いて、
プロンプトには<Ringo:1:CT>でええんや 初めてローラの学習やってみたんやが、11枚の画像を20エポックで動かしたら2時間くらいかかったんやけどこれって普通なんか?
グラボは3060の12gb使っとる >>723
ワイの現環境それのグラボ1660Sだからワイよりマシ 学習素材が入ってるフォルダに書く数字が間違ってるね
学習枚数11×エポック20×フォルダに書く繰り返し回数?=ステップ数4000~6000にしないといけない 長乳lora試してみたら一発目で某月曜日のみたいな真っ青画像出てきてワロタ キャラloraできたから試運転してるけど魔法少女のはずなのにやたらメカメカしいイラストができあがる
学習の仕方が悪かったのかなんか似通った別のキャラの要素を拾っちゃってんのか
でもまあこれはこれでええか… >>627
ロリもしくはロリに見えるのがあかんだけや
大人もしくは大人に見えるならちんまん乳首ケツ穴なんでもありや >>734
くり返し数が20で合計10000ステップ学習してたわ
その割にクオリティ低いし学習って難しいんやな
この中で削るとしたらくり返し数なんか? 一見ゲイ用かと思ったらカモフラージュやったりして中々奥が深いで >>703
ええやん!
塗りとかタレ目とかloraなしで出せるの?
プロンプト教えてクレメンス >>738
エポックでも繰り返しでもどちらでも良かった気がするけど繰り返しが多いと良くないってどこかで見た気がするな
質が低いのは11枚は流石に少ないし元の画像の質がかなり良くないと難しいと思う
あと10000は絶対過学習してるね うーんLORAも学習に使ったモデルと、実際に適用するモデルよって全然精度違うなぁ
データセット共有するのがもっと一般的になって欲しいんやが難しいか >>742
11枚で丁度いいくらいだと思ってたけど少なかったんやな
次は画像増やして、くり返し数減らしてトライしてみます サンガツ! ツリ目・タレ目は別のところのwikiにptがあるで
使うにはHNが必要や >>706
ヒョンテ自身の絵やヒョンテに影響を受けたであろう絵を多数取り込んどるのが今のAIだし
始祖の一人が自分の子孫を使っているだけとも言える >>745
1epochごとにファイル保存してるか? やっぱ学習素材にはあらゆる表情が必要よな
素材にない表情や口の形をさせようとすると別人になる
ハンコ絵で満足って人はあんまりそういうの気にしないんやろけど >>748
すまん、赤ちゃんすぎて理解できんわ
エポックファイルなんかあったっけ? simplebackground
学習用画像の繰り返し回数×学習用画像の枚数≧正則化画像の繰り返し回数×正則化画像の枚数にする必要があるから指定してただけで正則化使わないないなら1でいい >>750
Save every N epochs(Nエポックごとに保存) って設定で1以上の数字入れとったら、
20エポックの途中で切り出して保存してくれるんや
とってあるならやり直さんとその途中経過版で打率みりゃええ >>750
学習1回ごとにファイル保存して
それぞれ順番に書き出してどれが一番いいかを探るんや
こんな感じに
https://i.imgur.com/Tpw2pSz.png
オプションはこれ
self.save_every_n_epochs: Union[int, None] = 1 久しぶりに渋のランキング見たらこんなもんかと思ってしまったわ
ここ見すぎて目が肥えてきとる >>755>>754
学習途中で作成してたローラファイルのことか! 6回に1回のペースで保存してたみたいやけど頻度増やしてみるわ
lastっていうローラファイルが一番出来がいいわけじゃないんやな 新参赤ちゃんです
エロゲ制作のイラストを使いたいと思って今日からAI絵師始める予定なんですが
グラボって2060SUPERでも足りるでしょうか? >>504
大変良い性癖をお持ちで
ワイも絶対に脱がないコンテンツ脱がすの好きやから分かるわ >>694
言われてみればまんまやんクソワロタ
よー気づくわ >>758
買うの迷うとかならともかく既に機材持ってるんだから自分で試してみたらええやん! >>587
そもそもLoRAにトリガーがある、もしくはあるべき、って考え方が根本的に間違ってるから変な慣習広めようとするのやめてクレメンス >>756
ランキングは先行者が囲いの多さで独占しているだけで技術的には何も進歩してないから見る意味無いよ >>631
会話始める前にF12開いておいてdevtoolから「ネットワーク」を選んで、websocketの項目にあるchatって通信欄でやり取りのデータのjsonが見られるから
そこ使えば打ち切られる直前までの文字はサルベージできるで >>763
複数の要素を学習したloraはトリガーないと使いづらいやろ、別に間違ってないと思うんだが >>758
vram少ないっぽいな
12GBから人権って言われてるで >>756
これでもまだ進化したほうやけどな
ちょっと前までNAIポン出しアプスケ絵が山ほどあったわ
今は流石にどいつもこいつもローカルに移ってるけど >>762
とあるAI絵師のブログ見たら
2000番台以前だと生成結果が3000番台以降のグラボと一致しないらしいんでグラボ買い替えた時勉強しこれまで学んだこと呪文研究成果がパーになるのが怖いので新しいグラボ買うかそのまま2060使うか迷ってます >>769
やっぱりそうですよね…
新しいグラボに慎重した方がいいですよね トリガーって皆言ってるけど上手くいったこと無いけどワイだけか?
アレひとつプロンプトに入力すれば学習内容全部反映してくれる魔法の単語って訳じゃないよな?
結局セックスの体位Loraならvaginalとかpenisとかmissionaryとか入力する必要があるって認識しとるけど キャラLoRA, LoCon作るときに服装差分がいくつかあるときって
フォルダ分けしたほうがいい?同じフォルダで大丈夫かな? >>772
別に2060でも全然可能は可能やから上でも言われとるけど
まずやってみてそっから買い換えがええで paperspaceストレージが少ないからモデルやloraの出し入れが面倒だなあ >>771
確かにハードで一致しない事はあるけど誤差みたいな物で気にすることではないぞ
どちらかが正しくて間違ってるわけではないんだし トリガーの効果は学習する時タグシャッフルonにしてるかどうかで変わるで >>771
1080から3060に変えたけど結果変わった気はせんで…
少なくとも研究成果がパーになることはないと思うで >>774
ワイは分けとるな
脱がせたりコスプレさせたりする時にちょっとでも打率上がって欲しい >>771
まずそもそも一致させたいのか考える所からや
今更NAIモデル使ってNAI公式を完全再現したいって訳でもないだろうし、最近はLoraやらhiresやらInpaintやら当たり前になってて「このモデルにこのseedを入れればこの絵が出る」みたいなやり取り自体既に下火や 3060とかにした後で「英語こわいモデルダウンロードこわい なんかわかんない! やめた!」ってなるよりは
まず絵が出せた、ってとこまでいってから買えばええやん ワイは最近identifierと生成時に使用するトリガーワードはわけとるよ 現状それで困ったことはない みなさんの話を聞いてるとそこまで変わらなさそうなので
とりあえず2060でやってみます!
みなさんアドバイスありがとうございます! みんな言ってるけどできる環境あるならまずやってみるやな
環境なんてAIはどんどん変わってくから何度も入れ直すぐらいの気持ちでいた方がええぞ >>773
プロンプト付け足していったらLoRAなしでもその体位になる場合あるからLoRAの意味ねーなって思うことはある プロンプトで出したい画像にどこまで近づけるかはあらゆる学習の基礎中の基礎やで 1030で3ヶ月遊んだ俺みたいなのもいるんだ、とりあえず遊んで見ればいいさ 今はSD1.xが主流だけど、なんかスゲェ進歩があってSD2.xが主流になったら全部変わるしな
過去は捨てて行け civitaiみたいにサンプルあるとこならともかく
4chのまとめとかでLoraだけやと正直タグわからんのよな…
いやcivitaiでも結局トリガータグ以外も色々タグいるんかいってのは割とあるが >>727,729
そうなんか!サンガツ!
あともう一個聞きたいんだけど、wikiに書いてあった
例↓)
F:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0
F=enable_OUT03-04-05:0,0,0,0,0,0,0,0,1,1,1,0,0,0,0,0,0
の書き方、なんで上のF:と下のF=で同じ事を違う書き方で2回書いてるの?
Block Weightのreadmeにも書いてなかったのでなんでかなと思って >>792
Wikiの一覧のすぐ上に書いてあるやろ 何を殺したかの設定値確認用や >>594
揺らぎがほしいよな
某人形から類推して色んなポーズ出すモードも欲しい >>773
例えば複数キャラLoRAでdeepdanbooruのcaptionでやってるとして
概ね30くらいあるトークンの内たった1トークンや2トークンだと、弱いし混ざるしで「トリガー」なんて言えるものとして成立してるかっていうと疑問符や
みんな陽炎型の制服着てて髪型とリボン以外は概ね似てますとかなんとかなってる感あるけど
まったく似てない別キャラ複数LoRAとかやと
キャラAは「tivo tups teuk vips vind tzky usaf ubio tvxq vasc tedx vape tgif thms thfc vels trak tify tubs tuan usrc thub ufos vila usmc told tmrw ulty visa uoft unlv umni turf tsal vday tlap vedi veit uscg tyga thnx utsa vaus usda tidy undp」でキャラBは「woke wego wicz xham wags wamy vitz weho wray wsoc whom woes xley vsco xmen wcpo ylde weds vmas ymca whos wsop wigs wore ynwa webs vols voip whey yemi ymes wftv wark yelp worx wral wafc wold wcvb vote wits wknd vlog wnba woah wary」
くらいまでやらんと「トリガー」として成立してるとは言えん気がする >>752
ワイもdepth借りてやってみたけど難しいな、そもそも頭が横向いてる構図ってAI絵で見た記憶がないけど出せるんかね 環境ダメになったからあたらしく入れ直してるんやが
web上のセッティングって新しき環境に行く時に何かファイル動かせば大丈夫とかないんかな
生成中に画像ださないとか画像の保存先変えたりとか再設定もう分かんなくなってもうて 強度や学習方法にもよるだろうけど、loraっていくつまでなら崩壊しない程度に使えるんだろう
自分の中ではうまくいって3個まで、平均2つまでならなんとかって感じだけどニキらは4も5も使ってるん? >>796
横とか逆さはキツそうやな
誰か言ってたけど元画像回転させて顔垂直にしてinpaintで顔だけ修正するならいけるかも >>793
ああ!「設定値確認用&プロンプト共有用」ってそういう意味か!
ずっと何のことかと悩んでた!
貴殿天才ですなサンガツ! >>768
トリガー無くても使えるなら無い方がいいし、そういう複数キャラの時とかは仕方ないにしても、ほとんどの場合は無くても使える方が便利なんやから、特殊例の方を一般例のような物言いするのはやめようって話や
でないと必要もないのにトリガー無きゃ使えないような学習のやり方する人をいたずらに増やすだけや
(実際画風LoRAなのにトリガーワード必要ですよみたいなのもう世の中溢れまくってる) >>800
ワイもこれずっと愛用してるで
これ使うと容易くロリに爆乳生やせる >>791
製法によるのかもしれんけどテキストで開けばヘッダ部に書いてあるよ >>776
低dimでやれるLoconは割と助かってるわ
128dimで1epoch毎保存とかしてたら即死や >>798
自分の場合は4も5も使いたいような時ってinpaintやらも交えて入れ替えたりするから
同時に使うのはやっぱり2くらいまでかなあ >>798
ものによるというのがまさにその通りやと思うよ
画風LoRAで揃えつつ別キャラLoRAで5人並びとかやりたいんやがガビらんよう調整するのしんどい >>766
bingに「firestickでYouTubeの広告をカットする方法」を聞いて途中で消されたワイに朗報や >>798
層別を使えば結構破綻せずにいけるで
出したい要素がギリギリ出せるまで各loraの層を削るのがポイントや
あとはウェイトの微調整 >>758
ワイ2060Sでやっとる(VRAM6GB)で
できんことはないけど起動時に「--medvram」使ってようやくってところやな
画像生成サイズは1.5~2倍のfixして576x1008あたりが精々っちゅうところ(720x1280やとメモリオーバーで落ちる)
あと負荷かける関係で、発熱もえげつないから
MSIアフターバーナーとかのグラボ管理ソフトでパワー上限を90%くらいに絞ったほうがええ
MAX運用すると冬場でもグラボ温度が80~95℃いって一気にオシャカになるで >>805
確かにタグ以外にも生成時の情報が出力されてるんやな。初歩的な事知らんかったわサンガツ >>802
別にトリガー作れとは言ってないんやが、もしあるならメタデータとして書いてくれると助かるって言いたいだけやで >>807,809,810
レスサンガツ
やっぱ調整必須か
層別はよくわからないんだよな。LoRA Block Weightで構図(体のつくり?)は欲しいけど塗りは持ってきてほしくないときにIND、逆に塗りを持ってきてほしい時はMIDDで指定してたけど、上手くいったためしがないわ
パラメータ多すぎて複雑かつ面倒だが避けて通れない道か >>803
いやいや、この絵柄再現できるだけで嬉しいんや。昨年からお疲れ様やで
wikiから「tkmc-style4」のLoraいただいて愛用させてもらっとるんやけど、HNのオデッセイのほうは不定期公開っちゅうことでええんかな >>796
横顔ってことなら何度も出してるけどな
まあ今は仕事中やから貼れへんが >>812
additional networksタブから開くと見やすいで
人によってはここに説明文書いとるしな >>797
webuiのフォルダにある なんちゃら.json は全部設定ファイルなので移せば元の設定値が引き継がれるけど、古い設定値が悪さしてる場合もあるので気をつけよう >>815
tkmc-style4は別の作者やな
作ったモデルやHNは置き場にほぼあるから説明書読んでみてくれ(.ptのがHN)
置き場は公開し続けてるけどそれ解読用の説明書が不定期公開=作ったものはほぼ全て不定期公開になっとるな
不定期公開なのはまぁ・・・学習元がバリバリ現役の人のもんやし察してくれ >>818
サンガツ
1回入れてみてダメならやり直してみるやで プロンプトにif入れたい時って無い?
ポジ {a | b | c} で、aかbが選択されたらネガにxを入れたいみたいな >>820
承知したで。人違いも含めて長々とスマンかった
ありがとう。大事に使わせてもらいます LoRAふつうにエディタで開けるんだな
network_dim":"16"とか" long sleeves\": 27, \" frills\": 15,とか書いてあっておもしろいんだけど、
記載されてるLoRAと記載されてないLoRAの違いはなんだろうか?自分の作ったLoRAは書いてなかったわ >>812
ワイも気になってたから調べたけど
花札メインでもkohyaのAdditional Networks拡張を入れる
Setting→Additional Networksの一番上のExtra pathsに普段使ってるLoraのパスを追加してApply
Additional Networksタブからモデル選択すると右下のTraining infoに学習に使った情報出るからタグとか分かる >>824
kohyaさんがアプデする前に作ったかどうか
消す方法もあるのかもしれんけど 皆さんのお陰でxformersも無事上手く行ってカエルのLoraまではできました
ようやく自分のカスタムLora作る予定なんだけど(風船ではない)、一番難しそうなのがデータセットの作成みたいだ
だから、まずは一番簡単そうな「顔だけ似せる」をやろうと思ってるんだけど、とりあえず以下の感じでデータセットを準備したらええんかな。
・色んな角度の首から上の顔だけ
・PNG形式で背景は切り取って透過
・縦横はそれほど意識しないでよい、512以上にはするつもり
・タグは次のレベルでやる予定。タグはしない(タグ用のtxtは作らない)
こんな感じっすかね >>822
任せたわ
スク水LoRAの副産物で下半身ムチムチのロリしか出なかったのが下限開放された感じになったんやが
こんなにモデルの限界広げるんやな >>827
顔だけってのも考え方にちょっと注意が必要で、実際は前髪やもみあげの毛先までって考えた方がいいと思う
https://i.imgur.com/d3WVsDn.png
https://i.imgur.com/9p1sYqr.jpg
あんまりアップにしすぎると「もみあげの先端だけちょっと結んでる」みたいな特徴出なくなるから
まあ、それでもmiddle hairくらいの娘が勝手にvery long hairにされちゃうみたいなのはあるんだけど 人のloraの設定色々見返してみるとfigma loraの人やべえな
画像5746枚を1ケタ枚数ずつ「何々フィギュア」ってフォルダ分けして学習しとる
pngファイルに埋められたpromptもすごいわ
几帳面なんやな >>827
透過しても背景過学習問題は解決しない
白のほうが問題起きにくいよ 田所あずさのドラム式探査機(Single)のジャケットを見ながら「過去にリリースされたこんな風によくわからない姿勢で写ってるジャケットとかも学習してるんだろなあ」なんて思う 「公式絵で人体ポージングの学習ミスってる可能性がある」って、なかなかの罠で草
まぁ意味「公式=正解」っていう観点だと「良くわからないポーズだろうが公式が正しい」というわけだが…‥ >>741
独自マージと自作Lora使ってるからプロンプトはloli, black hair, short hair, full body,だけやで
>>743
ゆるゆりは学習素材使ってないんやけど確かに目の感じがそれっぽいな >>832
上にも書いたがadditional networksというextensionをいれたらタブが作成されるからそこからLORAを開くんや
ここに説明文やトリガーを書いてる人もいるし学習時の設定も見れる >>720で説明書にTIを付けて配布したんやけど
このTIの副作用として男性が極端に出しにくくなるという効果があるから男性を描写させたい場合TIは切ってくれ
すまんな >>829
うお、ありがとう
>>831
まじか、wikiのABG_EXTENSIONってやつでひとつひとつ保存してみるわ >>835
サンガツ
独自loraなんやね
ワイもこういうの作りたいわ >>798
0.1とか含めたら常時5つくらいかけてる 機械に仕事を奪わせないようにするには機械を全人類で共有するしかない、が可能なら実践する奴が出てくるのは必然 これこそがAIの自己保存やないか
それはそれとしてlora素材の背景にランダムノイズとかは誰か試したんか?
ワイはプロンプトで遊んでるレベルの赤ちゃんやけどな >>845
>>680ニキが無事に成功してるで!!! >>822
dynamic promptのninjaだかjinjaだかがそんな機能だったと思う
使ったことないから詳細は調べてくれ
そしてワイにも後で共有してクレメンス T2I-AdapterのStyle Adapterがいつの間にか公開されてた
これまでのモデルと同じくsd-webui-controlnetで使えるで
プリプロセッサはclip_visionや
https://huggingface.co/TencentARC/T2I-Adapter
https://pbs.twimg.com/media/FqeOZ1hWcAECHLJ.jpg >>849
用途としてはcannyと近い感じなのかな
なんかcannyを白黒反転した奴をプリプロセッサ無しで入れても動きそうやな これ下手したら画風loraやんけ
そんな上手くはいかんか 当たり前だけど作品とか対象の人が過去のものだと元になる画像が探しづらいな
何年か前だったらもっと簡単に沢山出てきたのにって感じることが多々ある 512x768で生成すると同時にHires.fix 2.5かけると歌舞伎みたいなフェイスペインティング入るんだけど、どうやったら回避できるかな?
ネガティブにPaintings, tattoo入れても効果ない
途中まで上手く行ってて、お?って喜んだら残り半分以降でAIが顔に落書きする嫌がらせやめろよ… あんまり分かってないんやけど、GoogleColabって外部からの接続がポリシー違反らしいんやが、なんでwebuiは接続できるんや?gradioっていうのとngrokの違いはなんなんやろか? >>836
ありがとう、そんな素晴らしい物が!
上手い人のlora見よっと >>857
シンプルに読むと外部から接続がイコール違反ではないと思う
ホスティングやメディア配信のサーバーとして提供するの禁止、要はColab的でない使い方禁止
(じゃあcolabで▶押してから延々🌀出せたままlaunch.py起動しっぱなしにして別タブのwuiの画面ばかり見てる使い方、しかも時折空wgetとかして自動シャットダウン防ぐ、って使い方がcolab的な使い方なのかって言えばアウト寄りだとは思うけど)
リモートデスクトップやsshはクライアントになるのもサーバーになるのも禁止
ってだけで単純な外部からの接続は禁じてない感じ
https://i.imgur.com/ojDBD59.png
規約的に明らかに禁止なのに黙認なのかガバなのかまかり通ってるのはむしろpaperspaceやな >>859
早速の回答ありがとうやで
実は別件でcolab_sshをimportしようとしたら警告が出てビビってしまったんや
実行すると以後の使用を制限する場合があるで!みたいな警告なんやけど、普段使ってるwebui とどう違うのか気になったんよ paperspaceってなんか昔レクチャーみたいなの公式でやってなかったか?
黙認どころか公認やろあれ >>803
遅ればせながらサンガツ!
さっそく使わせてもらったがええ感じにマルーちゃんの画風寄るしCNでいつものポーズも取らせられるしでほっこりやわ
https://i.imgur.com/NwrRyvw.png
https://i.imgur.com/ZKpYAQk.png >>861
sshは許すとなんでも出来すぎてしまうんや
ポート転送使えるからcolabをシェルとして普通のLinuxレンタルサーバー的に使ったりGUI入れてデスクトップっぽく使ったりファイル共有したりやりたい放題だし、そうなると不正な使用の痕跡自体を隠すのも比較的容易になるから監視側の目が追い付かなくなってしまう
だからsshとリモートデスクトップだけはメクラ押しで禁止してるんやと思うで >>318
Locon対応したってあるけど層の数loraと同じやし効果イマイチな感じやわ、もっと細かく出来るなら化けそうやが 学習用の教材って反転画像も作った方が効果的とかある? paperspaceはそもそも表に書いてる規約のどこにもssh禁止ともngrok禁止とも外部からの接続禁止とも書いてないけどいざBANされてからサポートにメールで聞くとその辺全部禁止ですって後出しで言ってくるガバガバだから考えても無駄 すいません。NovelAIの有料化をして、色々試してるものですが、女が乳首を男に吸われてるイラストで良いプロンプトやアドバイスあったら教えて頂けないでしょうか?
{ a boy is sucking her nipple}や{sucked nipple}とか翻訳で吸うとか舐める単語入れて試していますが、中々上手く行かない感じです。
suckって入れると、フェラになりやすいので、ネガティブに「fellatio」とか入れたのですが、今度は謎の物体を女がしゃぶりだして、試行錯誤しております。
もし、先人の方がいたら、アドバイス頂けますと幸いです。 >>866
覚えさせたいキャラにもよるかな?
オッドアイだとか片方だけ髪飾りがあるとかワンサイドアップだと左右逆に覚えちゃうからあんま良くない
特徴的な部分が左右対称ならいいと思うで
そもそも教師画像がいっぱいあるなら不要やね >>869
特定のキャラ覚えさせるとかじゃなかったら有効なんかサンクス 胸しゃぶりは呪文だけだと出ないから自作でLORA作った方がええで >>866
学習オプションのflip augmentation使えば要らなくない?
わいは使ったことないけど反転画像学習やろこれ多分 >>870
>>873が正しいので自分で作る必要はないはずやで そういやcivitaiに授乳手コキじゃない乳吸いLoRAあったで
Sucking titsってやつや >>868
NAIを有料化してって言ってるからにはNAIでどうにかする方法を答えてあげたいところではあるけど
みんなそれが無理だと感じたからローカルやら学習やらに手出ししとるのが実情やな あれバッチサイズで変わるってのはわかったけど総ステップ数とかを書いてくれてる奴は
バッチ1で計算したときに出る数?
っていう認識でオーケー? >>877
書いてる人そこまで考えてないと思うよ
バッチ数も書いててくれると助かるんだけどstep数だけ書かれても活用出来ない情報やね 作例見た感じじゃ二次元貧乳でも使えるか分からんな試してみるか… 顔のクオリティが少し低いけど2日かけてローラ学習に成功したわ
ワイみたいなアホでも学ぶことに楽しさを感じる事ってあるんやな
この調子でプログラミングとか覚えていけばやれることがどんどん増えていってニート卒業できるんとちゃうか?? 分かってそうな人はバッチ1換算で書いてくれる
と信じてる
でも本当に分かってる人は「バッチ1換算で」って明記してくれる >>881
それ活かして版権ファンボ始めれば稼げるやろ マルゼン式を参考にシコシコキャプション編集してたけどもしかして層別LoRAあったらそこまでこだわる必要なかったりする…? >>884
本格的に規制始まる前にやってみるのもありかもしれんな >>868です。いろいろご返信を頂き本当にありがとうございます。
自分のPCスペック(GTX1060 6GB)が正直微妙ですが、ローカルでやれそうか色々試してみます。 ワイ、AIのせいでこの半年に1080→3060→4070tiの軌跡を辿る
安物買いの銭失いでぐうの音も出ない 750W電源→850Wに買い換えてすぐ1000W欲しくなったワイもいるからセーフ 今んとこA2000で耐えてるけどそろそろ限界や
温度もやべーからPC脇に扇風機設置したら部屋が暖かくなった >>855
pixelizationで粗々なドット絵作ってパレット流用できるかも? 夏場はこう、PCから室外に直結する排気ダクト作ったらいいんじゃなかろうかw 単純に脳死で部屋を冷房でキンキンに冷やすという対策もある
電気代など窓から投げ捨てろ >>885
層別とキャプションは役割違うと思うからやる意味あるで
教師画像の絵柄、塗り、構図が偏ってて引っ張られてるときに使うのが層別や >>879
そう
なにをもとに総ステップ数なのかがわからんくて
バッチ数で変わるなら何バッチで回したときにこのステップだったって書いてくれたらならなんとなく計算できるんかなーと Lora作成を始めようと思うんだけど
最初に管理者実行したPowershellの実行ポリシーをunrestrictedにする時点で
何度Yキー押しても「いいえ」が選ばれたままになるんだけど、どうしたらいいのかな
そのせいか、その後の作業のvenv\scripts\activateコマンドとかも認識してもらえない よっぽどじゃなければエアコンで部屋全部冷やすほうが安く上がりそうなのは確か
>>583がバッチサイズ8で学習ぶん回しとるみたいだが、
バッチサイズ8ってどんだけVRAM積んだグラボなら回せるんや? >>887
そのスペックだとクラウドサービスでやったほうが快適かもしれん
マシンスペック相応に月額かかるけどいきなり買い替えるよりはお得やし
NAIに毎月課金するようなもんだと思って >>897
ほーんなるほど
ちゅーことは逆に絵柄だけを反映させたい場合とかにも層別がええ感じなんか >>873
これ見て気がついたけどguiには無いんやなこのオプションって 今室温が20度だとして、夏に冷房付けなければ40度になるとする
現状ファンの回転数が100%とすると、GPU他の温度の上昇も20度ってことでいいんだよな? 普通にloraは使えてるんだけど、もうちょっと踏みこもうと、
Aditional NetworksでUNetとTEncのX/Y Plot出そうとしたんだが、操作方法全くわからん。
そもそもmodel1とかmodel2の所がNoneのままで、refresh models押しても変わらない。
誰か教えてたも。。。 >>901
自分は
512ならバッチ16で回してるよ
768なら6ぐらいが限界
24GBのVRAM >>848
こんな機能あったんやな、ドキュメント読んで試したところ一般的な言語でできる制御構文は概ね使える
変数も利用可能だけどブロック内でしか有効にならんみたいだから、ポジでの選択結果をネガに反映させるのは多分無理
ネガ側からポジを参照することはできるけど、{ a | b | c } という記述そのものを引っ張ってきちゃって選択された結果を判定することはできない
それ以外だと weighted_choice による選択値の割合制御: { a | b | c } をそれぞれ50%, 30%, 20%で選択させるみたいなヤツは有用 >>504
サンガツ、日本昔ばなしlora自作だったんか!流石や
元が健全なぶんそそりまくりンゴねぇ
それに世界名作劇場とは目の付け所がええな。ほなワイも挑戦してみるわ
ちな世界名作劇場に質の良い絵が見つからんかったそうやが、Topaz Labs Gigapixel AI使えばAIが高画質化してくれるから有効かもしれんで(無料のが良ければWaifu2xやね) ワイはペット飼ってる関係で基本一年中空調入れっぱだから電気代は気にしてないわ
どうせ真冬は高けりゃ3万近く行くし AI絵が無かったらみんなソシャゲやパチンコや風俗で月に何万も使ってたからその金を回そうの精神 冬場は暖房要らずで過ごせてるが最近は気温が上がりだしてエアコン付けるか悩み中
部屋ではTシャツ1枚で過ごしてるが、そろそろ暑くなってきた >>907
24GBやとそんなに回せるんか
10GBじゃあ512でもバッチ1が限界やわ >>903
うーんやってみるとわかると思うんやけど
層別って絵柄や構図の「過学習で引っ張られてる部分の修正」は出来るんやけど
逆にそこを抜き出すのは結構ムズイ気がするわ
だから絵柄、構図の学習自体はLoRAでやるのがええと思う
どうしても学習素材的に偏ってしまってるときに使うのが層別や megaでダウンロードしとる人に聞きたい
無料プランやと5GBくらいで転送制限に引っ掛かって7GBのモデル落とせへんくて、
「制限解けるまであと〇m〇s待ってね」というポップアップが出るんや
そんでその時間が終わったのを確認して、ポップアップを閉じて再開しようとしたら
またカウントダウンで「あと〇m待ってね」と出るんやけど、これおま環なんかな >>914
10GBあるならもっと回せそうに見えるけど…? 複数の任意のキャラを生成するの難しいな
画像だけ放り込んで学習しただけのloraが2つあって
単体のキャラ再現はまあまあの出来なんやが
そのlora2つを同時に使用して2人召喚するとなると髪型とか色が混ざり合って更にガチャ要素増えて厳しいわ >>918
Composable LoRAは使っとる? >>914
追記なんだけど512のLoraでまわしてる?って話であってる?Dreamboothとかじゃなくて >>918
そういうのは別々に適用するextension使うらしいで VRAM10GBもあれば1024のバッチ1でLoRA学習できるで 今日からLora初めて色々世話になってるものやけど、無事首から上の学習ができたわ!まだまだあらいけど、適用はできた!
15枚程度でもそれなりに再現できるんだね!
ちなみに15枚*40 4epochで640stepsだけど、4090だと6分程度でできる
他の見てると2000stepsとかやってるから、15枚*80 4epochくらいでやったほうがええんやろか?
楽しいね! >>533
長乳loconLoraありがとやでー 念願の長乳搾乳ができてホクホクや
ControlNet+ DepthLibraryの導入試験もできて満足や
ControlNetはすごいな canny雑修正でもlatentアプスケガチャで打率高いわ
雑すぎてゴミひろってるけどまあええやろ 次はちゃんとやろう
https://i.imgur.com/J72fYnl.png
https://i.imgur.com/Ul8eqBl.png
https://i.imgur.com/QftHgVz.png >>918
Latent Coupleでググったら詳しく解説してるところあるで
ワイは全く上手く動かんから諦めてる トリガーワード使ってキャラの顔Aと衣装B覚えさせたいときの画像フォルダの繰り返し回数の割合ってどれぐらいが適正?
5:5の顔A10回&衣装B10回で十分? ステップで言え
10回でも画像が10000枚だったら過学習するのわかるだろ >>926
枚数、学習率、画像の質(バリエーション)によるから適正値なんて無いと思うで >>919,921,925
色々な手法あるんやね
とりあえず挙がったやつの使い方調べて試してみるでサンガツや >>917
paperspaceで失敗した時の記憶でできんと思ってたらローカルでバッチ増やしても普通に回ったわ
これで学習が進むわ、ありがとう 古今東西の食べ物写真3000枚をLORAしようとしたら7日学習時間必要になって草
ワイはこれを回しきるぞ・・・ あかん12GBあるのにGUIでやって1024だと必ず落とされるわ
768のバッチ2あるからできると思うんやけどな
>>927
>>928
画像の枚数は大体30
1e-4の64dimで4000~6000ステップさせる
質は良いほうと自負してる loconだとあるシリーズの全キャラ内包とかやってる人いるから
種類が多かったらloconの方が良さそう
自分は試したことないけど 魔乳とグロ乳首学ばせて回したら再現どころか破綻しておかしいなって思ってAOM2で回したら再現できたが、やっぱこれ系はgapeの血が濃くないと出ないか
エロ系は学ばせるときAOMモデルにした方がいいかな >888
それ革ジャンの思い描いた通りだね
まだ4080→4090お楽しみが残ってる~w >>924
サンガツ
>>577みたいな長風船に搾乳できたりせんか? ワイは今日実験で漫画1万枚のfinetuning試してみるわ
どうなるのか全く予想つかない https://imgur.com/1JM6OYF.jpg
二次系ばっかで気づかなかったけどなんかすごい油絵っぽいんですよね
Chillout使ってもこんな感じになる
何が原因か分かりますか? >>945
VAE変えた方がいいと思うよ
たぶんイラスト系と同じVAEそのまま使ってるでしょ >>946
そういうことか、ちょっと試してみます
ありがとう ミクさんにはいつもエグいLoRAやLoconの実験台になってもらってすまない
https://i.imgur.com/7TauIbg.jpg
https://i.imgur.com/S15X0f0.jpg
https://i.imgur.com/LFIFuUi.jpg
素材が結構はっちゃけてるのばっかだったけど素材整備したらワンちゃんいけそうなクオリティあるやん
最後のはgape60先輩ッス!俺先輩の本気が見れて感動ッス! >>948
特殊性癖で上手い絵ってめっちゃ少ないから厳選大変やろ >>948
めっちゃええな
gape60をマージするの層別してる?
中々gape要素だけマージするの上手く行かないから教えてほしい >>950
どっちがやりやすいとかがハッキリしたら呼んでくれ >>950
言うてkohyaニキだからあんまひどいことはせんと信じてる 新たな技術乱立し過ぎてて
どれにリソース割けばいいのか >>916
colab使ってGoogleDriveに転送するのがおすすめ >>953
ワイはモデルマージ全く分からんマンや
948はloconよ
それをテストがてらgape60にも適用してみたってだけや gui便利でポチポチしてたけど引数見とらんかったわ
結果が全然違う >>932
7日間じっくり煮込んだLoraの出来を楽しみにしとるで >>948
わかる。安定してデザインが出てそれなりに可愛くなるから本当に便利だよね、ごめんねミクさん ミクさんで実験し続けた結果ミクさん好きになったわ
調教されてたのはワイやった なんでみんなあまりblenderの機能には触れないんや blenderそこまで使わなくてもええからなあ
ワイはUnity派やし Blenderのアニメーションは難しい品
ようつべの初心者向け動画ではまったくカバーできん >>960
焼く、煮る、蒸しとかの調理方法にデザート、主食、スープみたいな料理名入れない分類にしてみたわ
そもそも3,000枚ってLORAでいいのかすら分からん 768で学習してみたが512と比べてそんな変わらん気がするが俺だけか?
長辺512で十分じゃね? ワイもblenderできんけどニキらやっとるやろと
思って見にきたのに誰も初めてなくてなんでやと思った
だけや civitAI重い?タグで検索してもクルクルで検索結果出てこないわ 今画像AIとblenderの可能性追えば先行者利益独占できるということですね
誰かやって?(他力本願寺) 自撮りでoneposeでblender要らんぞ、尚 NAIの生成画像だけで学習したら絵柄がNAIで固定されたしキャラloraも効かなかったわ 色んなモデルや画風lora使って地道に多様性のある学習データ作るか
https://i.imgur.com/JDL3Rlw.png
https://i.imgur.com/Qek40zX.png >>958
そうなんかー ワイも困ってるから誰か知ってる人いたら知りたいわ
全部のモデルにgape要素だけを足してガバガバにさせたいのに >>969
UnityにVery Animation入れるのが一番ええと思うわ
有料やけどな 版権キャラを非エロで出そうとしたら高確率で下着になって草
今まで脱がしてばっかりだったけど普段の服で出力するの結構難しいな >>976
そうなんか、512で学習させるわサンガツ
ところでワイも巨乳lora作ってるんだがうまくいかん
巨乳キャラ集めて閾値0.4のtaggerでタグ付けするときに先頭にgigantic breastsおいて1e-4の4000くらいでやってるんやが、コツあったら教えてほしい >>932
ワイいま回しとるの4500枚のLoraや……こんだけ多いとLoraじゃないほうがいいのか? こいついっつもおなじ乳出してんなって時あるからわからんでもない ただ丸いだけやない自分の好きなお乳の形ってもんがあるやろ
求道してけよ せやな
長乳は0.1、0.15、0.2で数回作り直して0.2のを配布してる
gigantic breastsはめっちゃ強いパワーを持ってるので先頭にするのは不適切やと思う、カスタムワードか弱いタグを使おう 長乳loraの生成学習ループしたらどこまで伸ばせるんやろ naiベースの乳は何もしないと似たかんじになるからな
まとまりすぎてるつうか下品さが足りんつうか
ワイも好きな作家さんの乳学習して他のキャラをその乳にしたりしとる >>989
カスタムワードのがいいのか、上にあったCiviのクソでか巨乳loraはhuge breastsとかだからそれでいいと思ってた
魔乳とともにグロ乳首を学ばせたいんやが、taggerでhuge breastsやlarge aleoreとかは残しといて、まとめて先頭にkzkみたいな適当なワード1置くだけでloraって学んでくれるん?
1000も近いのに何度も質問すまん このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 7時間 43分 45秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。