なんJNVA部★220
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
スレ立てのときは↑の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
避難所 なんJNVA部★防弾U
http://sannan.nl/test/read.cgi/liveuranus/1679606639/
※前スレ
なんJNVA部★219
https://fate.5ch.net/test/read.cgi/liveuranus/1685975035/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>844
こっち入れればええんか
ワイもマサカリデビューや Loraのファイルから学習パラメータを解析するツールってあった気がするんだけど、誰か心当たりある人いる? 焼きヤツメウナギLoraってポジに入れてマイナス適用するのと、ネガに入れるのどっちが正しい使い方なんや? はぁ・・・何やっても
No data found. Please verify arguments
(train_data_dir must be the parent of folders with images)
もう諦める >>912
どういうフォルダ構成にしてて、どういう指定をしてるのか書いた方がアドバイス貰いやすいんじゃね? いまSSD安いから512GBでも買って新規環境でやってみたらどうだ >>908
こんだけリアルなら何処なのか特定できたりして loratrain > reg > x_loraname
loratrain > train > x_abc_loraname
xは繰り返し回数 abcは適当な文字列 loranameは設定したいloraの名称
みたいな感じで作って reg と train を指定するだけやぞ
基本的に日本語は使うなよエラーの元になるだけやからな LORA関係のごたごたを聞いててしばらくギップルしてなかったんやが
もう大丈夫やろうか? ギップルしたら1.3.2だったんやが1.4.0RCは別なのか パスの指定がそもそも間違ってるんじゃないの
右クリックでパスをコピーして貼り付ける、この時ダブルクオーテーション "" ←これ がついてるなら消すんだぞ >>901
batch数増やせるのは結果にかなり影響するで
あとはまあVRamとは直接関係ないけどつよつよGPUなら単純に試行回数増やせる >>919
そこに書いてあるように、どのようなフォルダにしてファイルを置いてるか、指定の画面はどうなってるか、スクショ貼りなされ
書いて有るとおりにしてるつもりでもポカミスやってる場合が意外とあるから
>>921
RC版使うなら git checkout release_candidate でRCにブランチ切り替えてからギップルやで
元に戻す(リリース版に戻す)場合は git checkout master したらええ 出先からなんでざっくり説明でスマンがこないだDAdaptLionでのDim変えた差分も画像足しといたので再共有しとくやで
https://rentry.org/LoRA-1024-OptimizerCheck
まあDAdaptLionも魔法の道具やないから設定とかデータセットは追おうねってくらいなんかなー データセットとやりたい事の組み合わせだけで無限大だからな
正解はない windowsで良くあるのはパスの途中にユーザー名が入っててそれが全角文字になっててエラーになる
ユーザー名に全角使うべからず >>654
cute penisってLyCORISなん?
手持ち漁ったら同名のV2-000005あったけどLoraみたいやから別物かな バッチサイズって学習データをランダム抽出して束にして学習するってだけやろ?
アレ上げるほど良くなるみたいに言う奴おるけどそういうもんなんかね
早くはなるやろうけども 機材の話は荒れやすいから程々にするがM.2の2TBSSD買うたで
ヒートシンク付きで2万切るとか数年前には考えられん水準や、今のうちにローカル環境固めといたほうがええ
LoLAも出力物も無限に増えるわけやからな >>930
多分めんどくさいから全部リコリスフォルダにぶちこんでるだけだと思う >>932
価格コム見ると読み書き5000MB/sで2TB11000円とかあるけど大丈夫なんかな🤔
スペック通りならコスパすげーんやけど バッチサイズなんて並列処理の数増やしてるだけやと思ってたわ
ランダム抽出はまあ分かるけど「束にして処理」ってなんのことや? 爆乳でもバルーン型とロケット型と長乳型を描き分けることは可能なんやろか バッチ数を変えるだけでも結果は変わる
いい悪いはさておきVRAMが少ないと増やす選択肢が取れない 推しキャラにいろいろ好きな服を着せたい派なので
Loraづくりでは衣装はむしろ素材に引っ張られないようにしたい派やな M.2はまだやったことないけどSATAの内蔵HDDは取り付けの実作業時間なんて5分程度だったと記憶
そこに至るまでの「SATAケーブルがない」「電源ケーブルのタイプが違う」で右往左往して手間取りまくったけどw
M.2だともっと簡単らしいね
とはいってももう空きスロットはSATAしかないんだけど
今刺さってるSSDを外付けに回して、大容量のSSDと入れ替えるべきか、SATA-SSDにすべきか悩む >>937
ほえ~
じゃあ単純な並列処理数を増やしてるだけじゃないんやな 束ってのこの記事参考にしたんやけど間違っとるんか?
https://zenn.dev/nekoallergy/articles/ml-basic-epoch
バッチに抽出される画像はランダムだから複数回選ばれる画像もあれば
素材リストから選ばれなくなる画像すら存在するみたいな事書いてあるんやけど
結果はそりゃ当然変わるやろな、学習率下がって過学習気味なのが解消されたのを良くなったと認識してるんやないやろか >>936
乳はタイプごとにloraが結構あるし
もともとプロンプトでも差がちゃんと出やすい
ワイはこのおかげで長乳loconが効いてないのにしばらく気づかなかった 「モザイクを消す機械」って昔から定番のインチキ広告があったけど、
AIならモザイク部分を藻無しで描き直すってこともできるんよなぁ
ついにインチキがインチキでなくなる時代になったのか >>943
マジか
ワイごときが考えるような課題は先人ニキ達がとっくにクリアしてるんやな、ありがたいことやで ワイも最近M.2追加したけど取り付け作業けっこう大変よな
何であそこまでちっちゃいネジ使うんや・・・ >>924
何故かわからないけどうまくいきました。
お騒がせしました gradient accumulation stepsを知らない人がいるとはな gen1てなんや・・?
ちょっと来てない間におかしくな事なってるやんけ・・・ >>934
心配ならSSDはcrucialやsamsung辺りの自社生産してるとこ選べばええんちゃうか 正直babyでも年齢盛りすぎで出てくるんで
もっと低年齢にしたいんだが
fetusはちゃんと出てこないし
embryoにすると受精卵が出てくる(そこまでは要らない) >>943
ていうか乳や乳首関係のプロンプト入れるたびに如実に膨らんでいくしな >>946
最初誰もそんなやと思わなくてこんなもんでええやろの精神で実装されて
その後マザボメーカーによっては簡単になっとるで
メーカーが付き合いのある企業のレビュアーに怒られとったからな
ワンタッチにせな渡されても仕事できんでえとか ワイは2枚目のm2換装するときに
どのパーツも外さずに取り付けたから
ヒートシンク合わせつつ付けるのに割と苦労したな >>942
煽り抜きに間違えてるのは記事じゃなくて君の読解力
書かれてないこと深読みしすぎてるよ >>940
PCIEが余ってれば変換アダプタあるで
M.2は取付け自体は簡単なんだけど場合によってはグラボとかCPUクーラーを外す必要があるのがな 全く同じデータを全く同じ設定で学習したら常に結果も同じになるんかな? >>956
いやそこでもバッチサイズ上げた方が良くなるんですみたいな事書かれてるからそういうもんなんやろかと思っててな
改めてググって調べたけど実際そうなんやね
勉強不足ですまんな
ワイも3060のよわよわやから今度作るときはgradientなんちゃら言うの試してみるわ >>959
似た結果にはなるが同じ結果にはならんはずやで >>933
そういやまとめて入れた方がいいって話やったな
サンガツ めっちゃ久しぶりにこのスレ戻ってきたんやが今流行りのアニメ絵モデルってなんや?
ワイがいた頃は7thとかやったんやが
あと追加学習はまだLoRAが主流なんか?
ChatGPTと組み合わせてエロチャットに画像追加したいンゴ >>902見てunder 0yoで解決の兆しが見えてきた >>965
今はモデルは良い意味で乱立状態
スレ民が作ってるAliceMix系とか、色々あるので片っ端から試すのが吉
追加学習は広義のLoRA(リエラ又はLoCon)が主流じゃないかね ちなみにfetusが胎児、embryoは胚
たまにfetusで出産シーンに立ち会えることがある モデルが進化したのか知らんけど始めたての頃のぐっちゃぐちゃな絵とか全く出なくなったな
粗さはあっても形になる >>965
流行ってるかどうかわからないけどsurisurisitaiは素晴らしい >>969
>>972
メスガキ系とか色々あるんやな
ChatGPT用のメスガキ分からせプロンプトもあるから捗りそうやな
VAEはあんまり変わってない感じか? もっと大人の女性にも目を向けて欲しい
チェックポイントのおすすめがロリ以下の年齢に強いのばっかり ワイはhassakuが最近の人気と聞いて使い始めたわ >>908
背景がリアルの方が、なんかシンギュラリティ感あって良いかも
背景だけ必ず実写にするloraとか無いかな 逆にワイは絵柄統一したいの強いから新しいモデルやといオリキャラ全部出力し直しになるからそんなに >>962
君書いてないこと読むのやめたほうがいいよ
ここでも記事でもbatch数上げたほうが良くなるなんて一言も書いてない >>973
ほぼ変動はないね
目立ったとこだとClearVAEってのが増えてるくらいか
それよりも強烈なのはflat/frat2というLoRAのマイナス適用かな
LoRAの数値をマイナスにすることで、平坦化するLoRAが描き込みを増やす効果になる
ジジィLoRAのマイナスで幼女化ってのもある >>980
というか高齢アスペっぽい本物が結構居る ワイ誤字脱字くっそ多いから日本語苦手属にカテゴリされてそうで屈辱や… 大人の女はなんか中国や韓国系のアニメ塗りみたいになりやすくてなあ
シューティングケツスマホゲーみたいな 昔のモザイクはただの16パズルでそもそも可逆だったんや
AIなんて使わなくても解除できてた
今はたぶん違法 >>839
頭身を極端に下げる効果を期待して、chibiを薄く混ぜる
好みの薄さはCPや他のプロンプトの影響、CFGの影響もあるので、:0.5だったり:1.3だったり様々 SudachiっていうHassakuの後継みたいなん出とるがこれはどうなんや? nadenadesitaiの美味しそうなお○んこ最高 >>839
あと、これは方法論だけど、『髪は年齢が増すごとに増える』を覚えておくと役立つときがある seaartってcivitaiの上位互換じゃね?
検索もちゃんと出来るしサクサクだし生成も可能だし >>991
子どものパラッパラした髪出したいんやけど出せたことないわ >>995
そこまでぱらっぱらにする気がない自分の場合は
thinning_hair
を使ってる
効果が出るとは限らないので、おまじない程度に サンガツ
これ用のLoRAあってもええと思うわ
学習さっぱりやけど このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 2日 6時間 38分 19秒 レス数が1000を超えています。これ以上書き込みはできません。