なんJNVA部★148
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★147
https://fate.5ch.net/test/read.cgi/liveuranus/1676175319/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>9
腋が自然でえっち
なんで露骨にまんこまんこしてしまうんや >>5
この絵柄かなり好きなんやが何のモデル使っとるんや?Loraも併用なんやろか >>22
ワイが唯一抜いたことのあるポケモンやんけ…! 1111最新版入れなおして、xformersエラー出てないのに
適用されてない・・・
原因が全く分からん すまんがcivitaiってgit cloneとかできんのか?
LoRAが増えすぎて各ファイルのreadmeと合わせて保存したいがフォルダ分けが面倒や controlnetミクビルのextensionでうまく行ったわ
ワイのようなガイジでも導入できて感激
キャンバスと生成の方画像サイズ合わせないとエラー出るのな >>34
そのせいかHiresfixもエラー出るわね controlnetの使い方がわからん
モデルってなんのモデルでもいいんか?
とりあえず適当なモデル入れて画像ドロップにポーズついた画像ぶっこんだんだが
プリプロセッサーてとこは何選べばいいん?
生成しても何も反映されないんやけど >>20
むしろ普段もちょいちょい貼ってええんやで
最近ガチで高度な話題ばかりやからたまに画像貼ってあるとほっとするわ 背景が未処理の過学習loraって時々背景が芸術的に爆発しちゃうよね >>36
前スレの1111のほうに落とすモデル書いてあるんや
ワイはWEBUiアプデしたくないからミクビルのextension入れた
フォルダにモデル入れて
再起動するとcontrolnetのモデルにopenposeが出てくる テキストエンコーダーの学習率半分にしたら背景が綺麗になってビビったわ サンイチ!まあまあ綺麗なクオリティで44人同時出力されんのわろてまうw
https://i.imgur.com/VM3XMnM.png えっちな画像なんてなんぼあってもいいですからね
これは露出趣味の君の彼女です
https://i.imgur.com/rcReGg1.png Bingちゃんに作ってもらったpromptと negative prompt逆にしてみたら逆の方もちゃんとストーリーできてたわ
なるほど2面性を持たせることがコツなのですねBing先生
https://i.imgur.com/hJFtFO0.jpg
https://i.imgur.com/ACKUB4U.jpg
逆
https://i.imgur.com/DniXHiQ.jpg 3Dモデルでも陰影とシルエットがある程度はっきりしてれば
ポーズ自体は認識できるんやね
https://i.imgur.com/XFJ146l.png 自撮り出来そうな鏡無くてもVaMとかでパパっとポーズ作ってイケるんやな >>52
正直晒し台はポーズアングルに多様性出ないから
色々シチュ作るなら普通の首枷にした方がええなと思ったわ wikiのcolabノートブックでLoRA作れたンゴー!
ところで質問なんやけどこのノートブックPaperspaceで流用するときに気をつけることとかある? >>36
cv2 libraryはインストールしてる? control net エラー出るの生成サイズの方やったわ
3060の12GBで704サイズが限界だった
--midramは付けてない
意外と小さいんやがこんなもん? ミクビルの入れて見たがRuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`と出て出来ん
VRAM8GBじゃ足りないんか?
CMDでpip install opencv-python、エクステンションインスコしてControlNetのmodel内ファイルDLしてsd-webui-controlnet/models folderにぶち込む
これでええんよな デビューから24時間も立たないうちにAIでファンアート描けるかのテスト
わりと特徴捉えてるし学習素材もyoutubeのキャプチャを20枚くらい
データのないキャラは描けないっていう問題も覆せるで
https://i.imgur.com/DGtzQkh.jpg >>61
環境構築はうまく行ってそうやな
ワイはブラウザのハードウェアアクセラレータとか切ってVRAM空けまくってギリギリ動いてるで
webuiに--medvram付けんと無理やけどな 更新入ってたからアプデしたらhiresfix使ってもエラー吐かなくなったわ
おまかんかもしれんけど一回エラー吐くと今まで生成できてた設定でも再起動かけないと生成できなくなるわ >>64
サンガツ
明日VRAM食ってそうなアプリ落として試してみるわ
4070tiほしいけどゲームもやるからメモリ帯域だけ気になるンゴねぇ… ミクビルの行動力ヤバ過ぎるな
昨日「これWebUIに追加しませんか?」とか言ってたのに自分で作るとは illlustrations,やbest qualityみたいなのを1.3するのと(())で強調するの
違いあるんかな
どっちにしても具体的な指示以外はよりおまじないなんだろうけど |一足先にバレンタインチョコを貰ったで
https://i.imgur.com/DNucMK5.png
これもサンライズパースのちょっとした応用だ
おまけ:毎年2月14日にはチョコで相手を釣ってキックで倒すという一見奇妙な風習が存在しています
https://i.imgur.com/AWTn4Pr.png いつの間にか起動時に最後に出てくる文章が
「To create a public link, set `share=True` in `launch()`.」になっとるんやが
なんかしないといかんのか?
前はアドレスが最後に出てたと思うんやけど >>72
外部からアクセスしたりサーバーとしてwebUI立てる時の話だから無視でええよ。別にエラーではない >>70
最近の1111だと旧設定にチェックしないと多重括弧は意味ないべ
んでもってちゃんと計算すれば多重カッコと数値指定は等価やで >>72
よそのマシンからアクセスしたい時はその設定にしろよって言ってるだけよ >>50
女体もさることながら背景がリッチでええな Bingちゃんに括弧と重み指定の概念を伝えるにはどうすれば🤔 なぜか知らんけど (word:1.0) と (word:1) と word は微妙に効果量違うんだよな ControlNet enableになってても全然ポーズの認識ダメやね
I字バランスみたいなわかりやすいポーズでも無理か
腕と足の認識が上手くいってなさそうな >>82
不動明王もこれはこれで雰囲気ええな
キャラを巻いてええ感じに顔が浮き立って綺麗や LoRA作っても出力はモデルの質に左右されるし出したいシチュがあってもプロンプトの知識無いとあかんとな
結局基本的な所は昔と変わらへんのやね >>5
これ絵師の絵柄まんますぎるから良くないぞ
名前忘れたけどAIガイジに煽られてた人やろ >>44
XYplotかとおもったわどんなpromptなんこれ なんかまたDynamic promptがおかしいなtabも出ないし{3$$___wildcard__}で3回繰り返ししなくなってる? >>87
reference sheetは強調度合いで出てくる人数が変わるので、この時はちょっと強めにしてて偶々こんななった感じ >>87
モデルによってちょうどよいレンジが違うし、そもそもseed次第でずいぶん変わるので、まあ一期一会
https://majinai.art/i/JMDAbSM >>90
CFG scale15 ?! ってなったけどHiresFixするためか勉強になるわサンガツ
そういやどっかでCFG途中切り替えするextension見た気がするんやが低CFGからHiresFix時に高CFG行けるようにならんかな textをNG1.3で入れても左上とか右下に入れてくるんだけど修正で消すしかないのこれ? あかんなControlNet
vram8Gbで足りひんくてlowvramまで噛ましてるのに CUDA out of memoryで落ちるわ。
落ちたあとに普通に画像は生成するけど、ControlNet機能してへんから普通の画像生成になっとるわ >>88
先程SDとDynamicPrompt更新したら直った模様 >>98
買うかー
SD2.1系も動かんし流石にこの先戦えんかなぁ ControlNetって本家はi2iだけどextentionだとt2iなのは間違いだよね? ControlNet二個とも入れて左下にcontrolnetとunprompted両方出てきたけど使い方全然分からないw すまん、これワイの天職かもしれん
全く疲れずに働けるわ >>98
こういうこともあろうかと3090買っといてよかったわ ワイVRAM8GBやけど--medvramでギリ動いとるで
クッソ重い一回目が成功すれば後は軽い処理しか無いからwebui立ち上げ直後にゴリ押しや ただ3090そのままだとメモリが平気で90Cとかになるで
上の金属プレートにNoctuaファン載せてなんとか80C controlnet拡張アプデでLow VRAM (8GB or below)付いたで タスクマネージャーでグラボの温度は見れるけどメモリの温度って見れるの?大体同じ? キャラクターローラはマニアックすぎるから画風ローラとかの方が受け入れられやすいんやろ
ということで桂正和の尻ローラやら三浦健太ローラ待ってる >>109
気になるならHWMonitorかCPU-Z持ってたほうがええで
両方とも無料 リリース来てたんかい
Windows PCでLsmith(TensorRTで高速化された画像生成のWeb UI)を利用する手順
https://note.com/mayu_hiraizumi/n/nf143ea048568 >>114
やってみたいけど
1111で確実に動くようになるまでは様子見するかな 久しぶりの集団催眠、ハイライトOFFLoRA使わせてもらったやで、性癖に刺さる
https://i.imgur.com/2nSYMPf.jpg
https://i.imgur.com/HYoIYvo.jpg
https://i.imgur.com/FBMlRrK.jpg
https://i.imgur.com/ineGafS.jpg
https://i.imgur.com/DafW6eV.jpg
いい感じだが1168x768程度のhiresだとガビガビなるな…(上のは1536x1024)
解像度上げたら少しマシになったがLoRA扱いも結構難しいんやね
というか2か月ぐらい浦島して1111更新したんやが、生成される画像が少し変わった気がするんだが何か変わったんやろか? paperspace、1台もfreeのやつないやんけ >>119
色々変わって昔の設定モードがあるくらい なんか風船の人みたいな聞き方でアレなんやけどカビ生えるLoRAの作り方知っとる人おる?
人間にも家具にも全部カビ生えるようなやつ
例えばカビの生えた女、カビの生えた椅子、カビの生えたタンスを学習画像に入れて
カビの生えてない女、カビの生えてない椅子、カビの生えてないタンスを正則画像にしたら
「カビは何かの物体に生えるもの」ということだけ覚えて、女や椅子やタンスに限定しない形にできるってことでええんやろか 二日ぐらい覗いてなかったら浦島太郎や今はコントロールネットってのがトレンドなのか? 体位loraの設定何も分からん失敗まみれやどっかにキャプションのコツとか階層で適応する奴のコツとかまとまったページないんか? >>124
まだトレンドにまではなってないけどこれからきそう
キャラ再現はLoRA ポーズはこれ
とかになるんやないやろか webuiより10倍早いけどloraはおろかplugin機能すらないのはただの上級者向けNAIなんやで >>126
サンガツ前スレ追ってるけど開発複数ある感じなんやな
低VRAMも対応してる最中みたいだし安定するの楽しみやな 512x51の30stepは1秒未満
1024x1024でも5秒
4090ニキは更に早いと見る >>128
ぶっちゃけ生成速度はそこまでストレスになってないわ
ガチャ5秒10秒待ってる間のワクワクとか逆に楽しいぐらい >>131
highresやlora複数適用だとitsめちゃくちゃ低いから普通にストレス
特に最近gifにハマっててもし生成速度10倍になってほしい LoRAでキャラデザだけ再現するのどうしたらええんや……ここ三日くらい色んな設定で試してみてるけど何回やってもモデルの塗りを無視したアニメ塗りになってまう
ケースバイケースではあるやろうけど参考までにどういう感じの設定にすればいい感じになるか教えてクレメンス control net奇抜なポーズは難しいんちゃうかな
セックス体位大量に学習してないと出なそう
というかそこ担当するのがコントロールネットのopenモデルなのかな?
手とか身体のファイル名モデルもあったけどどう使うのか分からねえ >>133
アプライするときに画質干渉を無くす階層の設定
0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0
っつう人いたけど試してみたらどうやろか
塗りとキャラデザは完全に分離できんと思うんやけど >>133
6000~10000ステップになるように学習回数を調整
正則いらんあとはポップアップのデフォルト設定でいい >>135
拡張機能とか使う感じかな?そっちのほうは全然弄ったことないけどやっぱそういう設定しないと無理か…… >>136
ほんほん ステップ数はバッチ数で割ればええんかな?どうも過学習になってる気がして悩んでたんやけど 学習ステップ回すだけやったらモデルの塗りは維持できんのちゃうか 6000ステップとか何時間かかるんや?
Colabだと打ち切られそうや The lora is changing the style too much! reduce unet LR
っていうのは正しいと思うからとりあえずUnetの学習レート下げてみたらどうやろ
ステップはCosineとか動的に設定すれば過学習にならんけど
でも枚数とかゴールにもよるし何度もやってみるしかないんちゃうやろか >>104
この勢いで是非エマさんとかファ・ユイリィとかフォウ・ムラサメとかハマーン様も頼む vastで4090使ってみたことはあるが作業効率がそんなに感動する程違うかっていうとそうでもなかった 4000番台はCuDNNのバージョンをvenvの中にある最新のにしないと遅いぞ >>130
1024は2~3秒かな
まあhires前の生成は誤差だから気にならないんだけど
10倍速くなったら2500x1600が3~4秒で出てくるのはヤバイよね
雰囲気で鬼ガチャすればすべて無問題みたいな
几帳面な人以外xyplotなんかいらなくなるかも colabやpaperspaceで作ったLoraってローカルで使えますか? 浦島でごめんなさい そうなるとモデルも含めてガチャしたくなるから
モデルの切り替えの高速化もなんとかならんかな LoRA階層するやつ試した
●これがデフォルト(全部1)|https://i.imgur.com/41dOrim.jpg
●これが0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0
IN08, MID, OUT03, OUT04を1してるっぽい|https://i.imgur.com/uKzvLEC.jpg
●これが1,1,1,1,1,0,1,1,1,1,1,1,1,1,1,1,1
IN07だけ切ったやつ|https://i.imgur.com/ALXpzoh.jpg
●これが1,1,1,1,1,0,1,1,1,1,1,1,1,1,1,0,0
IN07_OUT10-11を切ったやつ|https://i.imgur.com/hBaPbw5.jpg
●これが1,1,1,1,1,0,0,0,1,1,1,1,1,1,1,0,0
IN07-08_MID_OUT10-11切ったやつ|https://i.imgur.com/Mzywqxt.jpg
う~んわからん、がOUT04(とOUT03も?)を切ると顔層がとんじゃうのでキャラLoRAのときはNGっぽい IN07とかMIDとか切ると構図がたぶん死ぬからコンセプト系のLoRAだとやめたほうがいいかもやで 学習で出せばええやんってのはわかる
ではその学習素材を揃えるのに苦労するのはどうしたらええんや
i2iでなんとか自前調達するしかないんか 画風LORAなんだかんだ難しいな
たまに良いのができるけどほとんど抽象画になる
タグ付けが悪いのか素材50枚じゃ少ないのか
https://i.imgur.com/nzhO1rS.png
https://i.imgur.com/o2vUZT6.png キャラLoRA,画風LoRA 0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1
コンセプト(構図,ポーズ) 0,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0
で再現出来るのは確認したけどじゃあIN01~06が何をしとるのかとなるとよく分からん
OUTの1つでも切ると再現度が落ちることあるからキャラLoRA使いながら層別で画風に影響与えないの難しそうや
車輪の再発明かもしれんけど >>155
憂鬱そうな顔ええやん
後はチャイナ服やね ドーナドーナみたいな画風のやつ
Onono ImokoのLORAがcattoに落ちてるからそれとどれかのモデル組み合わせたら出来るんやろな HNだったかにドーナドーナあったやで
おののいもこの魚介はモデルから多岐に渡り全部あったはず >>153
検証サンガツ
参考にさせてもらうで
ところで犬子のモデルは何?綺麗だな https://i.imgur.com/pyjb0bp.png
バレンタインデーやで~ということで新しく上げといたのが改良したDBモデルや
流行りのloraやないのは階層マージグチャ混ぜで誤魔化しが一切効かんからワイの知能やとええのが作れんという理由や
ttps://huggingface.co/okiba/NJ118/tree/main
ttps://mega.nz/file/7JhkXTyS#r6gxiWxzU2d4IzVdHqYmlrHeq-abVjtAvkjpNykHoLo
リドミ↑↓サンプル
https://majinai.art/ja/i/RKLzHiM
https://i.imgur.com/oPGaDXs.png
https://i.imgur.com/VVQGG7K.png
https://i.imgur.com/Eox7ipi.png
https://i.imgur.com/6UBzn1R.png
画風の完璧再現できとる人はほんとに見るたびにすげぇ羨ましいってなってしまう 自分のあげたモデルで自分よりいい出力できてるの見て嫉妬で狂いそう WD1.5でLoRa学習できたでー
--v2に加えて--v_parameterizationつけんとちゃんと学習できんかったから気をつけてな
学習後にmerge_lora.pyでモデルファイル結合して出力
https://majinai.art/i/CwvgZMK.png
https://majinai.art/i/i17Wvwc.png
wdgoodpromptなし
https://i.imgur.com/ySDIqcG.jpg
wdgoodpromptあり
https://i.imgur.com/Xv3moJX.jpg WDgoodrompt付きでお胸が立派になってるのはhuge breasts追加したからでWDちゃんの性癖やあらへんで >>156,158
わかってくれる人おって嬉しいでサンガツ
今の所10枚に9枚はグロ画像や
upしてるニキ達の破綻しなさっぷり凄いわ
https://i.imgur.com/XB6DRxm.png 学習画像が少ないマイナーキャラをLoraで学習してるけど上手くいかん
同じ画像で顔のアップのみとか水増しした方がええんかな? >>163
サンガツ自前のモデルのOUT層に混ぜ混させてもらうやで >>170
拡大縮小してトリミングはええと思うで
非対称デザインでなければ左右反転も追加
最後の手段は生成してできたモデルで生成かi2iしてできた当たり画像を学習素材に加えて作り直すぐらいかなぁ colabでfastapiやら入れないとエラー出るの解決された?新しいバージョンでやりたいけど >>56
AbyssOrangeMix2_nsfw + bad_prompt_version2だよ
ただ、あかちゃんインストーラーで別環境を作って色々実験してた時のやつだから自分でも再現できないわw
https://majinai.art/ja/i/WKm4jey colabどころか普通に導入してもなる
公式で対応してくれねーのかなぁ >>114
徹夜でやってやっとTensorRTことLsmith導入できたで…
躓いたのはnpm install -g pnpmとかいうとこ
bingちゃんでも分からんかったが解決策はWindows10のファイアウォールを無効化やった
あとビルドもフォルダ名が悪かったのか詰まったがなぜか動いた
寝る kohya版のaddtional network extention使えばWD1.5でもマージせずに生成できたでー
WEBUI標準のloRA読み込みは駄目やったわ
SD2.1系にシフトしても今までと同じ感じにloRAは使えるで
https://majinai.art/i/Cu1ekmR.png >>118
5枚目じゃなくて4枚目やったわ
人形劇できそう 精液臭いのがバレても男性の健康の証だから気にしなくていいよと言ってくれる優しいBingさん
https://i.imgur.com/Ezu0zUo.png
匂いの話をしてたのに勝手に口に入れて味の話をし始める淫乱Bingさん
https://i.imgur.com/owp4yJq.png ワイのカルピスが苦くないのはなんでやろ
逆にどうしたら苦くなるんや ワイの中のメスガキ煽りカスBingちゃんが崩壊していく なんか書き込み規制されてまともに参加できんくなりそうや すまん>>163やけど更にこのembeddingsを0.8で適用してくれ
ttps://mega.nz/file/eNYGwbZL#KXIWMFQMrqk5WXy3sdor7RFvxUJG3fACwY57d9SZFU8
まつげを抑制して若干丸目気味にできる
https://i.imgur.com/F6l6tgG.png
https://i.imgur.com/SK8hfBK.png
https://i.imgur.com/4FoPxP9.png ColabでControlNet動かしたけど
指定されてるpytorch-lightning==1.5.0だと駄目みたいやな
https://i.imgur.com/RJ4bHUh.png
色が変なのはVAEを使ってないからやで >>193
理想の形過ぎる
多分これが多くの人が「AI画像生成ってこんな感じ?」って想像してたそのものなのでは >>195
小説書かせた上で挿絵作ってみてって誘導もできるで >>196
今まで見たwd1.5の作例で一番良さげなんだけどpromptが良いのかな Control Net動かんようになってしもた
入れ直しがいいんかな よくこんな速度でプラグイン開発できんな
ワイプログラマーやが日に30行の日もあるわ >>200
わい調べ物が脱線しまくって0行の日もあるで LoRA配布するのって🤗とcivitaiどっちが都合ええ?
civitaiの方がビューワがリッチでいいかなと思っとるけど 4chanのやつもほぼmegaやし契約した方がええんかな >>200
ライブラリが強いのと型無し
コーディング規約がかなり縛られてるからか補完もツヨツヨ
bingAI活用しながら雛形吐き出し
色々相性ええわ 学習全般0から入れなきゃいけないパラメーターが多すぎる
仮の値を入れといてくれって思う controlnetのモデル読み込み用画像、
全身が写ってる方が良さそうだけど
解像度高くてもダメなんかな? loraの128
1e-4とか固定しときたいよな
編集すればいけるんか? 普通の部屋色じゃなくて
たまに出てくるこういう感じのやつすき
https://i.imgur.com/UUhtNuG.jpg >>210
お、ええやんけ!
なんやこの化け物の手は!!
こんな感じになるからこれもう病気やね‥ >>203
見る側としてはcivitaiの方が助かるわ
まあcivitaiは接続不安定な時あるから両方に上げるのもありだと思うで 1080に限界感じとるんで3060買ってこようと思っとるんやが学習の人権ある?wikiにはあるとあったが……
あとメモリ32で足りるかどうか >>209
1回設定をjsonにセーブしとけば
編集したやつを次回から読み込ませると早いで
https://i.imgur.com/HEPemv9.png
"json_load_skip_list" をいじれば入力増減できる >>213
最低限はある、メモリも32GBあれば最低限はいける
なまじ最低限有る分、逆にもっと上を目指したくなってくると12GBが足かせとなってきて買い換えたくなるまでがセット 単純に場所を暗くするのってdarkだけでいいのかdark lightingなのかdark backgroundなのか? 入れ直したら動くようになったわ
なかなか難しいなこれ >>211
ワイは化け物の手は!とかはもうないな
修正の難易度だけ見てるわ
0から描き直しレベルのはこんな感じでどうでもいいとこに投げて供養する感じ >>216
レス感謝やで
自分の描いた絵を学習させたいんで頑張ってみるわ >>221
ワイも1080やったが買い替えるとだいぶ世界違うで
ワイはグラボはぶっ壊れるまで使い倒す派だったから寿命を迎えた先月半ばまで1080だったから気持ちはわかるつもりや >>221
もうちょい具体例だと、Loraで512サイズで自分の絵学習させるぐらいなら十分楽しめる(簡単なloraなら20分ちょい、データ少し多めでも1時間ぐらいで作れるイメージ)
768サイズとかしだすと「処理遅くて一晩(6時間)コース」とかガンガンに時間かかるようになる
高解像度で学習したいならもっと高性能なグラボ目指すべきかと
今のところは512サイズでの学習でも十分クオリティ保ってる気はするけどね
modelデータを根本から作るようなレベルだと、他の有識者に意見仰いだ方が良いぞー >>224
すげえ
期待してた未来が近づいて来てるわ controlnetの8gb民へ
更新してControlNET自体の追加されたロースペックにチェックいれるの
あと読み込んだ実写画像は一回だけ512×512で作成して、
ボーンのベースを作り上げたらキャンバスサイズを上げても落ちなかったわ コイカツやカスメに入ってる大量のポーズデータも使えそうやな テーマはbingに伝えてポーズはcontrolnetで制御して絵柄はloraする時代なんやね
強くて草 そろそろ一連のプロセスからワイという存在が消えそう 適応させたLORAを外すのって、プロンプトから消すだけじゃあかんの?
前のLORAの影響が残って絵柄が崩れちゃってよくbat再起動してるんやが ControlNetの論文が出たのが2/10
ControlNetの実装が公開されたのが2/11
WebUIに移植されたのが2/13
流れ早すぎぃ! >>235
お前が骨格モデルの元になって、最終的にお前で抜くんやで これが始まりにすぎないと思うとぞくぞくするな
mmdやってたからmmdとも連携するようになると過去資産が生きるなあ 正直mmdとかいう閉じた技術とは繋がらないで欲しい ポーズつけるならdazのpowerposeって機能も扱いやすくておすすめやで フレーム内のキャラの位置、レイアウトを決められるようになるのはでかいな
カメラ寄った状態のポーズも認識できるのかな? この調子でもう100年ぐらい経過したら、自分で自分を孕ませられるのも夢ではないな GPU買い替えニキは別に入れ替えなくても2枚刺しすればええで
moduleフォルダのdevice.pyいじれば計算に使うGPU指定できるから、ハイエンドGPUで学習しつつ古いGPUで途中で吐き出されたloraを試しながら学習できる ControlNet試してる民はみんなVRAM12GB以上の民なんか? >>240
MMDと繋がることは無いだろうけどblenderにコンバートできるから実質的に繋がるっていうか既に繋がってる VRAM8GB民やけど--medvramでwebui起動したらいけたわ >>229
webui側の--lowvramとか外してControlNetの拡張アプデしてwebui再起動させたらLow VRAMチェックだけでうまく動いたで
これで元の環境で生成できるわ
>>253
さっきまでそれやったけど今アプデしたらそれもいらんくなったで 指がそんなになるまで苦労して作ったんやなぁ…(しみじみ) 30606gb民のワイ、controlnetが動くかどうか不安が高まる あぶねえ、ただの太いチョコか
ここで見ると一瞬🎈かと身構えてしまう Windows11標準のフォトアプリゴミすぎん?
普通に画像見れればそれでいいのに余計な動作しすぎやねん 🎈といえば手強いシミュレーション最新作で全身にカラフルな玉をつけた女の子がいたんやが
もう全身🎈まみれにしか見えなくて無理だった ControlNetの学習ってどうやるんだろうなーって思ってずっとgithub見てたけどなんも分からん その手強いシミュレーションのAI絵あってビビったけどよく考えたら何もおかしいことはない
最新作はAIで無理なんて昭和時代のような考えがまだ残ってた >>255
ま?
本体ローいらんくなるなるんか
サンキュー後でためしてみるわ 恥を忍んで聞くんやけど
今i5 6500で1070なのね
んで3060の12GBだけ買って乗せ替えようと思うんだけど今のマザーにつけられるかはどうやって調べたらええの…
GPTちゃんは行ける言うとる?
https://i.imgur.com/plDqQjQ.jpg >>266
電源は足りてそうやし注意するのはグラボの長さぐらいやね ボカロキャラはめっちゃ見かけるけどボイスロイドのイラストほんと見ないな
海外ニキ巻き込まんジャンルはあかんのか danbooruにあるイラストのタグ一覧をloraのタグ付けテキスト化する時って
どうするのが効率的なんやろか
historyのリンク先から最新のタグ部分をコピーして
エクセルのsubstitute関数でスペースをカンマに置き換えたりしているのだけど
これも結構メンドイのよな >>266
ワイは2070から3060に載せ替えたんやけど
MSIの幅も長さも短いボード選んだら余裕やった >>266
グラボと電源の品番書けばいいんじゃね?
あとこっちで再確認するから判断材料を教えろをやってみてくれ ワイ今3070なんやけど
売って3060買おうと思うけどあり?
ControlNETは8G機能やとだいぶ制限されるんやろか? 昨今のグラボはマジでクソデカすぎてスロット占有しまくるしm.2のスロットに被さってくるし支え棒付けないと折れそうなのに更にデカくなるみたいだし巨大化路線なんとかしてほしいわ 1070が2スロなら3060も入る気がするけどな
TDPもそんなに変わらんだろうし ControlNetすごいな
CGモデルでも良いなら、デッサン人形にエロいポーズさせてスマホ撮影したのでもいけそう デカいのは悪い事だけではないで、排熱が良くなるんや
最近のは支え棒ないともう折れる勢いやけど >>279
早々に12GBが最低ラインになるんやないかな?
中古の上位モデル検討した方がいい気がする 突っ張り棒無いと4090は折れる
目で見てわかるくらいしなりよるで https://i.imgur.com/OAPNEue.jpg
これ
ピチピチタイツスーツで自撮りすればタダで思い通りのポーズが手に入るぞ!急げ! bingちゃんの知らん事はネットで調べてくるのは思ったより優秀やな
GPTちゃんも見習って 3060買うつもりだったけど一月ほど待って様子見た方が良さげ?
でもこの進歩速度だと1ヶ月も待ったらさらに発展してそう LORAでdim128にどれだけ覚えさせられるんやろかと
特に関係のない10キャラを衣装込みでごった煮にしてみたんやけど普通に覚えるな
この結果を見るに1キャラにdim128過剰説も分からんでもないがそう単純でもないんやろな
ごった煮LORAをプロンプトで混ぜた副産物
https://i.imgur.com/YCY6M1P.jpg
https://i.imgur.com/XyPPSok.jpg ControlNETで指定すれば誰でもアバンストラッシュごっこし放題やん >>280
巨大化いうてもデカくなっとるのはヒートシンクやからなぁ、廃熱をなんとかしよう思うてデカくなるんやろし小さくしよう思うたらPCのケースから専用で設計していかんとアカンのかもな
あとは簡易水冷にいくかやね…
https://www.gdm.or.jp/review/2022/1018/459590 もう完全にchatGPTはお笑いとかエンターテイメント路線でいった方が良い気がしてくるな
>>271 と>>276,287 の解答の温度差よ…… >>289
買おうという自信が持てないならそのままでいいと思う
「自分がこのグラボを買った直後に技術進歩があっても悔しがらない」という決心が持てないなら技術を追いかけるようなことはしてはだめ ControlNETをextensionsからダウンロードしてるけどずっとローディング中
いつ終わるんやこれ
風呂でも入っとけって意味なのか 4070ti買ったるでぇポチ→ショップ納期未定→キャンセル→別ショップでポチ→納期未定→もう在庫ある3060でいいかなって思い始める コントロールネット、webui起動したあと一回はうまく行くんだけど二回目以降下みたいなエラー出るんやけどこのエラー解決した人おる?
RuntimeError: Given groups=1, weight of size [16, 3, 3, 3], expected input[2, 5, 1, 1] to have 3 channels, but got 5 channels instead 3060使っている身としては、最初から4070tiのつもりだったなら、その方が生成とか学習速度快適で良いとは思う
あとで結局4070tiに買い換えそうだしな これもうloraで自作キャラ学習→controlnetでポーズ指定で漫画描けるやん >>289
3050を買った数ヶ月後に3060に買い換えたおじさん
「買い換えたいときが買い時だ」 >>157
まだキャラLoRAを2つ作っただけだけど
自分の場合はキャラLoRAだとBASE-OUT05(特にBASEとM00,OUT03-05)が重要で、OUT06-11は全く要らんかったな ローカルの生成遅すぎるからpaperspace使いたいけど決済クレカだけか…
ちょっとリスクあるな 4070tiポイント便りだったのにキャンペーン外になったから値段的に辛いのよね
3060以外なら無印4060とか4070待ちか次回のキャンペーン待ちになりそう >>279
3060やと生成速度落ちてめっちゃストレスや思うで デビットカード使えるで
PayPay銀行のカードレスVisaデビットが便利や Vプリカとかあったなそういや
決済通るんなら諸々大丈夫そうやな
UI触るときはVPN経由で繋げばいいし 複数人を同時に描く方法についての質問させて下さい
キャラA・Bを個別に学習させたLoRAモデルAとモデルBがあるんやが、二人を同時に描くにはどうしたらええんやろか?
Latent Couple extensionってのが最近出たと聞いて導入したつもりなんやけど
A・BのLoRAモデル読み込んでプロンプトでキャラ名指定しただけやと全く二人を描けなくて、やり方がわからんくて行き詰まっとるんや
わかるニキおったらアドバイスもらえるとありがたい 3060 12GBと4070Tiでできることに差が無いのが困るんや
ただ遅いだけの違いしかない
なんだったら2060 12GBともできることに差がない
革ジャンも酷いことしよる BREAKで色移り減らすやつトークンズレるからか他のワードの効きおかしくなるな
使ったら強調とか見直さないとやべぇ フリーランスな半分仕事なやつとか社会人の趣味なら4090に突っ込めばええけど
金のない学生さんなら3060(12GB)でええと思うで
学生さんは5万、15万、20万の差でかいからな
3060でモノ足りなくなったらpaperspaceにでも移行すれ 出先からスマホで生成状況確認したりPC操作する方法って何があるやろ
web版の感覚でプロンプト調整できたら楽なんだけど >>310
それ言うたらメイン用途のゲームでも差はfpsだけやから同じ事や >>293
chatGPTはあらゆる知識がごっちゃになったうろ覚え頭だけで答えを作るからこう言うミスがデフォなんや
人間で言えば「奈良にあるのは平安京だっけ?」「信長を裏切ったのは明智光秀だっけ、石田三成だっけ?」的な感じよ
おまけに自分がうろ覚えだという自覚がないからちゃんとわかってるみたいな口調ではなすもんでタチ悪い
Bingの方は一応検索して、出てきた情報を加えて話してるみたいだからもうちょいマシっぽい >>284
>>306
速度落ちるのいややし
やっぱり5000シリーズ待つほうがええぽいね
サンガツ >>310
速度は大事やし
なによりワッパもダンチ >>309
現状LORAは混ざる、混ざらないのはTIで作ったものっぽいよ >>313
出先でWebUIいじれればいいってこと?
それならshare=True付ければリンク吐いてくれるぞ 3090で(爆速:2:0)(大量:1.5)(構図固定:2.0) 画像生成したいんだけど
LsmithでTensorRTもControlNetも既に問題無く使える? >>313
外部開放はセキュリティ気をつけるんやで
GPU壊されかねない 技術の進歩で8Gで学習できてるし3060tiのワイの勝ちや >>320
よくわかってないので調べてみるわ
出先で調整したりして時間効率あげたい
>>323
ヒェッ…… >>319
そうなんやー
なら他の方法考えるわ、サンガツ >>321
ちゃうで
たいやきと同じで、生地の中にあんこを入れて焼き上げたものやで Lsmith実装されたらみんなの最低基準の解像度がフルHDとかに上がるだけで
上位グラボ勢は何かしら拡張機能で10人くらい並んだ3000x2000とかのクソデカ画像で力の差見せつけてくるながれだと思う >>324
でもcontrolnetきついし…(3060ti民感) KaggleでStable Diffusionを題材にしたコンペ始まったで
https://www.kaggle.com/competitions/stable-diffusion-image-to-prompts
画像生成モデルを作るんではなく、画像の元ネタになったプロンプトを予測するモデルを作るコンペや
平たく言うと僕の考えた最強のWD1.4Tagger決定戦
4090持て余してしてる兄貴は参加してみると良いと思うわ コントロールネット試してるけどモデル読み込んだ初回だけ使えて二回目以降エラーになるの謎
モデル切り替えれば遊べるしそのうち解決するだろうけど不思議 アスカのベンチの結果だけ見るとハイエンドとミドルとで生成速度にそんなに大差無いように見えるのよな。
実践ではハイレゾ無しの512*512だけ生成することなんてまずないので
やっぱ速度大事やなとなる。 >>254
使わせて貰うで
ちなみにGenImageViewer.ps1のプロパティで他のコンピュータから取得したうんぬんのを許可押しておかんと即終了で起動できんかった
pause入れたスクショがこれや
https://imgur.com/a/tF2SGkj.png >>332
controlnetのモデルは一個で6ギガ近くあるやろ?
本体用のクソデカモデルと合わせて2つ読み込んどるようなもんやからVRAMめっちゃ多ないときついんや
フォルダ内にあるextract_controlnet.pyがモデル軽量化してくれる
使い方はぐぐったら出てくるふたばのスレにある たまに見かけるインスタ系って何のこと?そういうモデルやLoRAがあるのか? Bingちゃんに知性を感じるGPT捨てて求婚してくるか >>333
使いこなしてて草
プロンプトの効きも問題なさそうやな・・・
BREAK試してみたら75トークン超えると呼び出しタグの数値上げた方がええ感じやったわ >>333
仕事出来る奴の話の聞き方で草 もうワイ働く必要ないやろ えっ今ってもう12Gメモリの3060はアカンって風潮なの?
つい先週くらいまでコスパお化けのスタート勢マストアイテムみたいな扱いだったのに 風呂入ってる間にControlNETのダウンロード終わってたけど87.6GBもあるやん何これ ControlNetのcontrol_sd15_segの使い方わかった
ADE20kってルールで塗り分けられた画像(色にobjectの種類が割り当てられてる)を食わすと
その意味にそって出力される
構図の制御に使えそう
https://i.imgur.com/XXryPUX.png
https://i.imgur.com/X9hFy4B.png
https://i.imgur.com/6qtNLtM.png >>352
すごいがここまで行くと本職クリエイター向けやな >>352
すげーなプロンプトで指示する時代も何時か終わるのかな >>349
んなこたーない
だが最先端を行く装備ではなくなったな そして話題になるのは最先端の装備ばかりだ。あとはわかるな >>349
12GB:3060、3080、4070Ti
16GB:4080
24GB:3090、4090
そりゃ3060より4070Tiの方が性能いいのは決まってるが、値段が倍以上違うから3060がコスパお化けなのはかわらん
VRAM重視でのコスパ狙いなら3090になるが、20万前後という事を忘れずに
中古はマイナーが放出した品しかないだろうから、個人的には検討材料にもならん
買ってすぐぶっ壊れたら堪らんしな >>352
なるほど茶色に風船を指定すればええんやな >>352
時計だけ適当すぎて笑う……と思ったが、指定色間違ってるんでは? グラボの中古は胴元有利のギャンブルだからなあ
他の家電とかならともかくやばいくらい酷使される用途があるわけで
いくらか得をする金額で先々の不安を買う理由もない >>266
ケース小さいとファン1個のグラボしか入らんからそこも調べるんや
ファンは多いほうがいい 進化の仕方が3Dモデル職人ルートやんけ
そろそろワイのおつむでは足切りラインが来そうや プロンプトはroomとstreetだけ
もっと細かく指定したら自分作りたい画にもっていけると思う うおーすごいな
これって色分けでプロンプトを指定したら
苦手とされる重なる男女とかも制御できるようになるんかな >>352
凄すぎるわ
色んなモデルマージでキャッキャしてるワイは追いつけん…… ミクビルのControlNetいれたけど、何も反映されていない
openpose.pth配置して、uiで選択して、画像貼り付けて実行するだけよね?
ポーズ反映してないイラストと真っ黒の画像の2枚が表示される
何が悪いのかな >>165
え、WD1.5?1.5???それってめちゃくちゃすごいやん! >>367
3Dボーンと組み合わせることもできるんか? ADE20kのルールで色分けされた画像を生成するAIはよ >>348
サンガツ!
しかも3種類も提示してくれてありがとう!
これでlora作成の効率爆上がりや >>352 >>367
えぇ……もうなんでもありやん。写真撮って構図抽出して配置するみたいなことできるやん!
日進月歩ってよく言うけど日歩月走やんこんなん。もう毎日が浦島太郎や、お布団の中が竜宮城や >>352
こんなん革命やん。
girlとboyを好きなように配置できるってことやろ 研究発表だけ見るとホーンって感じやったけど実際にユーザーのところまで回ってくるといろんな使われ方して凄いなって思う(小並感) >>378
たぶん自動運転とかの画像リアルタイム認識で使われてるやつだと思うから
画像から生成するライブラリは存在すると思う
待ってれば誰かが1111に組み込んでくれると思う あのBingAIちゃんや
元気が出る弦巻マキちゃんの応援セリフを頼んだのに
ちょっと洗脳チックなセリフを生成するのは止めて
CEVIOに食わせて、セリフ聞きながら弦巻マキのAI画像をスライドショーで流したら良くねって思ったけど
このセリフだとヤバい洗脳されて返ってこれ無くなるだろ
https://i.imgur.com/wRSZbLf.png
https://i.imgur.com/tpr8Yeh.png >>378
解説を見た感じやと最初から入ってるみたいやで
性能はあまり良くないみたいやけど >>387
1枚目はいい感じなのに2枚目から洗脳してきて草 これガチャで理想の構図の画像出たらControlNetで固定して同じ構図で無限に回せるんだよね? >>374
真っ黒画像って事は、参照につかった画像から人が認識されてないという事
認識されてたらそこに棒人間が描かれてる
参考画像替えてみたらどうや? 進化ヤバすぎて層別マージでGapeちゃんのポーズ破綻しにくいマージ比率探してるのアホらしくなってきたなw
ワイは赤ちゃんどころかミジンコなんやはよ簡単に使えるようにして下さい何でもシマウマ その部屋のカラー画像借りて人物生成してた時のプロンプトそのままで出力してみたら人系のプロンプト無視してまで忠実に再現するんだな
これは構図職人みたいなの出るんじゃなかろうか・・・ ControlNetで3Dモデルレンダリングした画像でガチャ回してるけど構図の固定はほぼできる とはいえ現状のControlNetだとあんまり無理なポーズとらせると破綻するからなぁ、破綻に強いモデルや場合によっちゃLoRAの需要はまだあるはずやで ControlNetもそのうちめっちゃサイズ小さくなるんやろか イリヤ実装だとgradio上で
実写画像→領域認識・分類→ADE20kの色分け画像→それを元にした生成結果
というフローになっとる
本当は自分で色分け画像を作るのがええんやけどgradioはお絵かき機能のカスタマイズがカスでやれんかったらしい >>336の下の拡張やと色分けはまだ対応してないみたいやな blender矩形作って適当に配置して構図決定してPhotoshopなりクリスタなりで指定色を塗ってAI出力した背景画像に3Dレンダリングしたフィギュアを合成して再度AIで出力したら人物と背景込みで絵できんのかね
構図作り楽になりそうやな AI民もそろそろvisionとか買って絵作りの勉強必要やな あとcontrol_sd15_hedも使いどころがあって
control_sd15_openposeでは破綻するようなポーズの再現に使えた
https://i.imgur.com/9TY6qbn.png
https://i.imgur.com/ScVAlzY.png blenderのプラグイン経由だと深度情報も取得できそうな気がするから
そのうち天才たちがなんか作ってくれるやろの精神 ControlNet導入が上手くいかない
手順が間違っている事に気付いたけど、
extensions\unprompted\lib_unprompted\stable_diffusion\controlnet\annotator\ckpts
にアノテーターファイルを置けってあるけどそんなフォルダないので自分で作る、でいいのかな 自分で作ったエロ画像の局部にモザイク入れる作業って皆どうやってる?
俺はペイントで縮小拡大でモザイク入れてるんだけど面倒臭くなってきた
なんかオススメあったら教えて >>411
extensionsってフォルダないか? >>414
横からだけど、「最後のckptsのフォルダが無い」って意味だと思う >>411
すまん
>>336
の下の拡張の方が使いやすいで >>412
サンガツ
やった事ないものばかりで作業自体がドキドキの連続や
楽しいけどぶっ壊れないかちょっと怖い(過去に起動プログラムを破壊して半泣きになりながら電話サポートに縋りついた経験あり) control_sd_hedやってみたけどかなり画像に引っ張られるな ワイもunprompted版はエラー吐いて動かんかったから
ミクビル版入れてみたら一発やったわ ポーズ固定はできる
カメラワーク、道具、顔まわり、衣装が無理だからその辺がLORAやな
仰け反り絶頂とかサンライズパースとかその辺や >>352
これテスラがオプティマスとかを制御するAIで画像認識処理に行ってるオブジェクトへのタグ付けそのまんまやな
それを逆順にしてATに理解させてる感じっておもろいな >>421
同じくunp無理で諦めてたけど、もう片方の話題に上がってたやつで試したら良さそうか リセットしたらまともになったな
https://i.imgur.com/9gmxLLp.png
BingAIでセリフ作って、立ち絵と一枚絵もAIで生成して
ついでにコードも書いて貰えれば、7~8割AIでADV作れそうな気配がしてきたわ >>413
Photoshopとかクリスタならフィルターでモザイクあった気がするけど
アイビスとかはわからん >>414
>>417
いや、unpromptedからすでに見当たらなくて途方に暮れてた
そこから自分て作るもんやと思って新しいフォルダ作ってリネームしようとしたけど、なんかヤバそうだから立ち止まって、
>>418のおすすめに逃げる事にする
こういう時は無難が一番 >>352
nVidia Canvasの高機能版だな >>396
なるほど!ありがとう
実写画像変えたら行けたわ
結構画像は選ばないと駄目だね >>352
まーる描いてフォイが実現できる世界やねぇ Canny Edge 輪郭線を検出して取り出す
M-LSD 直線の輪郭だけ取り出す 曲線のない人工的な構図をノイズ無く取り出せる
HED Boundary いわゆる「描き込み」的な部分を取り出す タッチを引き継ぎやすい
User Scribbles マウス入力の落書き 線を絶対的なものとしては扱わず、いい感じに仕上げる
Fake Scribbles 画像を一端落書き風にして↑に投入する
Human Pose おなじみの棒人間
Semantic Segmentation 領域に分類を持たせる
Depth 深度情報を引き継ぐ 立体的な位置関係を処理できる
Normal Map 法線情報を引き継ぐ 深度情報よりも細部の立体感に沿いやすい
Anime Line Drawing 線画に色を塗る 非公開
初期実装でこれだけある上に別にこれらだけではなく別の制御情報にも応用できるのが恐ろしいわ >>311
BREAK入れるとプロンプトのトークン数がガッツリ増えるから、BREAK入れた箇所で処理が切り替わるように空トークンをぶち込んでるんかな? >>413
俺はGIMPのモザイクフィルター使ってる >>433
1つづつ試してsegだけ意味がわからなかったから
モデル配布サイトにいってADE20kってキーワード見つけて
試行錯誤しただけやで できることが増えてくるとどんどん無能がふるい落とされて行く
つらい >>425,428
移行して良いと思う
まぁunpも鋭意更新中みたいだけど普通にスレ内でもこっちで動かしてる人少なそうだし オブジェクト置いてく感じなのかな
👶に分かるようにしてくれ https://i.imgur.com/cCngDlM.png
いままで出しにくいやつができたなあ
うまく認識させる種画像を集めなあかんな >>428
まずunpの拡張インストール済(=フォルダが事前に存在)が前提っぽいんよねあれ
自分も夜に同じく無難な方試そうと思う >>335
生成画像ビューアの不具合報告ありがとう!
Zipの展開をエクスプローラーでなく、7-Zipとかでやればエラーにならない模様
対策はこれから考えるので、とりあえずの回避はこれでよろしゅう unpは入れてみて、動いたっちゃ動いたけど
画像指定するところが見当たらなくて
俺間違えたの入れた?ってなって消した >>427
返信ありがとうございます
ごめん、書いてなかったけど無料ソフトで探してた
さすがにモザイクだけのために金払うのはハードルが高くて…
>>435
返信ありがとう
GIMPってモザイクいけるんやな
早速帰ったら試してみます! モデルごとにsetting分けたいんやけどこれ一個しかsaveできんのか…?
元の数字忘れたからデフォルトに戻せなくなった 具体的なイメージ決まってるなら3Dソフトでマネキンをレンダするか
300円とかで売ってる適当なデッサン人形買って写真撮る方が素材サイトあさるより速そう
そのうちWebUI上で直接ボーンを編集したり、Blenderと連携できるようになればええなあ ゴールシーンを見てたソシエダサポはみんな思ったはず
脱がなくてよかったと 今こそ「ボディちゃん」シリーズの人形を推したいと思います!
(なお海賊版多すぎる模様) >>446
一旦config.jsonをどっかに退避してから起動すればデフォ状態のconfig.json作られるんじゃない
切り替えはめんどいけど入れ替えて再起動すれば良さそう おう早くゴールして歓喜のあまり脱ぐサポーターちゃんを描くんだ プロンプトで細部を調整する時代に回帰したな
そんで今更プロンプトの質問やけど、日本人みたいな小さい尻を出すにはどうしたらええんや?
ブラジル人みたいなサンバ向きのケツしか出ないわ
日本人の尻って書いたら背景だけ日本になった
https://i.imgur.com/4XQlCdK.png ControlNet無事導入できました
直前にLatent Coupleも導入したからt2i画面が戸惑う位に広大になってしまった
ふたつとも導入できたはいいが、さて何を描かせようか決めてないや😓 まだ2周遅れくらいに思っとったけどたぶん10周は遅れとるなワア… まさか3dモデルにまで手を出さないといけなくなるとはな…
初心者にオススメのやつってなんやろか?
上で出てるみたいにやっすいデッサン人形買って白か黒い布で囲んで撮るのが実は最強なん? >>413
krita使ってるけど全然使いこなせてない。
モザイクは細かさの指定も含めて普通にかけられる。 3Dモデル、最初は無料でも使えるスマホアプリとかでのスクショでも良いとは思う どれも元画像に著しく引っ張られてる気がするな
hedが1番再現性高いけど、モザイクとかいらんところまで忠実に再現しよる ボーン操作飛ばして構図自由の世界来てるやんけ
これ色で分けたら特徴混ざらずに何人でも出せるか? ワイペイントとフリーの画像加工サイトしか使ってない まさか前PCに置き去りにしたコイカツとカスメを引っ張ってくる事になろうとは 逆Semantic Segmentationやってんのかこれ
進化早すぎて脳みそ壊れる デザインドール、DAZみたいな割と扱いやすくて基本無料の3D人形もあるからそういうのもええんでない
MMDは操作性悪過ぎるしモデル弄るのにPMDEditorいるしめんどいよ colabで最新のwebui使うにはどうしたらええ? >>459
3dモデルはPCならデザインドールかposer、DAZやな
変化球でクリスタ導入してクリスタのデッサン人形使うのもありやが
でもアプリで色々あるからそれ試すのがええと思うで
背景は透過より白がおすすめや
ボーン認識されやすい 昨日まで大丈夫だったのに急に出力がノイズ乗るようになったわ
変わったことはControlNet入れたぐらいだが外してもノイズが乗る。
同じニキおらんか? QWOPみたいなの出てきて草
素の状態でやっとこれでLoraと併用すると奇形化不可避だわ
https://i.imgur.com/XUeggQs.png >>454
skinny body, small ass
ネガティブにthick ass, curvy
くらいでそこそこのが出るけどモデルにもよるんかな >>475
大人気スポーツ間違いなしやな
サンキューガッツ あかん、ただでさえよく分かってないのにこんな勢いで進歩されると赤ちゃん未満になってしまう 絵柄学習させてるんやが目がめちゃくちゃ濁るわ
絵柄学習ニキたちはどうしとるんや ガニ股loraサンプルはとても良いんだが
使いこなせん
ganimataがトリガーで良いのかな? 絵柄学習させてるんやが目がめちゃくちゃ濁るわ
絵柄学習ニキたちはどうしとるんや >>488
法線情報にしてstone statueってプロンプト突っ込めば一発やろ?
興味あるなら今夜あたり試すで 画風学習の目は最大の鬼門でプロンプトで厳密に制御したあと最終的にはガチャだわ
わざとdetailed eyes、beautiful eyesをネガに入れて描き込まれすぎるのを回避したりすると上手くいくこともある >>493
使用例見たいからよろしく頼むわ
一応適当に導入して輪郭みたいなんはちゃんと取れてるみたいやけど絵を維持してくれんな >>367の色分け画像をいろいろ試そうと
拡張やない本家を構築したけどうまくいかんわ
なんか色分け画像をそのまま処理するんやなくて
写真から色分け画像を作る処理を色分け画像に対してやってるみたいやわ 何を目的に書いてるかによるけど、仕上げにAI使うだけで一気に信用落ちるような風潮だからなぁ
有名所とかラフとか公開するだけで悪用される実害のがきつそう >>482
だいぶいい感じになったわ!サンガツや🍑 >>499
自分は拡張使っててsegに対応するプリプロセッサが無かったので
画像を自分で用意するって発想になって試したら上手くいったわ
本家は触ってない
そっちはプリプロセッサ込みなんやね >>496
逆にネガに放り込むんか
その発想はなかったわサンガツ >>494
線画のペン入れがめんどいのとカラーイラストは塗りが絵描きの特徴を決定付けるからそこまで朗報でもない
これ使うぐらいならラフから完成させてくれるヤツ使うから絵描きの道具としてはあんま出番無いで
それよりもマンガ彩色屋にとって革命だろうな 絵描きの道具としてはリファレンス集めとしての機能が一番やな >>504
gradioにsegのお絵かき機能付けたかったらしいけど
カスタマイズ性がカスで仕方なく実写画像のプリプロセッサわざわざ入れたらしいで >>397
俺もお気に入りモデルで どうにかまんこ描写がエロくならないかトライアンドエラーしてるだけで こんな使い方があるのかってビビってる タヌキプラモ→ControlNet→タヌキLoRA
...エエやん!
https://i.imgur.com/8suDRAj.jpg
https://i.imgur.com/mZvQLhG.png
https://i.imgur.com/v84OOI8.png
>>383
テスラの発表とか見てたら動画からリアルタイムで3Dモデル構築と物体ラベリングと動き予測しとるからな
アレが世間に降ってきたらヤバいで >>461
>>478
サンガツやで
色々見てみるわ
とりあえず無料からやな コロナ、インフルかかったりミクさん追いかけて北海道行ったりで10スレくらいぶりに見たら何かよく分からんことになってる
今の流行りは何? >>520
やったね
ADE20Kの学習用画像見つけたわ
https://groups.csail.mit.edu/vision/datasets/ADE20K/
Consistency setってやつに元画像と塗り分け画像のセットがある
ちょっとこれでテストしてみるわ ちょっと目離したらもう知らん単語出てきてて草
controlnetってなんですか? >>524
ポーズとか輪郭とか要点だけを使うi2iみたいな感じ >>523
なんぞこれやべぇ!
「手軽にエロい絵作ってキャッキャしたい」
という目的から、ずいぶん遠くへきたもんだなぁと再認識した これ、controllnetしたものをhires_fix通すと中間生成の白黒画像の影響を受けるんやな
hedにhires_fixすると、生成画像の絵柄が少し離れててもhires後は元絵の絵柄にかなり戻る
cannyだと二重線みたいな感じだから主線がガビガビになる >>479
Latent Couplesとか入れてない? 海外ニキが培養槽LoRA作ってくれとった 昔さんざん苦労したのになぁ
もう世界中のニキがLoRA作ってくれるからもうワイはLoRA作らんでもええんや……
https://majinai.art/i/ZpsbllT.png >>531
ええな
civitai探せばいいんか? 今日の新情報ひとまずメモ帳にぶち込んで帰ったら試そうと思ってるけど今日中に理解して消化できる気しない ポーズや構図を読ませるのに、ひょっとしてMMDが役に立つのでは?
ここへきてまたミクさんの世話になるんか 3070でもlowvramでControlnetできたわ
ツイまとめ導入サンキュー
エクステンションしてモデル入れるだけやからlora学習分からん🙉👶でも余裕やね 新情報多すぎて草、やっとcontrolnetの試せたわ
後latent coupleも試さねば…、JKと女教師共存させたい
教えてくれれば助かるんやがBREAK記法ってなんなんですかね? ふと思って
>>535の2枚目の画像をinputに入れて、
preprocessor を none にして生成したら
https://i.imgur.com/0kr1h4L.png
これを読み込んでくれて出来たわ みんなで同じポーズ作れるでこれ
何ならこの画像に値するものを描いたりモデリングして出力しちゃうとかも出来るんか…? >>542
BREAKって大文字でプロンプトにいれると75トークンになるまでトークンが追加されてそこでひと区切りになるので色分けがやりやすくなるんや >>545
姉ちゃんから1個や、母ちゃんは俺が8歳の頃に死んだからもう貰えん >>544
サンガツ!!
extensionとか入れずに1111の標準になっとるってことかね、試してみるわ
色分け以外に着てるものの区別とかはできない感じやろか? civitaiのモデルだとurl指定しても出てきてくれないから面倒くさいなhuggingだとダウンロードリンク入れるだけで楽なんだが https://tonimono.booth.pm/items/4548229
有料だけどもうBlenderでControlNetのキーポイント配置出すアドオンがでとるがな
世の中のスピード早すぎじゃないの… cannyは危険な香りしかせんな・・・超精度i2iやから画像貼るの躊躇するわ >>545
JSがチョコくれる絵を1枚pixivに上げた >>548
curl -LでcivitaiのURL直のダウンロード出来てるで
pythonのrequests使ってるならredirect=Trueで行けるんちゃうかな アクションフィギュア持ってないけどガンプラとかでもいけそうやね
買ったまま放置してたやつ素組みしてみようかな まだシンギュラリティに達していない段階でも付いていける人間なんて極々一握りなんやなって >>553
!wget -P /content/stable-diffusion-webui/models/Lora https://civitai.com/api/download/models/〇〇〇〇って感じにやってるけどそのcurl -Lはどこにいれるんや? >>555
過渡期ならではやね
もっと進歩するとスマホみたいになって誰でもついていけるんや >>407
それええな
スマホ写真のAI美顔レベルから始まって、ARゴーグルで世界が脱がし放題のエロ美少女も夢じゃない >>547
ちょっとは出来るんちゃうかと思うけど微妙かも
プロンプトエディティングでleft side right sideやるやつもあるけど完璧ではないかな >>561
latent coupleの話とBREAKの話が混じってるで アーリーアダプターのニキたちがいるお陰で技術は発展していくんや >>557
wgetと似たようなツールだから置き換えや
! curl -L -o /path/to/
chilloutmix_.safetensors https://civitai.com/api/download/models/7543
みたいな感じ
oオプションはファイル名まで自分で入れてる >>561
こういうextension使ったほうがええやね BREAKとかANDってLatent Coupleの独自実装なんか?それとも1111標準なん? controlnet extension版の棒人間ってどこかに保存されないの?
outputフォルダかと思ったらないわ
自分でいちいち保存しないとだめ? チャット系のAIの話題は流石にここじゃあかんか
専用スレ欲しいけど需要あるかなぁ >>567
tempフォルダに残ってるで
%userprofile%\AppData\Local\Temp >>568
Chatの話題は割とみんな普通にこのスレでしてはいるが、あくまで画像作成の補助や着想の為に使ってるって範囲を逸脱してあんまりそればっか多くなってもウザがられるやろし
とはいえ専スレ建てても集まらなそうですごく微妙なラインやねんな >>568
みんな関心はあると思うが専スレ立てるほど話すことあるんか?
Gのスレいつ覗いても同じ画像貼られとるし >>548
アーリーアクセスで金とろうっていうところだもの
どこかでサーバーと回線代金ねん出しないといいサービスにはならんし多少は我慢しとこ
グロや気持ち悪い動く不気味モデルとかのモデルやユーザーのHide機能とかめっちゃ有能やしね controlnet extension、クソアホツイカスが肖像権不明瞭な実写使って解説し始めたからまたトレパク云々で荒れそうや
某人間共有してくスタイルのが良さそうやな >>530
レスサンガツ
そないなextensionは入れた覚えないが確認してみるわ… >>569
助かった!サンガツ
棒人間とか食わせた画像ちゃんと把握しておかないと再現できなくなるなこれ >>502
めちゃめちゃ参考になるなあって読んでたら最後の方クソ笑った
でもたし🦀 DMMは意味不明な自主規制あるけど🎈もそのうちの一つなんやな >>502
風船の伝道師で草
もっと評価されるべき ここに詳しいニキがおるのかわからんがエロ絵も何だけど
声の方ってなんかある?ローカルとかで生成できないんかな…? なんかエラーが出てunpromptedインストールできねぇ
メッセージ読んでも原因わからんし詰んだ >>568
AIスレまた立てるのをもそれはそれでなぁ
既に立てすぎやろってキレてるやつおるし
あと多分エロ小説やらを吐き出させることになるんやろうけど規制回避手段が晒されることにもなるだろうからさんUとかのほうがええんちゃうかなと思わなく都内
規制回避手段広まりすぎるのはどう考えてもあかんし広まることによるワイらにメリットがまずない >>583
あるで
技術部ではもう話されとったな
声は嫌儲のほうが詳しいみたいやで
あと商用利用禁止なのにdlliteで使えるやんとかガイジが騒ぎまくったおかげで日本語関連のモデルはアップされてたのは消されたりしたし自力で学習しないとあかん感じになったで
つまりツイカスは糞 セグも結構扱いが難しいわね
セグに限った話じゃないけど、controlnetの画像生成って元画像にかなり依存するっぽいのが難点やな
あとcannyは線画レベルでスッキリしてないと上手く輪郭抽出できないみたい、まぁ当たり前だけど
scribblesは本当に大まかなイメージじゃないと全く認識してくれへん、現状1番扱いにくい https://i.imgur.com/vrSddAC.jpeg
インストールと、pthファイル8種類modelsのs-dフォルダに入れて再起動したんだが、ここでmodel選べないのは環境構築失敗?
毎度のことだが、新機能が出ると「成功したときの挙動例」が無さ過ぎて、環境構築有ってるかどうか、構築できてるけど使い方間違ってるだけかすら判断つかねぇ…… 今更知ったんだけどプロンプトに全角カタカナで「セックス」とだけ入れるとセックス出るし
「猫」って入れると猫だしてくれるんだな なんなんこれ‥
毎日毎日新しい要素ポンポン出すとか
通るかこんなもん!
本当に皆様には感謝しております
あの色で指定する奴とか革命ですね本当に‥ >>591
modelsの下でええやろ?
あと全部再起動ね 環境構築に失敗する原因の99%は説明を読んでないからやぞ controlnetの導入で質問があるんやが
githubのstep5に「2つのannotatorファイルをannotator\ckptsに置く」って書いてあるんやが、ckptsフォルダが見あたらないんや。
これは自分で新しくckptsフォルダを作成すればええんか?うまくダウンロードできてないのか判断がつかないんで誰か教えてくれるとありがたい
ちな1111とUnpromptedは最新版になってる 線画さえ描けば塗りはかなり短縮できるのはやっぱり絵描きにとって朗報だと思う
ようやく絵描きに役立つツールとしての側面がでてきたって感じ
>>591
ちゃんとエクステンションの方のフォルダにモデル入れてる? >>594, 595, 598
サンガツ!
言われて改めてみたらなんかやってることおかしいように思えてきた
本人は読んだ気になってるのが一番問題だった
これで2時間ぐらい睨めっこして合間で5回ぐらい読んでたんだぜ……
ちょっともっかい読んで、レスも参考にしてみる 塗りでも何でもパクれるようになって
手描きという情報だけがイラストの価値になる時代になるんやね ワイも再起動したらCN動いたわ
つか、モデル軽量化したらクソ軽いな
PowerShellの実行ポリシーで怒られたけど
あと入れるならミクビルにしとけ Unpromptの方はわからんけど
sd-webui-controlnet 拡張機能のほうは
stable-diffusion-webui\extensions\sd-webui-controlnet\models
に
https://huggingface.co/lllyasviel/ControlNet/tree/main/models
をダウンロードしていれる
1回目実行時にいろいろダウンロードされる
昨日わからんで寝て今日いじったら使えたのでwebui再起動せなあかんかもしれん
https://i.imgur.com/af0EOH9.png 改めてサンガツ!導入メッチャ簡単やん!
自分のカスさに泣いた! 本家よりミクビル版なのか
出来ることは一緒なん??? >>598
あとはレイヤー分けと、画像サイズが小さいという大きな関門がある
けどLoraと今回のこれでもっと増えるだろうな
研究熱心な人はもう既に試行錯誤してただろうけど もちろん人によるんだけど、世間のAI使用の落とし所ってどこになるんやろな
今だと仕上げにAI使ったり背景にAI使ったりした時点で、その絵師はAI絵師に格下げ+村八分
塗りをAIにやらせたとしても今のタイミングだと村八分にされるだろうし絵師からしたらデメリットのが多い >>602 >>604
Unpromptの方で唸ってたわ
ミクビル入れますサンガツやで! >>560-561
サンガツやで!BREAKも試してみるが、coupleも使いこなしてみるで〜 キモオタがどう騒ごうが労働力不足のアニメ業界は間違いなくAI使い始めるしそれが蟻の一穴となってAI排斥は崩壊すると思う 技術部知ってる人いたら教えてよ
東方とか東雲とかailabとかUDとは別のところ? 本家より劣ってそうだけどミクビル版の方が手軽だからコレでイイや
自分のモデルをcontrolnetに対応させようとすると何をマージすればいいんだ?
配布されてるのは事前にSD1.5へマージさせた調整済みモデルだよな? >>498
石化やってみたで
まずは法線マップnormalの方や
プロンプトはstone statue of 1girl
https://i.imgur.com/Ulzzcr5.jpg
悪くは無いんやけど石像特有の装飾が足されとる
実写画像向けの推定処理やからノイズが多いのが原因かもしれん
後はHEDを試してみたけどこっちはなんか色合いおかしくなるわ
https://i.imgur.com/BCCZdaH.jpg >>607
一発ネタかと思いきやちゃんと後ろのちっちゃい車輪付きのサンプルも上がっててさらに草 >>620
おー凄い
手が綺麗に出るモデルに使ったら手足完璧になりそう >>617
装飾を減らしたいならプロンプトにsimple clothes入れてネガにgorgeous,
decoration,
accessoriesあたりを入れるのはどう? >>617
サンガツ
結構ええやんnormalの方で頑張ったほうがええんやな
けどPreprocessorにnormalが出てこんのやけど何かやらなあかんのやろか 毎月革命が起きるから飽きひんわ
ゲームしてるときよりグラボが働いてる
>>612
セルからデジタルもスグやったしCGもみんな使ってるしな
労力削減は永遠の課題や
>>620
ChilloutとCNの出番やな >>608
レイヤー分けはパーツをパーツとして認識しなきゃいけないから難しいかもしれへんなぁ、現状のAIってその辺認識出来てるかどうか怪しいし
画像サイズといえばcontrolnetで参照元の画像のサイズと生成する画像のサイズが合ってないとエラー出るのちょっと不便やな >>626
まともなゲーム出てないのも相まってもはや専用機やわ pip installせんでもcanny動いたからええかって思ってたけどこれいれな法線マップとやらつかえんのかな? 絵描きからしたらAIが汚い線画を綺麗にしてくれたら楽なんやけどなぁ
塗りは自分でやって雰囲気作るのが楽しいからよ AIは線画弱いからなー
現代は塗りで誤魔化せれば上手い絵に見えるのが良くわかる >>624-625
よく考えたら最初に着衣石化なんていう高等呪文使わずに裸でやればええだけやったわ
ちなこれはextensionやなくて元のイリヤ実装のnormalで作っとるで
https://i.imgur.com/Rwyj1iA.jpg sex系の絵って皆どうやって出してるの?
Loraで出すのが一番簡単? >>635
ああひょっとしてextensionの方にはまだ実装されてないっぽいんかな
おかげでどんな感じかわかったで何度もサンガツ このレベルの中初歩的過ぎてすまんのやが
このLoRAをワイのAbyssOrangeMix2と一緒に使いたいんやが
https://civitai.com/models/8730/hipoly-3d-model-lora
LoRAとモデルをどうやって適用させるかわからんから教えてくれへんか?
もしくは入門者でもわかるように解説してるページあったらリンクほしい >>639
そのLoRAダウンロードしてloraフォルダに入れてwebUI起動させたら花札マーク押してプロンプト入れるだけや 1日だけですげー進んでてNMKDのワイ草葉の陰で号泣 >>639
1111の本体だけでやるなら stable-diffusion-webui\models\Lora にLoRA置いて
Generateボタンの下の🎴から呼び出せばええで >>639
ダッシュで今からやるで
報告するわサンガツ >>641
>>643
ダッシュで今からやるで
報告するわサンガツ 色分けで描かせたらAIでもレイヤー分け簡単にやりそうやな >>646
これで希望のキャラを彼女風にできるじゃん…やばいな… 構図のお勉強が必要やな
カメラの入門書でも読めばええんか >>646
ぱねぇ…
今までの苦労ってなんだったんや >>564
!curl -L -o /content/stable-diffusion-webui/models/Lora/clothes_paizuri https://civitai.com/api/download/models/7372
っていう感じにやったんだがLoraにできんかったけど何があかんのやろ 怒りで怒り顔文字が??に化けたわ
segは正しく指定してたらぶっちぎりで最強くさいな 実写をトリミングした画像食わせて服装lora作ったら胴体ばっかりで顔が出にくくなった...
解決策ある? >>646
可能性の塊であると同時に
やる事増えたなとまた腰が重くなる
まあLoraみたいにやってしまえば案外あっさりなんだろうけど >>641
>>643
くそデカ画像ですまんけど
最後の工程でグチャっと潰れてしまうんやがやり方か設定ミスってるんか?
ちなvaeは8400000のやつ涛K用してる
https://i.imgur.com/ObKrbgq.jpg 1月頭ぐらいまでは消耗しなくなってたスタイラスペンのペン先が
ここ最近LoRA用の素材加工でまた削れ始めたのにControlNet使うのにも必要そうで
なんか作業内容が一周してきよった >>634
これ写真をライブラリに通すと複数人居ても全部person色になるんやけど
もう一色 人に解釈してくれそうな色を見つけて塗り分けた
女性の手が描画されてるという事は2人が重なっていても自由なポーズで書けるってことや 今日は触る気にならへんなとりあえず貼られたURLブクマして翌日以降見よう…思ってたらブクマが山になってんよ segの色訳は、sd15のseg使うならADE20K準拠で色分けたら良いのか
そうなると当然ADE20Kで登録されてないものはSEG指定でも出ないってことで良いんかな? >>664
すまんこれ誰かわかるニキ教えてくれへんか?
このLoRAをワイのAbyssOrangeMix2と一緒に使いたくてやってみたんやが崩壊するんや
https://civitai.com/models/8730/hipoly-3d-model-lora >>664
civitaiのページに描いてあるTrigger Words入れるんや
LoRAは最低限それ入れないとまともに出てこない
後はtagsも完全に排除したい要素以外は一通り入れて試すんや >>670
なんか良い感じの雰囲気に仕上がってて草 >>669
画風への影響が大きいため強度は 0.5 前後から試してみることをおすすめします。って書いとるようやし
:1を0.5にしてみたらどうや リアタイでスレ追ってても浦島なるの草
ワイにとってはもうとっくにシンギュラリティ越えてる コントロールネットが急に使えなくなったんですが、どなたか対処方教えてもらえませんか >>671
>>674
ほんまにサンガツやで
いけたでえ
ついにLoRAを適用する事ができてしまった >>664
それとは全然関係ない話やが、大抵のモデルはCLIP1と2で生成される絵の方向性が違うから、CLIPはすぐに切り替えられるようにしとけ
SettingのUser interfaceにQuicksetting listに
↓
sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
って入れてwebui再起動や >>679
わいもや
一週間離れてたら完全な浦島よ sdscriptをpullしたら動かんくなって絶望したけど
なんか知らんがpullする前の状態に戻ったので事なきを得た
何が起きたんだ 今話題になってる色つけるやつで二人が重なってる絵も溶けないようになったりする? >>684
CLIPの数値ってどんな風に影響するんや?
さっそく適用して再起動したで! Mikubill版、segmentation選んだら ModuleNotFoundError: No module named 'prettytable' のエラー出るなぁ
そのせいか、思ったように出てくれない
https://imgur.com/mbf6p0O.png
https://imgur.com/iZToetI.png 久しぶりに更新かけたらWDtagger君がおかしくなった…
排除できるタグのトークン数って制限あるんかこれ?
「1girl,solo,virtual youtuber,blush,animal ears, reasts, tail, long hair, purple eyes, fox ears, fox tail,brown hair,two side up,」
っていれてもpurple eyesとかがキャプションに残るからすごい大変なんだ。
みんなどうやって除いてる?初歩的な質問ですまぬ。 http://dec.2chan.net/up2/src/fu1922023.txt
まとめてControlNetモデルを小さくする@Notebook
自分でやらなくてもそのうち誰かが🤗に上げるやろうけど >>634
これ指がちゃんと生き残ってるのやべえな 手足LoRAやばいやんこれ
かなりの確率で綺麗にでるで >>691
よっしゃ、 pip install PrettyTable でエラー消えたで!
……なんぞこれ?
https://imgur.com/Xng6nY6.png 「頭に浮かんだものを美麗な絵にするアプリ」がこんなふうに生まれたら、クソガキどものドヘタなクレヨン絵が絶滅するんか
そうか、そうなんか、、、 >>620
これすごいわキャラloraとも併用できる >>702
マジレスするとクレヨンで絵を描くのは脳内の構想を紙に表現するだけじゃなく子供の手先の器用さに繋がる教育でもあるのでそうはならない >>701
ミクビル版は導入簡単なのがいい点やな
更新待つしかないわ >>709
元画像を人の部分ざっくり平面のシルエットにするとかなり分かりにくいポーズだから
もっと細分化するしかないんちゃうか?
シルエットにしたとき人間の目で見ても想像するの難しいポーズやでコレ >>710
もうちょっと簡単なポーズでやってみるわ ミクビルのcontrolnet、さっきの更新で、画像からseg作ってくれる機能ついたっぽいで、マジかよ これLORAダウンロードするだけじゃだめでcivitaiに書いてあるトリガーワードもちゃんと保存しとかないと使えなくなるよな 逆さまの顔面も割りと整うようになるな
3Dっぽさは跳ね上がるけど openpose_handとかいうのも追加されてる?
でもどうやって使うんや 数日で浦島になるのも異次元の話だが数時間でさらなる進化をするとか笑けてくるんやが >>720
なにがどう違うんや?
めっちゃきれいに出るやん civitai開くとGPUの3Dが全開になって絵の出力が止まるのなんなんw >>722
このhuggingfaceのADE20Kで出力しなおした
https://huggingface.co/spaces/shi-labs/OneFormer
色が違うと別のobjectに変換されるんや
>>352の一枚目をみてくれ 言い忘れとったけど、
>>646
のsegへの変換は、Task Token InputとModel両方一番右にするのが正解な気がするで そのうちその指定の色とプロンプトを結び付けられるようになるんやろな >>724
ようやく352の意味が分かったわ
今まではテキストのプロンプトで細かい場所の配置は指定できなかった
352により場所の指定を細かく出来るようになったと理解したで
他にも色々あるんやろうけど赤ちゃんにはこれくらいの理解でええやろ segとposeが同時に使えればだいたい解決しそう >>730
3Dモデルからi2iで思い通りの絵を作ろうとして挫折したのが2ヶ月前やが
何か出来そうになってて笑えるでほんまに‥ 導入楽やし機能アップデート早いしControlNetはMikubill版が定番なりそうやな 前スレの仰け反りこっちにも上げといたで
DL増えるたびに通知来るの結構きもちええな
https://civitai.com/models/8756/nokezori なーんかサイズ関連のエラー出るなぁって思ってたけど、生成時の画像サイズを512×768にしたら普通に生成されたわ
もしかして比率決まってる感じ?
segでもさすがに複雑なポーズはごちゃるな
自撮りM字開脚は作れた
https://i.imgur.com/Ah2NQ26.png モデルとプリプロセッサは合わせないと良い結果が出ないみたいなんやが
それじゃあなんでわざわざ別々に選択させるんや……? Loraって入れるだけじゃ使えないんやな
modelから読み込んで何かDLして生成したらエラーで生成出来ないンゴ…
すまんこれどうしたらいいんや… >>742
調べなさすぎにもほどがあるわ
LoRAはモデルじゃないぞ >>742
models/LoRA の下において、🎴をクリックや Controlnetの8GB or belowって6GBでもいけるんか? 素のモデルだとポーズ再現し易いけど、
過学習してるようなloraだと画が破綻しやすくなるね。 すまんが助けてくれ……xfomers入れようと弄ってたら
Stable Diffusionは起動するけど、画像の生成ができんくなってしもうた
下の画像みたいなメッセージがでるが、もう最初からインストールし直すしかないか?
https://i.imgur.com/yzSPVVc.png >>745-747
ほんまや
ワイアホすぎたすまん >>750
そういうエラーログの場合って、大抵エラーログの出始めの部分から紐付いてエラー出てる印象はある
ログのもうちょい手前見ても良いかも
ただ、やたらと「un(not)supported」の文字が見えてるのが気になる >>692
purple eyes→purple_eyes
カンマの後ろにスペースをいれない
スペースをアンダーバーにする そういや_の使い方がイマイチわからんのよな
half-closed eyesとかもやけどhalf-closedとかhalf_closedとかhalf closedってそれぞれ区別されとるん?
それとも別々の単語として認識されるん?
danbooru tagのアシストの奴に表示される単語の_って入力せなあかんの? ControlNetなんとなくわかってきたわ縦横比は元サイズと同じなのがええのかな
全然違うポーズだしたりするなw reg使ってもi字開脚は体と脚が重なるからうまく認識してくれないな >>752
ありがとう
こんな感じや……あとはなんかfileがないみたいなのが延々続いとる
https://i.imgur.com/ZiUWH6a.png
>>754
ありがとう
3060やからそれは大丈夫やと思う 実際は世界が始まるんだけどな
エロ漫画描けるようになるのが楽しみだ https://i.imgur.com/1K0AoPv.png
誰かこれでi字開脚画像生成できない?
Y字は身体と隙間があるからいけるけどi字はダメだわ >>762
空のタグがあるとエラーになるよ,2つづいてるやつがない探してみ >>762
なら、入れるxformersを間違えてるっぽいけど、自動で入ってるん? >>639
>>643
ええなぁ
Loraフォルダ見当たらん・・・
stable-diffusion-webui\modelsの次に
Loraフォルダ作る必要あります? あー多分わかったわ 元画像→プリプロセッサ→モデル ってことか
普通に使う時はプリプロセッサとモデルを合わせて
>>720のような画像を拾って使う時はプリプロセッサ無しでモデルだけ合わせればいいのか >>768
1111のバージョンが古いとかはないか? ワイはとりあえずBingちゃんへお願いする時の文章を清書してるわ
でもcontrolnet活用しだすとプロンプト簡潔でもええんよな >>768
ワイはwebui更新したら勝手に作ってた controlnetのsegいじりたいんやがエラー出るんや
pretty table 入れろや言われて、pipしてるのに毎回入ってへん言われるねん >>762
あと、xformersに必要なtritonが入ってないって言われてるぞ >>764
一本足の妖怪がUFO!の振り付けしてるところかな? >>765
サンガツ
探してみるわ
>>766
ガチで素人やからわからんのやが
としあきwikiに書いてあるWebui Userの編集したらOKって書いててそれ試してもあかんから
色々調べてAnacondaとかpytorchとかPython一回消して入れ直したりとか色々入れてたからそれであかんなったんかもしれんわ >>620
愛用してるloraとぶつからず出力も綺麗でかつエロエロに仕上がる
サンガツやで!ほんま! >>773
venvに入って(activateして)から入れてるか? >>762
1girlだけで生成流してるっぽいし、プロンプトにコピペでたまに入っちゃうような¥tとかもなさそうだし、生成開始の0%時点で躓いてるから、プロンプトはいけてそうに見えるんだけどな……
環境のバージョン周りなのかな…… >>770
>>772
更新後再起動して待ってたら出ましたありがとう >>762
とりあえずエラー内容は気にしないほうがいい
よくあることよ
全て無にしてから再導入するだけさ >>776
windowsなら、webui-user.batにCOMMANDLINE_ARGS=—xformersと書けば勝手に入るはず(俺はwindowsじゃないんで、はずとしか言えないんだが) >>768
無かったら models/ と同じ階層に自分でフォルダ作ればOKやで 1週間見てないだけで浦島なんやがControlNetって何なんや? みんなワイみたいな赤ちゃんのミスに付き合ってくれてサンガツ
明日も仕事やし結構前からガチャガチャしてて頭もう回らんから寝ることにするわ…
明日時間できたらwiki見て全部1から入れ直してみるで
モデルとかLora退避すれば時間を失うだけで済むやろ…
ホンマありがとうな なんか50枚くらい一気に出力するとseedがずれる?
50枚からお気に入りを見つけて
PNG infoで読み込んで再生成しても違う画像になる 何か出力し続けると顔とかに謎のノイズ出るけど対処法あるんか? Envelope (Outer Fit)とScale to Fit (Inner Fit)って
元画像が長方形の時にどうするかって設定やと思うんやけど
広げて正方形にしたいときはどっちを選べばいいんや?
なんかどっちも切り落としてるみたいなんやけど >>792
手描き棒人間でいけるのかw
これは写真とか絵でレイヤー作って自分で棒人間トレースするんでもいけるんやないかw >>778
そういえばそんなんあったな・・・
赤ちゃんですまんかったで hedとcannyで出力画像サイズ大きくすると色がイカれがちなのワイだけかな?
人間を認識してないような緑とか茶色になる まだ脳みそが赤ちゃんだから着エロより肌色が多い方が好き >>712
毎日スレにいるのにちょっと散歩してる間に浦島太郎になるやん…
というか向こうがクロックアップ使ってるわこれ >>795
大真面目にキャラをLoraすりゃ破綻なく漫画作れそうやなって rentry落ちてるんかな
いろいろ情報があるのに
困る しかしここまで来ると、逆に原点回帰してモデルデータの潜在能力次第に思えてくるな
いくら原理上は棒人間で正しいポーズを指定できるとはいえ、モデルデータ側にその学習データが無かったら出力困難だろうしな 棒人間描いてマスピ絵できるのって冷静に考えて夢あるな
ドラえもんの道具みたいやで 解像度高くするともれなく崩壊した絵が出てくるのなんでなんや?
プロンプトがだめなんか? >>805
ハイレゾ無し出力は基本的に一辺1000越えた辺りから破綻しやすい印象はある I字バランスこそまだプロンプトでやらせたほうが強そうなんやな
でも新技術は夢があってええな
横目にLoRA重ねがけしてたら妙に艶めかしいアナルが爆誕してた
それぞれのLoRA単体やと普通のぽっかりやし
Gape60本来の味気ないぽっかりでもないしこんな穴が何故生まれた…?
https://i.imgur.com/CGm7uYf.jpg
https://i.imgur.com/PCLF9U5.jpg
https://i.imgur.com/KsDx4rU.jpg
https://i.imgur.com/GnzqN17.jpg masterpiece, best quality, mountain, sky, lake, grass
https://i.imgur.com/erIDwal.png
https://i.imgur.com/cGRWCDd.png
すげぇわこれ風景もコントロールできるのは革命だな
なんか立ってるけど さすがにこういうのは上手く色分け出来ひんな
他のプロセッサー使ったほうが良さそうや
https://i.imgur.com/koIA2Jo.png >>756
_はトークナイザが勝手に切っちゃうはずやで
スペースやと close d eye s で4トークン
アンダースコアやと close d _ eye s で5トークンみたいな、トークン無駄遣いやから良くない的な話聞いたで >>808
たけのこマンみたいなのが幻想感ぶっ壊してて草 >>816
手が前に来るしゃがみポーズちゃんとそれっぽくいけるの良いな
このポーズ指定して狙っていけるのはデカい XYZプロットでControlNetの調整を変えられるようにならんかな >>786
pythonとそれに関連するアプリ(アナコンダなど)全部アンスコ
Cドライブのそれらのフォルダがもし残ってたら削除
webui全部削除
PC再起動
pythonインスコ
webuiインスコ
これでも行けなかったら知らん >>811
幅と高さの比率とプロンプトが合ってないんちゃうかな しかしアレだな
まだプリプロセッサ指定をnoneで使ってると、一定回数ごとに挙動バグり出すっぽいかな
その都度一回何かプリプロセッサ指定して、通常画像読み込ませたらまぁ使えるが >>808
あらゆる出力絵に表れてその度にだんだん近づいてきそう 教えて欲しいんやけどlora入れるのに
あかちゃんインストーラーをローカル1111で使った場合
同じくあかちゃんインストーラー使った方がええの? もうだめだ俺の赤ちゃん脳みそじゃこの新技術の波についていけねえ >>812
まじか
ならdanbooruタグの_は入れんでええ罠なんやな >>829
*2みたいな倍率でやってるなら大丈夫やけど
hiresの解像度を指定している場合
元が縦512x512なのに出力を1536x1024とかにするとぶっ壊れる
元の解像度の縦:横が4:3ならhiresも4:3にせなアカンってことや >>829
例えば人を複数人描いて欲しいって時に横が狭いと窮屈やろ?
そういう時に崩壊しがちやで >>839
2倍にしてたんやけど崩壊するンゴ
>>840
ちょっと人数と横幅調整するわ >>842
ノイズ少なめのlatentとかしてるんと違うか
まじないにあげてアドバイス募集するのが早いで LORAが性能と手軽さのバランスがちょうどいいな
DBはやっぱりモデルまるごとなのが重すぎた >>816
こういうpreprocessorで生成した棒人間画像って保存するのどうやるんや?
ブラウザ右クリックとかから保存するしか無いんやろか >>846
個人的な感想やけど
ツルッパゲ人形使うときは髪があるはずの部分の輪郭、特に頭頂部の輪郭を消した方がええと思うんよな
髪があるなら現れるはずのない線やし ControlNet全然うまくいかんのやが
動作はしてるっぽいのに生成された棒人間が全然元絵の通りになってない >>846
ブラックホールマンかよw
何気に顔がおっぱいのキャラって人生で初めて見たわ
AI凄い >>816
最後のキャラええなあ
こういう男まさりな動きする戦闘美少女すき
アニメでも殆ど居ないんよね civitai端から端まで漁ろうと延々下見てたら滅茶滅茶動作重くなるんやな
当たり前やけど ControlNet上手くいかんと思ったが
>>816の仮面ライダー読み込んだらちゃんと動作してたわ
背景白で人物は結構黒とか強い色じゃないとダメなんかね
白い服着てる画像を読み込ませたら全然ダメだ >>851
最初は簡単な直立とかで動作確かめた方が良いと思うぞ
棒人形どおりに行かないのはそこそこあるとは思う
あとは、棒人形ならmodelもちゃんとopenpose選んどかないとダメではある 昨今は自然言語が最強のインターフェイスだ!なんて言われてるけど
結局非言語に回帰してるのおもろいなぁ ここ1週間で可能性広がりまくりだな
あとは奥行き認識してくれたら最高だな
以前Twitterで生成した画像の通路から手前に景色が進んでいく洞窟みたいに立体的になってる動画見たけどあんな感じのは流石に無理かな 事実上のガッチガチのi2iには興味がないぜよ・・・ しかし技術が確立してしまったのに、今さらt2iの鬼ガチャやっても虚しいわけで・・・ そんな嫌わんでもええやん。こうやって発展することで「ポーズ・手指モデル」みたいな物が作られて汎用で使えるようになるかもしれへんで
実際もう、皆上げてる輪郭線データなんて格好のAI学習用素材やん 精度が上がるほどガッチガチになってくるとは思うけどな
あとは重み調整でガッチガチを意図的に緩めるぐらいか
>>865
そこはガチガチ嫌ならガチャ楽しめるんじゃないのかw 出力だけじゃなく学習もこういう情報とセットでやればかなり精度上がりそうだよね
やれるところがあるかわからんしオープンソースにしてくれるかもわからんけど t2iの結果を棒人間いじって微調整出来るとええ感じやと思う >>816
これ最後のやつスレンダーなジーパンの黒髪ロングのほうがエチエチやと思うんや スマホで棒人間描いて絵を出せるなら、幼稚園児でも大人と変わらない絵が描けるって事だし凄すぎ
来年にはそんなアプリが当たり前になってるな
いや今年中か 自分で描いた棒人間を更に雑コラしてみた
https://i.imgur.com/aHZynI7.png
プロンプト:nsfw,girl
https://i.imgur.com/ar3AT7X.png
まだグチャってるけど、いままで容易に出せなかったポーズがいけそうな気がする!
早く片足上げたところにバイブぶっ挿したい! >>873
この調子で進化するとマジで手書きイラストは物好きが趣味でやるモノになるだろうな
営業頑張って有名人になって、○○さんが手書きしたってブランド付けてようやくって感じでは アフィカスさぁ
せめて自分で生成したやつ転載したらどうなんや ワイは元画像用意するの怠いからあんま魅力的に感じないけど精度高い構図作りが出来るのを求めてる人がいるのは分かるしええんちゃう🙄
AIはズッコケが出来ない!って言われてもすぐお出しできるやん >>865
t2iの利点は安定プロンプトがあれば大量生産できるとこやからな
この技術でそのものズバリの一点モノを作って加筆修正加えてる間に大量生成
あるいは構図が思い浮かばん時に生成して見繕ったりするためのもんや 今までのi2iは元の絵柄に引っ張られるから3Dで作った画像のポーズだけ引き継ぐってのができなかったけど、これでできるようになったからマジで革命 しかしこの技術のおかげでプロンプトではどうしても作れなかった体型が作れるようになったのはデカいな ハイポリLoraめっちゃ指綺麗になるやん!
bad_prompt含めて今まで色んなの使ってきたけどこんなに効果感じるのは初めてや 両津がVtuberやる話みたいに
自撮りでドチャクソえっちポーズ作ってるおじさんいるでしょ CivitaiにヤマトLoRA貼ったら7thanimeV3のリンクくれって言われたんやが
これ勝手に7th作者のHuggingFaceのリンク貼ってええんか? アフィカス来たから技術部に逃げたんやけど誰も反応ないから戻ってきたわ
棒人形に指を出す方法があるんや
プリプロセッサにopenpose handを選んでモデルは普通のopen poseや
これ効果が分からんから検証してくれんか?
モデルをhandにするとめちゃくちゃになる
使えるパラメータとかあればええんやが…… >>891
それまだ学習中
Controlnetのモデルが完成してない >>892
速攻で解決してもうた…残念やが将来は期待できんのかな… やっと prettytable のインストール出来てseg動いたわ…
仮想環境へのアクセスとか浦島すぎて覚えとらんかったわ
やっぱ一つ一つ知識として吸収しとかんとあかんのやなって >>890
色んな人のレビュー欲しいみたいなこと言ってなかったっけ
使う人が増える分には構わないんちゃう? >>893
論文では実装されてる
あとは拡散モデルにどれだけ学習できるか
論文出て1日でここまで来たからすぐいけると思う 上のアウアウと同じになっちゃうけど、Twitterの連中が実写を例にだして拡散しちゃったから
i2iだの肖像権だの色々言われそうな気配はある
まあ自撮りかフリー素材のボーンで出せばヨシ!
https://i.imgur.com/ESyr8lU.jpg 無能赤ちゃんな質問ばっかして悪いんやけど
additional networksでLoRA入れた場合ってプロンプトにhiqcgbodyみたいな呼び出しワード入れなくていいん? >>897
調べたらそもそもポーズにも構図にも著作権はないらしいやん
顔も輪郭も一致せんし服装も背景も変わるわけやし
何言われても無視でええやろ >>895
ここ見てくれたらてっとり早いんやけどな
取りあえず待っとくわ 寝て起きたら棒人間を直接いじれるようになってそうやな
Blenderは顔も見たくない ハローアスカぐらいから気絶してたけど発展しすぎやろ、週末環境再構築しよう >>901
何があったんや‥
キャラ動かすだけなら3Dポーズ系のソフト何でもええけどな
1111に直接fbx入れられたら早いわ このcontrolnetとやらも覚えといた方がいいヤツやな…
ようやくLoRAを覚えられそうというのに流れが速すぎるで スマホでフィギュアとってデプス画像取得してそのまま流し込めたらいいんやけどな >>900
まあそんなに気にするなら🤗でそのままの名前で検索すれば出てくるって言えば良いだけだけどな controlnetのweightってどこかに記録されないのかな?
メタデータにもテキストにもないわ
いじって生成したら再現できんくなるな AI画像にゃ著作権ないやん?
i2iした画像をもう一度i2iしてさ
なんか言われたら拾ったAI画像をi2iしましたって言えば最強じゃね? >>909
Deep learning の時代はこうやでと言いたいんやけどコーディング自体はそんなに関係ないから言えないの困るわ
論文の量は活用されてクソほど増えた
コロナとか分かりやすいわな
早すぎやで…… まだ判例は無いけどAI生成物に著作権が認められる可能性があるケースも存在するから
その言い訳が通用するかは裁判所で聞くことになるかもな >>908
その手があったか 何故か思いつかなかったわ Stable Diffusionが一般人でも使えるようになった事でAI関連への注目度が大きくなってる気がするわ
ワイ自身一年前だったらchatGPTが出たって話を聞いてもお前を消す方法とかキャッキャするだけで終わりだったと思うし こういう画像がいっぱい投稿されているダークウェブをご存じの方いますか、お願いします
258 名無しさん必死だな (ワッチョイW 09da-RQ5B [220.144.108.211]) sage 2023/02/14(火) 22:45:42.88 ID:TXVOGRzD0
もうAIで良くね?(´・ω・`)
tps://i.imgur.com/DyTPUeF.jpg
tps://i.imgur.com/fBESLJf.jpg
tps://i.imgur.com/biWvw02.jpg
tps://i.imgur.com/LLRUZfg.jpg
tps://i.imgur.com/wLaDiRi.jpg >>917
Twitterとか言う悪い奴らが集まる所で見かけたな >>917
君が投稿する側になるんやで
こっちにおいで🤗 作りたいけど未だにwebのnovelAIしか使えないんです、韓国系サイトですね、探します basil mixのデモ版がある時点でスマホでも今すぐ作れんのに
と言うか詳しくなかったからcolabを使えばWebUIがスマホからでも動かせるって知った時ビビったわ 他人にいじらせるより自分でいじらせたほうが勝率高いな
https://i.imgur.com/Q6fVAE3.jpg
まあ一人ポーズで完結するしControlNetでやったらって言われそうだけど
LoRAありとはいえt2iで出るロマンには代えがたいからヨシ! >>917
なんか知らんけどテレグラムってSNSが人気らしいよな >>877
普通に無料で使えるスマフォアプリがバンバンリリースされちゃいそうね 実写系の元画像3000×4000とかバカでかいけど最初どれくらいのサイズで生成してるんだろ
崩壊しやすいし512をHiresで1024にして更にアップスケール?
それとも元から1024とかで作ってるのかな ロリキャラLoRAでも年齢タグで大人にしたりできるの今更気づいたけどしゅごい/// >>930
逆に考えるんや、どんなおばさん&おじさんLoRAでも未成年年齢指定できるって事やで やっとlora使えるようになったのにお前らはもう遥か先を行っとる controlnetやっとわかった
preprocessorに対応したモデルじゃないとダメなのね全部落としてくるかw 背景はseg、人物はopenposeでナンボでも好きなシチュエーション作れそうやな
あとはOpenPoseの棒人間を簡単に描ける・動かせるエディタがあればめっちゃ捗りそう 寝てる起きる間にスレと技術が進んでて追いつけない
少なくともこの2日ぐらいで、ポーズ集買ったり棒人間描くだけで作れるようになったんだな?
4日前ぐらいにズッコケが描けないと批判されたばかりだと言うのに ただ単に「ズッコケが学習されていない」っていうのが現実だけど、対立煽りしたい人や誰かにやってもらいたいアスベやコミュ障は
「コケ描画できねーじゃん!」「指もまたぐちゃってるし!」って小学生並みの書き込みするよな
ここの住人のほとんどはLoRA使えばすぐに学習させることはできるが、そんなのかまっていると時間がいくらあっても足りんのじゃ!っていう感じだもんな
俺もやっとLoRA落ち着いて、pthも落とさなきゃならんしCivitAIも巡回したいし、壁穴(&Behind)もわかめ酒もまだなのに馬並みペニスも階層マージに入れて試したいし…
ブレイクスルーはもうちょっとゆっくりでもいいんやで・゚・(ノД`)・゚・ ミクビルのimg2segってのはどこにあるの?segを作れる機能? control_sd15_segはPreprocessorをnone指定で機能する controlnetよくわからんまま雰囲気で使ってるけど落書きしてもええ感じにやってくれるのしゅごい…
普通のお絵描き道具持ってないマンだけど
これもしかしてペンタブとかipad用にあっぽーぺん買ったらもっと楽しくなるのか? https://i.imgur.com/UCsilFN.jpeg
しゅまん
誰か力を貸して貰えんやろか
ミクビル版を書いてある通りにインストールして画像生成しようとしてるんやが
こんなエラーが出て効いてくれん
どこが間違ってるんやろか? >>714
説明読む限りこれは8頭身化LoRAみたいだけど指用として使ってるの? 自決したわ
寝不足で意味わからんことやってた
すまん >>944
そのモデルはただのsdモデルやろ
controlnetのモデルdlしてこい >>944
extensions\sd-webui-controlnet\models\ にはこのモデルを配置
https://huggingface.co/lllyasviel/ControlNet/tree/main/models
普段使ってるモデルは動かさなくておk >>949
せやったありがとう
アホすぎてしにたい 既に何度も同じ質問があったらすまんのやけどextract_controlnet.pyでsd1.5とcontrolnetを分離するとvram消費抑えれるってレスをwikiで見たんやけど具体的にはどうすれば分離出来るか教えてくれませんか?
controlnet自体の導入は昨日やって成功しとるしvram12gbの3060でもいまんとこ元気に動いてるんやけど余裕は無いと思うのでいらない所は削れるなら削りたい所存
webui-user.batのどこかに書けばええ? contolnetって二次絵を元にやるならsegってのがええのかな? >>694
>>952
ワイには何も分からんけどこれは? 昨日から公式オールインワンパックで参加した赤ちゃんなんやけど
配布loraだけでロリキャラに特化できるんやろか >>954
確かにextract_controlnet.pyを走らせてるしこれっぽいのは何となく分かるんだけどワイもパイソン分からんし赤ちゃんやからこれを何処に入れたら実行されるのか見当もつかんわ
脳味噌をちんちんと金たまに吸い取られたシコシコ民には高度すぎるな
レスくれてサンキューやで condombelt-5500って今どうやって導入するんやこれ? 今って1枚画像作るのに数秒かかっちゃうけど、1秒間に30枚作れればリアルタイム動画生成が可能なわけで
下手したら来年ぐらいには出現するかな
もしそうなるとリアルタイム視聴で、now! pussy!pussy!とかプロンプト叫びながら楽しめるんだよな
動画の概念が変わるわ
エロ英単語はマスターするに越した事はないな >>816
最後から表示してったからスパイダーマンだと思ってた さっそくBlenderで棒人間だせるアドオン作ってくれた人おるみたいやな
https://toyxyz.gumroad.com/l/ciojz python extract_controlnet.py --src 元pthファイル --dst 出力ファイル.safetensors
で動くはず コイカツからopenposeを書き出すmodがほしい >>962
はっや
自分で作ろう思っとったけどこれ貰うわ
サンガツ LoRAでのキャラ学習で過学習気味になる時の改善方法って、
フォルダの前に付ける数字(繰り返し回数?)か次元数かどちらを変えるのが効果的かな?
今のところ、フォルダの前の数字は20、次元数は128で回しとる
どちらかorどちらも減らすのがええかなと思うたんやが、Lainの人は素材数多くても前者は40で固定してらっしゃるんやな >>860
これもControlnetってやつなんか? >>976
additionalスクリプト使ってたらプロンプトにいらんで >>987
普通に内容だけ書けばよかったのに
スクショ元のスレが流刑地やから。。。 >>985
ワイらは金のためやないんや!
情熱でやっとるんや!
(性欲満たすためにAIのあらゆる方法を模索する業深き者のスレやで) >>980
俺は次元数減らしたら解決した
学習ステップ数を教えてくれないとこちらからはなんとも言えんが このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 11時間 27分 43秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。