X

なんJNVA部★153

レス数が900を超えています。1000を超えると表示できなくなるよ。
1今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1b88-3AGg)
垢版 |
2023/02/19(日) 07:58:16.33ID:69o2JsK/0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★152
https://fate.5ch.net/test/read.cgi/liveuranus/1676652520/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
2023/02/20(月) 08:53:51.32ID:9oifydhF0
うむ
棒人間はあくまで画像から起こすとき用だと思ったほうがええな
819今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アウアウウー Sa49-lFLR)
垢版 |
2023/02/20(月) 08:54:30.63ID:o2bnZLfBa
>>779
それか!サンガツ
2023/02/20(月) 08:54:57.23ID:fwgZKSMK0
Loraってやっぱり切りにかないとあかんのか?
サ終のソシャゲの画像そのまま突っ込んだら文字とか背景の額も反映されて出力されてるわ
後単なる着せ替えになる…
2023/02/20(月) 08:55:54.38ID:GSBwv3Rf0
棒人間の利点は、大まかなポーズの方向性を真似るだけで体格とか具体的なポーズはランダム性高いから、ガチャ要素が楽しめたり表現が柔軟に出来るのはあると思う
2023/02/20(月) 08:56:12.40ID:PjzNqQw4p
去年の12月くらいからスレ自体は追ってたけどようやく環境整えてloraの起動までは出来るようになった
でもここからが地獄の一丁目みたいなもんやな…
学習とか以前にPCそのものの知識が全く足りてないのを痛感するで
2023/02/20(月) 09:02:33.73ID:Bfl7G9voa
ベジータどころかヤムチャやねんけど。


ところでwebuiのダークモードってアドレスにstyle云々しかだめ?
settingとかで出来へんの?
2023/02/20(月) 09:07:19.04ID:EajdiaDB0
>>817
>>271ニキのは参考にしとるが素材が背景わちゃわちゃで自動タグ付けやったからそれが原因かもしれんな
2023/02/20(月) 09:07:52.89ID:evJiJ93Z0
顔だけ学習で後ろ髪が特徴ある形状の場合首を消して髪を描き足さなきゃだめかな
肩あたりを書き足すべきかな?
826今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アウアウウー Sa49-lFLR)
垢版 |
2023/02/20(月) 09:09:14.63ID:o2bnZLfBa
loraのピーキーな適用してるとcontrol netは棒人間以外のやつ使えなくなるな
loraが剥がれてもとのモデルが出て来ちゃう
2023/02/20(月) 09:12:34.41ID:lksJhfwud
>>820
立ち絵一枚突っ込んだだけやとコピー機にしかならんで
そこで
>>605
生首ニキの方法や
2023/02/20(月) 09:16:01.60ID:fwgZKSMK0
>>827
37枚突っ込んだけどあかんのか
切り抜くの大変そうやな…
AIが勝手に切り抜いてくれればええのに🙄
2023/02/20(月) 09:18:34.90ID:qTV22tk90
>>828
過学習なだけの可能性もあるで
ほぼ未加工でやってるけど色々出せてるわ
2023/02/20(月) 09:18:42.62ID:lksJhfwud
>>828
ありゃそんなに枚数あったら逆に何もせんでええはずよ
taggerのタグ付けそのままでもわりといける
面倒ならあんまりごちゃごちゃした素材はもう外す
2023/02/20(月) 09:19:52.63ID:BL3afozz0
生首法、切り抜きどんな感じで(ツールで?)やっとんのかな
ワイ通常ケースでの背景抜き後修正でもひぃひぃ言っとるから最低1枚でいいんだろうとは言え気になるで……
2023/02/20(月) 09:25:30.57ID:lksJhfwud
>>831
gimpあたりでええと思うけどね
一枚だけがんばって切り抜けばあとは拡大縮小回転のバリエーションだからすぐ慣れるよ

さらに愛があれば、目閉じ口開けあたりパーツを他の似た絵からコピペして水増しすると汎用性上がる気がする気持ち
2023/02/20(月) 09:28:30.47ID:x814GzkH0
ワイも動画作っとるけど、棒人間ええな
これまで不可能やったシーンが一発で作れた

ちなt2iで200枚ちょっとを1バッチで出力
要らんコマを捨てて動画編集や

https://i.imgur.com/Ucp9Ps3.png
https://i.imgur.com/3efR3ag.mp4
2023/02/20(月) 09:29:13.22ID:9oifydhF0
seg法でもなんか顔の向きとかは怪しいなあ
横向き指定しても思いっきり前向いてくる

まあ腕と脚をある程度指定できるだけでも御の字か
2023/02/20(月) 09:33:26.35ID:iMoj7ZydM
>>815
単体だとそれしかないんかな
サンガツ
2023/02/20(月) 09:34:49.56ID:iMoj7ZydM
>>834
横顔とか斜め顔はAI苦手よな
lora作ってるアニキおらんやろか
2023/02/20(月) 09:35:37.18ID:MPxmYi5Oa
とりあえずワイは黒髪が好きなんやなって事だけは分かった
出力はそんな好みやないなあこういうモンなんかな
838今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 4554-oojT)
垢版 |
2023/02/20(月) 09:35:58.28ID:vqg1tV4t0
キャラ学習なんやが後ろ姿の画像ってちゃんと入れたほうがええんかな?
from behindとか後ろ姿がメインのとき服が前向きの背中とかでるんや
2023/02/20(月) 09:38:44.24ID:0K60E01Fd
その生首法ってのはどういうのなんや?
wikiにもないし、元レスのスレ番とかわからんかな
2023/02/20(月) 09:41:54.25ID:O/d00loc0
>>838
ぶっちゃけ正解はない
もちろん素材はあるに越したことはないけど、後姿の画像のキャプションちゃんと区分けしないと指定してないのに背中が出てきたりするで
2023/02/20(月) 09:43:08.74ID:JpJKsDUd0
ここ数週間、寝る前に学習素材用意して学習ぶん回して
職場からリモートで画像を延々と生成するループから抜けられない
2023/02/20(月) 09:45:40.49ID:zNCUxRQE0
3DKX V2 出てるんか…今日リーク NAI の全 checkpoint の違いを調べ始めようとしてたワイの時代遅れ感
2023/02/20(月) 09:49:50.93ID:UYRT0hky0
>>839
>>605
文字通り生首素材や
2023/02/20(月) 09:50:07.03ID:OBALav/VH
>>839
顔面だけ覚えさせたい時に、そのキャラの生首だけ切り取って学習させる方法や
2023/02/20(月) 09:53:20.80ID:9oifydhF0
生首をどう生成するか、どういうメリットがあるか、ってことやと思うけど
生成方法はなんか>>477 >>487でええんかな?
2023/02/20(月) 09:58:05.09ID:0K60E01Fd
あー、なるほど
首と髪だけでいいのか
そんで、その画像を左右反転・大小サイズで水増しして学習させると
わかりやすい方法だわ
2023/02/20(月) 09:59:53.80ID:9oifydhF0
>>545ニキのpmxをBlenderに読み込むのは問題ないんやけど
fbx変換してもblendファイルをそのまま読んでもUnityだと
こんな腕になってまう
https://i.imgur.com/XAorCsK.png

誰か何が問題かわかる人おる?
クリスタもBlenderもポージングは好きじゃないのよなあ
2023/02/20(月) 10:00:19.81ID:XAVy6WXhM
生首切り抜きはツールと根性
メリットは顔以外のあらゆる不要な学習がなくなる
デメリットは顔しか無いから全体のバランスはガチャ
ロングヘアーだと体の下の部分は白い服だと判断されること
2023/02/20(月) 10:00:36.71ID:fwgZKSMK0
>>829
マジかー
なんか元絵の模写みたいなのばっかり出てくるわ
>>830
マジで?
でもほぼ100%カードネームと額が入ってくるわ
後背景も

つまりこれは過学習ってことなんか
2023/02/20(月) 10:02:28.28ID:GSBwv3Rf0
>>846
その方法だけでもlora使用時に強度調整したら、意外と正面顔とかちょっと真横寄りの「それっぽい顔」も出てくれたりするでー
2023/02/20(月) 10:06:51.77ID:Qyn8U/QJd
生首学習法未だに信用してない
素材5枚位でやった方が精神的にも楽
2023/02/20(月) 10:07:45.48ID:BL3afozz0
>>832
サンガツ、やっぱそうなるかあ。今度ネタ少ない推しでやってみるわ

>>833
ほえー ええやん
2023/02/20(月) 10:08:47.85ID:OBALav/VH
>>847
グロ
2023/02/20(月) 10:10:27.15ID:9oifydhF0
これでグロと言われてもこまる
2023/02/20(月) 10:12:05.08ID:4cDl6UvrM
後背位の構図出したいんだけど、同じ後背位でもいろんな視点から見たのあるやん?
ポーズをCNで決めて視点をプロンプトで指定しても上手いことでないんや
具体的には後ろに腕引っ張られてる後背位を前から見たやつがほしいんや

後背位に自信ニキおったらワイにテクを教えてくれ
2023/02/20(月) 10:12:39.35ID:GSBwv3Rf0
>>851
そもそも素材が複数あったら、しなくて良いに越したことないしな
857今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6396-ylgc)
垢版 |
2023/02/20(月) 10:14:15.25ID:BcUIQExM0
controlnetの入力をバッチで回せば捗るんやけどやり方がわからん
>>604は人力で生成したけどしんどかった
2023/02/20(月) 10:14:50.19ID:bGEIsM4k0
loraのファインチューン法ってのを調べてるんだけど
どこかに解説ある?やり方がよくわからない
2023/02/20(月) 10:15:44.35ID:lksJhfwud
>>851
ワイは実際ある程度満足できてるけど
万能とは誰も言ってない気はするで
もともとは「世の中に公式絵が一枚しか存在しないファンアートもない」という限定的な状況での苦肉の策や
2023/02/20(月) 10:17:52.77ID:9oifydhF0
その辺の説明がWikiに記事としてあるとええんやろな

全身絵がそれなりにある場合も何かしら生首法のほうが
メリットあるんかな と最初ワイも思ったし
2023/02/20(月) 10:20:08.96ID:nxDz6M4O0
>>857
これワイも知りたい
今1000枚超自力でやってるけど空いてる時間使って10日弱掛かりそう
2023/02/20(月) 10:22:22.18ID:evJiJ93Z0
最初は20枚~50枚で1枚5エポックで様子を見るのが俺の過学習回避法
大量に長い時間かけて失敗するより少ないのから始めた方が無駄が少ないはず
2023/02/20(月) 10:23:40.52ID:2N7OHgEh0
学習用に画像を自動でカットしたりしてくれる便利なツールらしいけどエラーでつかえない だれか使ってみて
Stable Diffusion WebUI Smart Pre-Processing Extension
https://github.com/d8ahazard/sd_smartprocess
864今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Spe1-u64u)
垢版 |
2023/02/20(月) 10:24:43.80ID:J76SmlGBp
LoRA初めて回してみた
1e-4で100epochは過学習になって元絵が出てきてもうた
20でもう学習できてる感じになってたわ
epoch少なくてええんやなこれ
2023/02/20(月) 10:27:03.98ID:evJiJ93Z0
>>863
トリミングは自分の采配でやるわ
https://huggingface.co/spaces/skytnt/anime-remove-background
2023/02/20(月) 10:28:12.01ID:9oifydhF0
っていうかコイカツとかUnityとかの3Dモデル画像からi2iするのと
ControlNetのsegment用モデル使うのとどっちが精度高いのかも
ちゃんと見ていかないといかんな

動画ニキとか出てきているわけやから、とりあえず同一ポーズ出る確率は
やっぱi2iよりControlNetのほうがかなり高いってことでいいんだよな
867今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ed86-L4qV)
垢版 |
2023/02/20(月) 10:30:48.67ID:GtAGr8qW0
ChatGPTが「女性の膣は男性の性的刺激によって快感を与えるために存在している」とか危険なこと言い出して草
https://i.imgur.com/tROsYZJ.png
2023/02/20(月) 10:32:32.79ID:9Of/dJUNa
>>726
インスタに載ってるような加工処理した画像じゃなくてこういう加工前の画像生成するには加工してない画像の追加学習だけでええんやろか
2023/02/20(月) 10:32:56.40ID:GSBwv3Rf0
>>866
コイカツi2iは元画像に引っ張られすぎてゴチャって微妙だった
コイカツベースにcontrolnetっていうのがむしろありかもしれんな
2023/02/20(月) 10:34:52.01ID:9oifydhF0
>>869
情報量をスッキリさせるためにやはり有効か
んでキャラ自体の安定はLoRAでとると
2023/02/20(月) 10:36:54.12ID:w89Htm+x0
>>678
コレは逆に絶望してしまったなあ
どう手をつくそうと女に覆いかぶさった男の背中を描写することはできないんや……
畜生……完全に逃げられなくなってしがみつくしかない女の子の姿を俺は見たいのに……
2023/02/20(月) 10:37:00.53ID:OiqUm3Hlr
epoch数書いても、1epoch何枚しょりするかでまた変わる気がする
2023/02/20(月) 10:37:47.72ID:nxDz6M4O0
さわった感じcontrolnetでt2iするよりcontrolnetでi2iする方が一貫性は保ちそうだった
t2iのが生成早いけど
2023/02/20(月) 10:39:42.00ID:9oifydhF0
そういえばControlNetでi2iってのもあったな
2023/02/20(月) 10:41:01.18ID:XAVy6WXhM
前々からepochじゃなくてステップ数書けとは言われている
2023/02/20(月) 10:41:19.87ID:0n4VTEvS0
>>871
丸呑みで上半身消し飛ばすことはできたんやから
loraなら種付けプレスおっさんのケツはできるんちゃうかな
顔と手足に繋がりなくなるから奇形率は半端ないと思うけど
2023/02/20(月) 10:42:38.29ID:Qyn8U/QJd
ワイは公式1枚絵でLoRA作るなら蒸留を勧めるで
これで現場猫LoRAつくった
2023/02/20(月) 10:46:22.90ID:9oifydhF0
・コイカツやVRoidでキャラモデルを作る
→学習用画像をシコシコ作って選別
→LoRA作成

・キャラモデルにポーズとらせてi2i画像作る
→同じポーズをSegmentation用モデルにさせてポーズ画像作る
→ControlNet+i2i+LoRAで出力

今のところ3Dベースならこれが一番固い?
879今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オッペケ Sre1-OWVT)
垢版 |
2023/02/20(月) 10:46:40.60ID:sT03SAYVr
>>876
種付けLoraはあったはずやで、確かかなり初期
2023/02/20(月) 10:58:04.45ID:99VVJUzz0
>>833
すごい! スカートのなびきはどうやって作ったんや
2023/02/20(月) 11:01:27.13ID:9Of/dJUNa
種付けプレスloraは色んな構図ごった煮にしてるのか構図が安定しないんやけど
controlnetで指定したら安定するかもしれんな
2023/02/20(月) 11:09:04.54ID:nxDz6M4O0
controlnetでt2iだとloraでキャラ固定しても服装にばらつき出たわ
これは雷電に腰振りさせた奴
https://imgur.io/OBvppFp
2023/02/20(月) 11:10:03.99ID:hMdO0sOL0
>>863
loraやとこれいらんからな
2023/02/20(月) 11:11:32.22ID:nxDz6M4O0
リンク貼り間違えた
https://i.imgur.com/OBvppFp.png
https://i.imgur.com/OBvppFp.mp4
885今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Spe1-u64u)
垢版 |
2023/02/20(月) 11:12:02.69ID:S/BHelvep
服が高速変化してやべーやつや
2023/02/20(月) 11:13:36.29ID:D+aavkoVd
ローカルを入れようと思ったんだけどこれがいつも出てきてダウンロードできない。これの解決方法おしえてくれ
File "<string>", line 1, in <module> AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check
2023/02/20(月) 11:13:50.06ID:ObVA6XM30
>>755
この顔の点の配置で顔立ち変えられるってやってた人いた
上に離すと大人っぽくなる
2023/02/20(月) 11:14:14.36ID:xDp3m7Z80
epochを誤解してるやつ多いね
掛け算の掛ける部分でしかないあくまで何回繰り返すの指令であって最終的に見るのはステップ数や
2023/02/20(月) 11:14:22.62ID:CRIfQOms0
どこで止めても服装が破綻してなくてバリエーションがあるのがシンプルに凄い
人間にこの数秒の動画を発注したら発狂してしまうな
2023/02/20(月) 11:15:29.81ID:2N7OHgEh0
>>883
なんと!消しとこう
2023/02/20(月) 11:19:34.77ID:MPW0AvYz0
ファファファのファーwww
https://twitter.com/toyxyz3/status/1627370828072615937
https://twitter.com/5chan_nel (5ch newer account)
2023/02/20(月) 11:19:53.88ID:JNNjITpq0
segってPreprocessor:noneにして写真とか絵を突っ込んでも普通に反応するやん
色分けとかいらんかったんや
それともワイのcontrolnetがおかしいだけ?前は違った気がする
2023/02/20(月) 11:20:05.24ID:U7znRTvur
一般的なアニメキャラなら5000エポック以内、1e-4 txtlr5e-5でdim64 alpha32がワイの中で最適解や
もちろんうまくいかないキャラ(学習素材)もあるが
2023/02/20(月) 11:22:02.87ID:qwhXObm70
>>884
裸なら余裕ってこと?
2023/02/20(月) 11:24:21.84ID:CRIfQOms0
>>891
唐突なcarはさておき凄いな
絵コンテから一発で漫画かけるやん
絵の練習なんか要らんかったんや
Buildingをキャラ等の画風に合わせたAIの苦労も見える
2023/02/20(月) 11:25:42.80ID:JpJKsDUd0
>>879
初期の完全密着ではない種付けloraは多分これやな
concept_matingpress_v2ってやつ

https://i.imgur.com/UqFDIsn.png
https://huggingface.co/yuu314/Lora/tree/main

上の画像生成した時のプロンプトみた感じmating pressがトリガーやね

ElizabethPersona,(mating press:1.0), from behind, hetero, vaginal, testicles, 1boy, 1girl,face focus,
2023/02/20(月) 11:26:02.04ID:ObVA6XM30
>>888
繰り返し10エポック5

繰り返し5エポック10の結果は一緒ってこと?
2023/02/20(月) 11:27:01.43ID:9oifydhF0
ものすっごい今更やけどWikiにあるsegmentationの解説は
背景と人間を描き分けるみたいな奴なんやな

キャラのポーズ指定のsegmentationってどこかに解説あるやろか
2023/02/20(月) 11:27:22.75ID:R1Nq0PG/0
リアル系でよく使われてるKorean DollのLoRAの元ネタ
https://www.instagram.com/gini_s2_/
2023/02/20(月) 11:28:34.84ID:9oifydhF0
>>891
bookだけ割と無視されているのに草
2023/02/20(月) 11:29:04.59ID:nxDz6M4O0
>>894
裸でもloraで顔固定しないと髪が微妙に変わっていきそう
多分1枚t2iで基本画像として出力して、それを元にcontrolnetでi2iしていけば安定すると思う
2023/02/20(月) 11:29:49.14ID:lKb2y4bz0
>>891
車は絵柄統一諦めたんやな
2023/02/20(月) 11:30:51.18ID:qmI5Ncas0
>>898
segは基本的に領域を指定するモノだから、ポーズに合った人型に塗るくらいしかできんで。
>>701 みたいに輪郭線描くと精度が上がるくらいやと思う
2023/02/20(月) 11:38:26.52ID:0n4VTEvS0
PCから全く書き込めない日が相当続いてて辛いやで
https://i.imgur.com/6XuvMYV.jpg
https://i.imgur.com/vu4Oz95.jpg
https://i.imgur.com/jDOqJPU.jpg
https://i.imgur.com/Lh5maA4.jpg
近年では若年女性による無駄撃ち射精による環境破壊が問題となっています
2023/02/20(月) 11:38:35.38ID:9oifydhF0
>>903
そうだったんか

となると>>545ニキの3D塗りわけモデルとかTwitterで見かける
3D塗りわけモデルベースにした動画とかは何なんや?
2023/02/20(月) 11:42:17.10ID:zNCUxRQE0
Paperspace に Hugging Face から aria2 で落とす時に最初の 4 つか 5 つ程度のファイルは爆速で落とせるのにそれ以降はかなりゆっくりになるのなんとかならないかな
ファイル数が多くなると --max-connection-per-server=1 が安定した速度が出るから結局のところ一番早いのよね
http://aria2.github.io/manual/en/html/aria2c.html
907今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 4b55-oUt1)
垢版 |
2023/02/20(月) 11:42:22.43ID:XWSqkcqE0
切り抜くの面倒だから透明な背景って入れたら出てこないか試したがガラス張りの部屋になったわ
908今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワンミングク MM71-L4qV)
垢版 |
2023/02/20(月) 11:46:09.24ID:GwpJKMpSM
多重アクセス原因でそのIPが規制食らってるんじゃない?
元々huggingfaceくらい速いとこだとrecv側が先にボトルネックになってaria2の恩恵があんまり無くて帯域規制リスクが増すだけな気が
2023/02/20(月) 11:47:32.74ID:6Grwswly0
破瓜させようとしたら血まみれになるのpromptで防げないの?
ネガティブにblood stain, Incisionをいれても
服に血が滲みまくるし太ももに切創がつく・・・
2023/02/20(月) 11:47:39.40ID:nc0TJ2sJ0
>>905
segの人体は特定の色の指定がなくて他の背景やオブジェクトの色と被ってなければそれでいい
ハッキリ違う色で分ければいいだけなのでパーツ毎の形状ハッキリしてれば>>545みたいに色分けでポーズ指示したり
>>701みたいに輪郭線でパーツ区別させたりできる
wikiの複数人混ざらず出す理屈も同じこと

>ADE20Kで人に使える色をrgbで教えてください

ADE20Kデータセットでは、人は「物体」のクラスに属します1。ADE20Kデータセットには、計150種類のクラスがありますが、人はそのうちの1種類です。ADE20Kデータセットでトレーニングされたdeeplabv3+モデルを使用すると、人を含む150種類のオブジェクトでセグメンテーションを実行できます。
人に使える色はRGBで表現できますが、固定された色はありません。一般的には、人と背景とのコントラストを高めるために、背景と異なる色を選ぶことが望ましいです。RGB値を変換するツールもあります
911今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オッペケ Sre1-LS7n)
垢版 |
2023/02/20(月) 11:49:16.80ID:U7znRTvur
こう言うふうに全モデルで出力して並べて出す感じのやつってExtentionか何か?XYZプロットの総当たり出力みたいに、各モデルで出力して1枚にしたのを見比べたい。知ってるニキいたら教えてクレメンス
https://i.imgur.com/bWL3byN.jpg
2023/02/20(月) 11:49:24.97ID:R67kCy3t0
>>812
> あと101枚以上バッチ生成も無理?

数値を直接入力すればいけるで
2023/02/20(月) 11:50:57.64ID:9oifydhF0
>>910
はえーなるほど
2023/02/20(月) 11:51:21.36ID:edci2YGX0
>>899
すげーな
リアル系より精度低いやんけ
これが写真ならAIはとっくに写真を追い抜いてるってことやな
2023/02/20(月) 11:53:19.60ID:MV3jgQLC0
>>911
X Check Point Y Seedじゃないの?
2023/02/20(月) 11:54:06.91ID:qmI5Ncas0
>>905
それはワイもよう分かっとらん。
以下は何となくの仮説や。
本来は領域の色に意味があってその色に基づいたオブジェクトが(ADE20Kという規則に従って)学習されとる。
なので人に対応する色はある決まった一色のみのはず。
でも、学習の過程で結局、オブジェクトとの対応に加えて「色が違うところでパーツが分かれる」ということも学習される。
やから、体のパーツごとに違う色を塗ってそれを食わせると、例え人と対応してない色だったとしても、
明らかに人形を分割させとるから、AIも「おっこれは人で、パーツがこう分かれとるんやな」と判断して描いてくれる。
こういうことちゃうかな(間違ってたらすまん)。

>>910
segのモデル学習では決まった色分けコードに沿って学習されてるのはほぼ確実やで。
2023/02/20(月) 11:55:32.77ID:zNCUxRQE0
>>908
やっぱそうかなー
もうちょっとオプションの組み合わせ試してみるわありがとう
2023/02/20(月) 11:56:22.55ID:x814GzkH0
>>880
まず、これが1枚目のpromptやね
https://majinai.art/ja/i/umY8gTe
この、(white simple:1.1)で始まる行に色々とギミックを仕込んどく。で、行末の"0.401"がギミック全体の係数で、効き具合を調整しとるわけやね
この"0.401"をprompt S/Rで細かく調整しながら画像をバッチで出力するんや
設定はこんな感じ
https://i.imgur.com/D99nJqr.png
この設定だと220枚ほど画像ができるから、破綻してたり冗長なコマを削る。後はファイル連番つけて動画にして終了
ただ、Seed選びはけっこう大変や。ワイはサイズ512x512、係数5ステップぐらいで大量にスクリーニングしとる
棒人間使うとキャラのポーズが安定するんで成功率が格段に上がったわ
レス数が900を超えています。1000を超えると表示できなくなるよ。
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況