なんJNVA部★147
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★146
https://fate.5ch.net/test/read.cgi/liveuranus/1675934502/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured ヤバそうやな 凡人はいつになったら使えるようになるん? 今日まじないにあった多人数の横並びはそれ使ってたんかな まあ凡人が使うにしても金か時間は費やすことになるからなぁ BingChatすごいからなんか上手いこと応用できへんかなと久々にスレ覗きに来たんやけどなんか革命起こってて草
もうお前らはAIと一緒に未来に生きてるでほんま >>172
9girlsと言ってるのにちゃんと「いや10人ですよね」って理解してて神 昔Pinkの方でこのPoseNetとAV使ってMMDの体位作成しようと頑張っとった兄貴が居たな
そのときはAV的ポーズは学習されてなさ過ぎて無理っちゅう結論やったが、今ならそれすら自前で学習して乗り越える奴居そうや リアルポーズ→anythingコントロール画像生成→従来のwebuiでi2i
こうすれば実質TIやlora適用可能 あの画面分割してプロンプト適用する奴が最大64分割できるらしいから
あの理屈で個別にLoRA割り当ててやれば全員集合できるんだろうな openposeじゃなくてScribblesでも行けるならラフ画から作れるのかな >>190
そのポーズを読み取るのがStableDiffusionの本領発揮というかAIの仕事なわけで…
どこかの提訴のようにトークンとSeedで描画するところは他のPCでも再現ができるように、ほぼ圧縮されたものをデコードしてるだけ 今でさえあまり理解できてないのに毎日革命が起きてて頭がパンクしそうや うーん寝そべり系ポーズは全然駄目やな
>>190の通りでSD側ではなくそもそも骨格推定で失敗しとるからそこ直さんとダメっぽい >>197
なんで元素法典をラーニングしてるんや… Tagger の調子が悪いな…
排除したいタグを落としてくれない。 ControlNet環境を構築する
SD1.5とControlNetSD1.5のモデルを落としてくる
環境で使いたいモデル + ControlNetSD1.5 - SD1.5のマージを実行し使いたいモデル版のControlNetモデルを作る
ControlNetのgradioで動作させる
ポーズ入力にはopenposeが訓練されてる実写画像を使用する
こんな感じか
LORA使いたい場合は最初にマージしとく必要があるな >>193
その2人の絵ってまず盛られてないはずやが何でそうなるん? 写真からポーズ推定やなくて3Dのリグを直接触らせてほしい、と3D畑のワイは思った モデルが学習していないポーズは学習させないと出力できんという理解でええか? >>210
DAZ Studioとか使えばええんちゃうか? 前スレ900
亀だがサンガツ、とりあえずvenvとか一回削除して新しく入れ直したんだが、今度は前スレでもあったmiddlewareなんちゃらのエラーが消えない…
fastapiの90.1にしたつもりなんだが、全然エラー消えず挫折気味やわ… アカンわ棒立ちポーズしか正確に読み取れない
苦手とする複雑なポーズやと破綻するから正直今までと何も変わらない >>214
そうかアカンか……
期待が大きかっただけに残念や >>210
要はPix2Pix系の技術っぽいし、素人考えやけどBlenderのリグ画像とレンダリング結果を紐づけるようにこのControlNetを学習すればできるんやないか
いずれにしても夢が広がる技術や >>210
それをgradioで動かせるのは無理や マウスで棒人間書くだけで出来るならいいんだけどなぁ ラフからポーズ読み取って画像生成がついにできるんか
だとすると絵描きにとっても朗報やな >>214
depth mapsという疑似コピー機機能もある >>220
>>221
まだ試してないけどそれっぽい機能もある xyz軸で棒人間動かせたら最高なんやが・・・あと手の指にもボーン?つけて設定したいんやが・・・欲望はとどまることをしらんでぇ なんやスレがワイの知らん話題で大盛り上がりや。半日で浦島太郎気分味わえるのほんまここくらいやで 例として組まれてるモデルはいくつかあって
openposeによる実写人間画像からのポーズ入力
輪郭線抽出(方法複数)からの輪郭入力
線抽出からの線入力
深度抽出からの深度入力
境界抽出からの境界入力
落書き入力
が使える
それぞれ専用のモデルが必要
棒人間いじりたいならopenposeの出力と同じ物を吐き出すインターフェースを作って放り込む必要があるな いつの間にかanacondaアンインストールしてたわ… easyposerみたいなの動かして構図指定できるようになるとええんやけどなぁ… 全身写ってないとあかん感じか
https://i.imgur.com/knTFvUf.png
>>116
ミニチンポ画像が貯まったら再学習してみるわ オープンソースの威力って、すごいんだな
今回の件で思い知ったわ NAIがオープンソースになってくれたのが一番でかかった もう追いつけん
早く全LoRAを統合した汎用モデルを出してくれ controlnetの導入方法わかんねーわ
huggingfaceからデータ持ってきて配置して、SD1.5のモデルをmodelフォルダ直下に配置して…ってあとなんかやることあるんか🤔
起動しようとしてもエラー吐くわ AIくんは人間の骨格自体はちゃんと勉強して理解しとるんやろな
だから首がココで腰がココで膝がココなら寝てるはずってのは分かってそうだけど
それをどう描いたらいいのかまでは見たことなかったら分からんよな
そのうち推測して描けるようになるんだろうけど コイカツみたいにボーンを動かして認識させられたらいいって事だよね?
https://i.imgur.com/eSa7fd6.png
進歩がすごいわ 誰でもええからはよ複雑ポーズ大量学習モデル出してくれ、新技術に間に合わんぞ
こういう時こそnaiちゃんがやる気あればなぁ… >>243
ポーズの方はリアルじゃないと認識できない そのうちwikiにまとめくるかな
>>231
あのさぁ... Lsmithの導入もcuDNNで躓いて途中なのに次から次へと面白そうなの出てくるの勘弁してくれ しかし実写から画像持ってくるのも結構面倒そうでもある
手っ取り早く雑コラi2iでも良いかな感 huggingfaceからモデルダウンロードするの面倒だな
git cloneできるんだっけ? >>252
今んとこデッサン人形をポーズとって撮影して
i2iするんとそこまで変わらんような気がするなぁ
絡みが再現できればええんやけど >>255
オプション付けずにgit clone すると容量すごい食うぞ >>258
ついにWiki読み出して草
Wiki読んだ瞬間に検閲かからないんか >>252
サンガツ、やってみるわ
当たり前だけど二人分はポーズ認識してくれへんのな >>258
5chwiki読ませるとか、そんなんまでできるのか……
5chwikiに「多様性」に関する記述が必要になるわけだな Devmix v1.1でt2iする。
https://i.imgur.com/YDg90pj.png
trinart2 step60000でi2iする(人物部分は切り出して更にi2iで拡大して元に戻す)
https://i.imgur.com/hiei8R5.png
手間はかかるけどやはりtrinart2の背景はいい…… >>258
5ch wiki読んでpromptとnegative prompt理解したってことなのか?
賢い >>252
集合写真の時点で察したけど2キャラ以上が重複する所を補完できてないね
two shotのスクリプトで2キャラ出せても重複してると苦手になる感じ
エロ体位は重なり合う所が多いから一部を除くと以前として難しそう >>265
どこまで理解してくれているかは分からん
けどこれは捗るわ楽しい https://github.com/camenduru/controlnet-colab
ここの使えばそのまま試せるっぽいけどなにか問題あったりする?
colab使ったことないから分からん エラー解決法もbing君教えてくれるんやな
まあTwitter参照とかだからあれだけど、いろんなページ一つ一つ見に行く手間は無くなっていくな
https://i.imgur.com/MoXY2J3.png
https://i.imgur.com/6osUQDM.png これやっぱ写真からポーズにというより
openposeのデータ構造に3D人形弄った結果のレイアウトとポーズ入れて出した方がええんやろな
どうやるか知らんけど
https://i.imgur.com/w3K6zSs.png
https://i.imgur.com/XbFda4q.png ■ このスレッドは過去ログ倉庫に格納されています