なんJNVA部★147
■ このスレッドは過去ログ倉庫に格納されています
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★146
https://fate.5ch.net/test/read.cgi/liveuranus/1675934502/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>124
いや、大丈夫や成功したで
細かいとこ違うがほぼ同じになったわ >>128
うおおおおおおおおおおお!!!!(なんやこれ…) >>128
レヴォリューション
〘革命〙きちゃぁ… 翻訳を雑に流し読みしただけやが高度なi2iって事か?
とりま使ってみたいな >>128
前スレで出たときはサンプルが女の子じゃなかったんでスルーされてて草
動かすのまだまだ大変そうやな >>128
style2paintの人の技術的な話やな公開してくれたんか >>140
すご∃
当時「冒険に出るから着替えてくる」でこの服着てきた時は猿みたいにシコったンゴねえ >>142
前スレの時はまだSDでの動作の話だけだったけど
今回はその他のSDモデルとも合体できますよって話だから実用に踏み込んでる
WebUIに組み込みませんか?というコメントもあるしそのうち入るかもしれんね >>102
まだそんなに触ってないけど
TIティファとモデル内臓ミクの2ショットはあんまり混ざる感じはなかったで
LORAヤマトとTIティファは混ざる事が多い感じやね
https://i.imgur.com/y2JXKRF.jpg ふっ……、まだ私に時代が追いついていないようだな…‥
(※使い方とか、そもそも使えるのかすら全然よくわかんないので、webuiで簡単に使えるようになったら起こしてください) 沢城Bingが「ぷりん」「私の勝ちですね」とか言ってると思うと草生えるな open poseって二次元キャラでも使えるんやっけ?ワイが4年前に試した時は使えんかった記憶あるわ >>155
人間の写真じゃないとダメとは書いてあるな
でも今ならリアル系3Dモデル使えばええんとちゃうか?エロならハニセレみたいなやつ そのうち画像認識スタイルから骨人形を直に弄ってポーズ指定できるようになるんやろなって >>7
ありがたく保存させてもらったで
eCustomBは少しリアルが入っているモデルで使うと
良い感じにテカリが抜けてイラストっぽくなるからいいかも
上が普段使ってる「kl-f8-anime2」で下が「eCustomB」
https://i.imgur.com/0bEgqPY.jpeg 設定見直したら普通に使えたわ
モデルいちいち統合しなきゃいけないからめんどくさいけどうまくwebuiに融合できたらいよいよ大革命が
https://i.imgur.com/IAdGEkG.png >>162
すげぇなこれ
i2iの進化版みたい
巨乳にした理由は分からんが 渾身のgigantic breasts
ていうか、これ、カラミいけるんか? 単体用っぽい気もするんやけど >>162
FANZAのAVサンプル画像でやってみてくれ ヤバそうやな 凡人はいつになったら使えるようになるん? 今日まじないにあった多人数の横並びはそれ使ってたんかな まあ凡人が使うにしても金か時間は費やすことになるからなぁ BingChatすごいからなんか上手いこと応用できへんかなと久々にスレ覗きに来たんやけどなんか革命起こってて草
もうお前らはAIと一緒に未来に生きてるでほんま >>172
9girlsと言ってるのにちゃんと「いや10人ですよね」って理解してて神 昔Pinkの方でこのPoseNetとAV使ってMMDの体位作成しようと頑張っとった兄貴が居たな
そのときはAV的ポーズは学習されてなさ過ぎて無理っちゅう結論やったが、今ならそれすら自前で学習して乗り越える奴居そうや リアルポーズ→anythingコントロール画像生成→従来のwebuiでi2i
こうすれば実質TIやlora適用可能 あの画面分割してプロンプト適用する奴が最大64分割できるらしいから
あの理屈で個別にLoRA割り当ててやれば全員集合できるんだろうな openposeじゃなくてScribblesでも行けるならラフ画から作れるのかな >>190
そのポーズを読み取るのがStableDiffusionの本領発揮というかAIの仕事なわけで…
どこかの提訴のようにトークンとSeedで描画するところは他のPCでも再現ができるように、ほぼ圧縮されたものをデコードしてるだけ 今でさえあまり理解できてないのに毎日革命が起きてて頭がパンクしそうや うーん寝そべり系ポーズは全然駄目やな
>>190の通りでSD側ではなくそもそも骨格推定で失敗しとるからそこ直さんとダメっぽい >>197
なんで元素法典をラーニングしてるんや… Tagger の調子が悪いな…
排除したいタグを落としてくれない。 ControlNet環境を構築する
SD1.5とControlNetSD1.5のモデルを落としてくる
環境で使いたいモデル + ControlNetSD1.5 - SD1.5のマージを実行し使いたいモデル版のControlNetモデルを作る
ControlNetのgradioで動作させる
ポーズ入力にはopenposeが訓練されてる実写画像を使用する
こんな感じか
LORA使いたい場合は最初にマージしとく必要があるな >>193
その2人の絵ってまず盛られてないはずやが何でそうなるん? 写真からポーズ推定やなくて3Dのリグを直接触らせてほしい、と3D畑のワイは思った モデルが学習していないポーズは学習させないと出力できんという理解でええか? >>210
DAZ Studioとか使えばええんちゃうか? 前スレ900
亀だがサンガツ、とりあえずvenvとか一回削除して新しく入れ直したんだが、今度は前スレでもあったmiddlewareなんちゃらのエラーが消えない…
fastapiの90.1にしたつもりなんだが、全然エラー消えず挫折気味やわ… アカンわ棒立ちポーズしか正確に読み取れない
苦手とする複雑なポーズやと破綻するから正直今までと何も変わらない >>214
そうかアカンか……
期待が大きかっただけに残念や >>210
要はPix2Pix系の技術っぽいし、素人考えやけどBlenderのリグ画像とレンダリング結果を紐づけるようにこのControlNetを学習すればできるんやないか
いずれにしても夢が広がる技術や >>210
それをgradioで動かせるのは無理や マウスで棒人間書くだけで出来るならいいんだけどなぁ ラフからポーズ読み取って画像生成がついにできるんか
だとすると絵描きにとっても朗報やな >>214
depth mapsという疑似コピー機機能もある >>220
>>221
まだ試してないけどそれっぽい機能もある xyz軸で棒人間動かせたら最高なんやが・・・あと手の指にもボーン?つけて設定したいんやが・・・欲望はとどまることをしらんでぇ なんやスレがワイの知らん話題で大盛り上がりや。半日で浦島太郎気分味わえるのほんまここくらいやで 例として組まれてるモデルはいくつかあって
openposeによる実写人間画像からのポーズ入力
輪郭線抽出(方法複数)からの輪郭入力
線抽出からの線入力
深度抽出からの深度入力
境界抽出からの境界入力
落書き入力
が使える
それぞれ専用のモデルが必要
棒人間いじりたいならopenposeの出力と同じ物を吐き出すインターフェースを作って放り込む必要があるな ■ このスレッドは過去ログ倉庫に格納されています