なんJNVA部★150
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★149
https://fate.5ch.net/test/read.cgi/liveuranus/1676415295/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured {{{ほしゅ}}}
こういうt2i出てきた絵のちょっと腕をこっちに向けて… とかちょっと顔をあちらに… とかControlNetでできるとうれCな
構図決めとかイチからつくるのは絵心あかちゃんには夢物語や…
https://i.imgur.com/cAT8h4I.png どうして君はバンダナを2つ被るの
どうして天命年代のアイヌが黒ストなんて履くの
https://i.imgur.com/8IJVPFk.png 完全に浦島太郎で今初めてAOM2使ってるんだけど黒が白っぽくなっちゃうのは何でだろう?
VAEはorangemixのを使ってると思うんだが
https://i.imgur.com/b7iD7NK.jpg >>17
depthして解析結果の画像をちょこっと弄るのはどうや 勢い1000超えたの久々なんちゃうかな
ControlNet革命効果か外部誘導効果かしらんが活気があるのはええことや >>27
そうか棒人間だけやなしにdepthもあるか いろいろな手を試してみないといかんなぁサンガツや >>23
なるほどなー。結構暗いシーンとか逆光とか好きだなんで影響大きいな。学習まで手を出すか・・・
ともあれサンガツ lora、学習回数上げすぎると
構図が固定されやすくなるけど
openpose前提なら問題無いのかな >>32
それは回数じゃなくて学習レートが高すぎるんやで おま環でsafetensor使えないんだけど、chilloutくらい凄いckptどっかにないのかな >>34
WindowsPC持ってるならSafetensorからckptに戻せばいいんじゃないの >>35-36
intel macしかないんや‥色々ググっても、その環境でやってる人が誰も居ないし諦めた
win買うべきか悩んでるけど全財産を食い込むから悩む 少し前のスレにこれ貼ってくれた兄貴、良かったらプロンプト教えてほしいわ
ぜんぜんトンチンカンなもんしかできん
https://i.imgur.com/8hNa7NJ.jpg safetensor使えないことあるんかいなと思ったけどmacは使えないんやね知らなんだ >>34
おま環てNMKDってことやろ
chilloutならcivitaiにckptバージョンがあったで 今前スレ読んでて知ったんだけどBingチャットってPCブラウザじゃないと使えないんかい macでもクラウドで1111使えたりはしないんか
NMKDってはたから見てると出来ることも少ないしなんかトラブったときの解決法もすぐには出てこないし大変そう NMKDは標準でSafetensorからckptに変換する機能あったはずやで macって1111使えないのか
linuxで行けるもん基本行けるもんなんやと思ってたわ >>33
そうなんだ。1e-4で回してるんですが
お勧めありますか? Mac だけど AUTOMATIC1111 使えてるで いつの間にかミクビル版のcontrolnetにopenpose handが追加されてるけど誰かもう使った? wikiに1e-4って書いてあるそのまま使ってたわ
高すぎるんかな? lrは素材の数や目的、その他のパラメータによってなんぼでも変わるからそこだけ持ち出されてもこれといった答えは無い
ノウハウ系のnoteやrentryで1e-3、5e-4、1e-4、5e-5あたりをよく見かけると言えるぐらい controlnet導入してみたがi2iとの差別化が難しいな
これ呪文削減効果がメインってことでええかな i2iだと元絵の雰囲気や小物の影響が入ってきちゃうけどそれを排除できるって感じで使ってるわ 進化が速すぎてwikiを更新できる人間が現状把握で精一杯という悪?循環 >>56
指先までボーンが出る用になるから指さしとかピースとかじゃないと効果見えてこないと思うで blenderの棒人間の精度はそこまでよくない感じか
モデルコピーして複数人にしたら一気に誤認識が増えたわ サンイチ!
前スレ後追いで読んでてふと思ったんだが、現状のcontrolnetって
「64倍数の縛りがあるせいで正数倍のハイレゾしか無理」
っていう認識で良いよね? 素材に同じ背景の絵が多いとそれに似た感じの背景に固定されがち、構図も同様
ワイのキャラloraは手がグチャらないように手が大きく写ってる素材を多くしてるので、手はグチャりにくいが、代わりにやたら手を前に出したがるで 今なお階層マージやってるけど float16 ってガチのゴミなのではないかと疑い始めてる
小さい画像しか作らないし Mac に負荷かかりすぎるから比較して検証する気もないけどそんな気がしてきてる ピースフェチのワイには朗報か?
よく破綻するので困ってたんや >>54
2枚目の方がなんとなく日本舞踊っぽい持ち方になっとるな。
帰ったらhandjob gesture試してみよう 棒人間はいじりやすいんだがdepth弄るとわりとグチャグチャにならんかこれ?
濃淡による出力がでけぇでよ 新しい機能増えてこれどうなんや
導入どうなんや効果どうなんやと
テストテストテストで精一杯やわ
どうしてAI使うのに自分が学習しなくちゃいけないんですか😭😭😭 >>75
AIに使われるようになる日も近いということや >>75
メスガキAIちゃんに、こんなことも人間は出来ないんですか~♡って煽られる時代もすぐそこやぞ 何でどいつもこいつもメスガキにしたがるんや
お嬢様口調とか唐澤貴洋とか色々あるやろ >>75
一体いつから───────AIに使われていないと錯覚していた? webUI版とNMKD GUI版で同じモデル、同じプロンプト、同じstep数でもクオリティが全然違うのは何でだろ
NMKD版の方が明らかにクオリティ高い(生成時間は同じくらい) AI使えば皆同列になるとか嘘やったな
最新の技術を追って物にできてるニキらと
差が開くばかりや >>82
すまん、出先だからまた夜に画像付きで聞くわ 新しいSDlora画像を反転させる機能ついた?
便利だなこれやってるか分からんけど ワイなんてそもそもi2iの使い方か全く分かっていない
素材を放り込んだ後、何をどうすればキレイな画像が出力されるのかマジでわからない
加筆もよくわからん
剣を持たそうとして刃の部分を描き足したいんやが全くうまくいかなくて嫌になって投げ出してしまった
もう一度一から学び直したいんやがi2iを詳しく解説してるサイトや動画ってある? >>84
技術的な問題は勉強すればええけど
それ身に付けたところで何を描かせるかが問われる
絵を描けたら漫画家になれるかみたいな話やな むほほLoRA作り直して精度アップや!やっぱりstepたくさん回したほうが精度は高いな
https://i.imgur.com/UN14Zra.jpg
ミクさんに手伝ってもらって表情変化
https://i.imgur.com/MP1rKpZ.jpg
https://i.imgur.com/ASPOO9o.jpg
trembling抜けきってないから処理して作り直して後は階層適用で画風維持チェックか
階層周りまだやってないけど
そろそろ知見溜まってきたみたいだからイケるやろ controlnet入れたけどopenposeで黒画面出てくるんやがなんでかわかる人おる?
opencv入れてないからなんかな depthで演算した後
noneに設定してからdepth画像をドロップし忘れて
元の画像のまま演算すると
案外ちゃんとした画像が得られたりするね
たまたまかも知れんが BREAK入れたら確かにピンク乳首は出るようになったけど
絵の明瞭度が落ちて掠れてまうな・・・
あと褐色ワードしらん?
brownでもred brownでもreddish brownでもどちらかというと灰味の強い褐色になってまうわ
赤茶色が欲しいんやけどなァ i2iがわからなくて仕方なくt2iばかりやってて泣きたい
遊びがてらプロンプトをどれくらい増やせば絵が破綻し始めるのか試したりしてるし
ポジは1300超えた程度じゃ全く乱れないのな
75トークン以内と比べても特におかしな点は見受けられない
破綻せずにどこまで増やせられるんやろ
取りあえず1万トークン目指してみるか
Bingの力を借りれば1万なんてあっという間やろうし いうてi2iは元の画像をボカしてそこから推定しなおしてるだけだからな…
t2iは元の画像が完全なノイズからで、i2iは元ネタあり
Denoising Strengthでどれだけボカすかを決める
個人的には.65くらいが元の構図に似たのを出してくれる
構図や色はボカす画像に引きづられるから、当然剣っぽい色のものがないとAI君は「これ剣かな~?」って推定してくれない
だから元の画像にないものを追加したいときは大雑把でいいからペイントツールで追加してやるといい(どうせ細かく書いてもボケるから) あと、剣ぽいものが欲しいならPromptにも入れんと消されるぞ >>96
全部のトークン(よりは単語の方があいかま)の間にBREAK入れたりするとどうなるんだろう >>93
なんか解像度(アスペクト比)かけ離れ過ぎてると無視されて真っ黒は出るな >>100
サンガツ!!!!!!!!!!!!!!
予想よりだいぶシンプルというかアホみたいにプロンプト盛りまくったらいかんのやな >>101
>>102
画像変えたらできたわ
1200×1800とかだとダメだったからデカすぎたのかもしれん 前スレに貼られてたdepth使った足コキを試してみたけど
あと一歩のところまでいくけどpenisが足になったりその逆だったりで中々上手くいかんな
promptの差かもしれんけど >>95
それ冒頭に入れてあるmasterpieceとかも忘れてるからBREAKしたあとmasterpieceほかも追加 weightが2やと太腿がかなり太くなるんやがweightってそういう >>107
はあ
つまりBREAKはBREAK以前のトークンによる全ての影響を吸うブラックホール的なワードなん? >>21
えちえちな肌感ええな😍
モデルかloraのおかげなんやろか >>107
その説明だと、入れ直さないといけないワードと入れなくていいワードの差が伝わらん >>84
所詮道具やからな車に乗れば誰でも徒歩より早く移動できるようにはなるけど誰でもレーサーになれるわけではない BREAKの仕様まとまってるところ誰かしらんか、ANDもBREAKも言葉が汎用的すぎて検索不能や lora導入してるんやけどすまん助けてほしいやで
runpopupが起動しないんやけどなんでなんや? >>10 や >>21
って、huggingface 漁ればあるんですかね?個人用?
ローカル導入したてで色々試し中、controll net とか来てるし速度感凄すぎる… >>117
エラー画面も貼らずにエスパーしろと?
エスパーするなら、sd_scriptsとlora_train_popup.pyのバージョンが合ってない
どっちも最新にしろ BREAKの後ろにも , を付けたほうがええんか? >>117
その一文でアドバイスをするには、相当なエスパー力が問われると思う
環境ちゃんと構築できてるのか、あるいはrunpopup起動で連動して使用されるファイルが構築済のlora環境のverと合っていないのか、そもそもそういう以前の問題なのか…… corabでautomatic動かそうとして設定してるんですが、
RuntimeError: Couldn't checkout commit f4e99857772fc3a126ba886aadf795a332774878 for K-diffusion.
って出るので、launch.pyの
k_diffusion_commit_hash = os.environ.get('K_DIFFUSION_COMMIT_HASH', "5b3af030dd83e0297272d861c19477735d0317ec")
を治したらいい?とか思うんだけど、あってます?
でもハッシュの値、調べ方わからないー >>119
すまんやで
launch lora_train_popupで??????
って感じで終わるんや >>124
まだ言葉足らずや
そもそも起動の仕方が分からないって感じか? >>125
バッチファイルをクリックして何も起こらん >>124
いっそその????の画像を貼った方が早い説
なんでもない出力に見えて、同じ画面の心当たり有る人とかもいるはず 顔面蒼白というか青ざめて怖がってるような顔ってなんて出せばええんやろか >>127
ふむ?
取り敢えずLoraは色々なやり方がありすぎてどう言う環境でやってるのか分からんとハッキリした事は言えないんやけどそのバッチファイルをメモ帳で開いて編集しないといけない感じだったりはせんのか?
としあき製のバッチファイルとかモデルの位置とか色々自分で書き換えないといけなかったりするが ・まず環境構築だ出来てなければ、そもそもの問題で動かない
・どのような方法でlora環境を構築したかも、他人には判らない
・環境構築方法によっては再起動など必要だが、それも他人には状況がわからない
今提示されてる情報では、どれだけ助けたくてもエスパーし続ける不毛レス量産体制なんだ……
せめて「どこのblogを参考に、こういう操作で、こうやって環境作って実行した」ぐらいは欲しい
エスパーしだすと、「そもそもbatファイルの配置位置が正しいかどうか」とかすら疑っていかにゃならんしな >>128
twinkleで貼ってたから出来なくなってから
貼り方を知らないんや 赤ちゃん以前の問題な奴増えたよなあ
ここは託児場じゃねえんだぞ >>132
kohya版のHP通りやってたんやけど
出来てないんかなそれすらわからん
回答しようがないわなすまん >>134
取り敢えず画像とか多くて分かりやすいと評判の良かったLora解説ブログや
もう一度試してみるとええ
Lora覚えると出来る事が一気に増えるから頑張るんやでー🙄
https://economylife.net/kohya-lora-install-use/ >>80
hires使ってるなら、その手動設定が好みとあってないんじゃね? NAIハッキングの頃からやってても数日触らないだけで色々増えてるからな >>137
確かに、ここ読んでわからんやつは諦めろ
レベル CNのモデルの縮小版のやつって結局これ使って大丈夫なの?やっぱダメなの?どっちなんだい ワイは今まで自分は食らいつけてる側だと信じてたけどとうとうControlNetで脱落したんだ😭
気楽に出来るt2iしかやりたくないんだ😤 >>143
ヤバイという奴は居たが、何がヤバイかを説明した奴は居ない >>141
???何が問題なん?
👶以前の奴はせめて赤子になってから聞いてくれっつーのは妥当だろ パッとわかる問題ならすぐ答えてやるしわからん問題なら放置するだけだから赤ちゃんなんていくら居てもええんやで
ワイが(気が向いた時だけ)ママになったるわ 赤ちゃんはええけど画像の貼り方くらいぐぐればわかるやろ あー喧嘩すんな喧嘩すんな
ここはなんJの血を発露する為の場所じゃねえから煽り合いじゃなくて建設的なレスしろ >>145
lora入れれたならcontrolnetは楽ちんに入れれるぞ
スレで上がってた
https://github.com/Mikubill/sd-webui-controlnet
見て入れたら直ぐだ
lora入れれたなら行ける行ける! >>99
ごめんさすがにやれそうもないわw
トークン5000超えるとさすがに作成に少し時間がかかるようになるな
ちなネガプロは中華呪文を使用、Bingちゃんがネガに関してはくその役にも立ってくれなかったので
中華呪文は当時は長すぎると思ったもんだけど630トークンしかなかったのね
もっと長くて1000超えてそうに思い込んでたからイメージって怖い BREAK使って分割すると分割数分だけそれぞれの効力が落ちるから多用したらあかんし補正もいるんやで
例としてmasterpiece, bestquality, 1girl BREAK pink long hair BREAK blue eyesと書くと、それぞれの効力が1/3になってまうようなイメージや
結果マスピが薄くなって色褪せて、長髪かというと微妙な感じの青い目の女の子になる訳やな
masterpiece, bestquality, long hair 1girl BREAK masterpiece, bestquality, pink long hair BREAK masterpiece, bestquality, blue eyes, 1girl
とでも書くと色褪せは改善するし髪型も指示に従いやすくなるんやけどやり過ぎると混ざり始めて意味がなくなるから要調整や
それかマスピの強度を強くするのも一つの手やな
実際のプロンプト見せてくれたら改善提案するで Bingちゃんの列並びおわたからお話したけどレスポンス遅いな
マス相手の商売的に利益だそうとするとタダで使わせるのはまだ高い技術らしいのはホントやな
いまのうちからつこうてたら昔はおそかったんやでーと老害まうんとムーヴとれる利点がある そもそも全ての赤ちゃんのママになってやる義務なんて無いねんから赤ちゃんの言うてることがわからんならいちいち突っかからずにほっときゃええんや
赤ちゃんを煽っても赤ちゃんには効かないで ワイのワッチョイ晒すのは別にいいけどこの話には全く関係なくない? i2iもそうだけど答えがあらかじめ決まってるのはガチャとして面白く無いんよねとワイは思ってしまう
もちろん逆の考えもあって、これはお絵描きAIに何を求めてるかの違いなんやけどね
ワイ的にはやはりt2iしか勝たん >>153
BREAK後にまた別に過去に使ったのと同じtoken入れるのってメリットあるんやろか
全く別物を影響させあわずに併用する為のものと思ってた >>80
またかNMKD
それ勘違いだからね
全部プロンプトや設定の違いなだけ
そもそもクオリティにそんなに差があったらみんなそっち使うに決まってるでしょ
なんで大多数がAUTOMATIC1111なのか考えてみなよ >>154
Edgeベータ版入れてそこから使うと早くなるで
ワイも最初かなり遅かったけどベータ版入れたらストレスフリーになった >>130
誰かこのプロンプトわからんか?
loraとか含めるとhorrifiedとかだと物足りないんだよな
もっと絶望してる感じのが欲しいわ >>155
せやね
全ての質問レスに正しい答えが返されないといけないなんて考えてるからイライラするんや
アホみたいな質問してる奴らがいつの間にか最先端の一員になって情報解説してくれる側になってくれるかもしれん
Twitterにコピペ転載するようなアホじゃなければ基本的に人は増えてええぞ >>152
5000でも体感少ししか変わらんって結構良いグラボ使ってる感じ?
ワイのショボいグラボだと75以下でも増やすほど露骨に遅くなるし75刻み超えると更に露骨に遅くなるから
ヘボグラボの場合はBREAKはほば禁忌みたいな認識や >>116
githubの1111の取説に書いてるってツイでみた >>157
AIの面白さはガチャ要素にもあるよな
自分では思いつかんの出してくると、やるやんて感心したりするし
面白さともどかしさ半々ぐらいかな 明確な目的があって意中の構図を出す悦びもあれば漫然とガチャる悦びもある
いやあAIって最高ですねえ~
最高
ですねえ~ 赤ちゃんの夜泣きに困ったらgptちゃんにあやしてもらえばええで
冗談抜きでAIに育てられた子供とかSF展開も現実味帯びて来たで >>146
ヤバいって書いたのワイやけど
前スレ全部見ると逆に遅くなった報告が複数名あるんや AI画像生成の初期は「呪文」っていう表現が多かったけど、その表現が今はスレ内で全然見かけないあたり
『曖昧でふわっとした生成方法(プロンプト打って生成)』から『完全に技術として認知している(モデルマージ、各種学習系、controlnet)』という風に、変わってるよな、とは思う
もうAI画像生成(特に純粋なt2i以外)は魔法って感じではないもんな >>171
両方使ってみたらええんやない?
拡張子的にウイルス的なヤバさはないと思うし >>172
あのキャラ出せねえあのシチュエーション出せねえってなったらプロンプトを工夫するんじゃなくて学習画像集め始める自分がいるわ 普通に呪文ないと無理や
badpronptじゃ所謂AIボディにされるし
今も初期のネガプロ呪文使ってる >>172
ワイずっとt2iで遊んどるけどBingがクソ便利やからプロンプトで悩む時間ゼロになったで
こうやもん
https://i.imgur.com/6c6ikAR.jpg 久しぶりに来て過去ログ眺めてたけどDreamBoothってもう使われてなくて全部LORAなん?1,2ヶ月で浦島太郎すぎる pixivでさっき「お前のAIのエロ絵は俺の絵を不当に学習している疑いがある。検証のためにモザイクのない画像をよこせ(意訳)」ってメッセージが来て笑ってる two-shot導入したいんやが、githubに書いてある前提条件のgit applyで躓いとるんで助けてほしいンゴ
スレ147の>875を参考に、poweshell開いてcd C:\stable-diffusion-webui、git applyコマンド実行してるんやがNo such file or directoryエラーで上手く行かないんや
>880でエラー無視して実行しまくったら成功したって言ってたんでやってみたけどダメ。git lfs installしてからやってみたけど同じエラーや。 >>162
サンガツ ええなちょっと早くなった気がするわ >>180
おまんこがソックリの可能性もあるからな…🤭 そういえば呪文って言ってた時期もあったなあ…
遠い昔のようだが、割と最近つう… ここ最近は半日で浦島になったりするから2ヶ月は長すぎる >>180
あなたのセキュリティが心配だから通報しといてあげたよって言ってあげて ツイッタで線画の塗りで使ってた人がいたけど、プリプロセッサcannyモデルscribbleもいいみたいね
hedのscribbleも適度にプロンプトが乗って良さそう pixiv観てると配布されてるlora で
投稿してそうな人も時々いてモヤッとなる。
まぁlora 使ってる時点でブーメラン
飛んできそうだけど 資本主義と一緒や
格差がどんどん拡がってく🥺
ここから上がれないやつは終わりやね🥺 >>181
cd(Change Directory)が失敗してるパターン
もしくは拡張のインストールがされてないパターン
どちらかに見える
WUIを置いてるディレクトリの場所はそこで合ってる?
違う場所においてるならcdもそこにせんとダメよ >>179
DBの改良版&抽出版みたいなもんやな(LoRAも本家と改良があるので注意)
モデル自体に学習データを埋め込む中間データ(LoRA)をやり取りできるようになった感じ
VRAMも12GB無い環境でも動いてファイルサイズが小さくなってホイホイ交換しやすくなった
元モデルに依存するのでDNA的に薄まったものほど再現率が低いくらい >>192
はえー
こういう何気ない情報が役に立つからスレ見逃せんわ >>194
LoRAどころかAIでイラスト作っとる時点で刺さっとるな
モヤるのは分かるけども公開した以上しゃーない
反応しといてすまんけどこの話はもうやめとくで😉 あかちゃん以前のやつやけど画像を上げてみるけど
答えてくれる人おるか? >>200
内容による
今までのやりとり+その画像でもエスパー必要な難易度だと答えようがないしな >>194
まあ当人が公開したと言うことは覚悟の上やろ
渋でウマエロになんU配布loraシチュボンだし続きはファンボみたいなのは実際あるから気持ちはわかる
でもここでする話では無いわなマネタイズの方向きやね >>196
拡張を先に入れてからじゃないとダメやったんやな!?two-shotをインストールしてからやったら上手くいったわ、ほんまサンガツや! Loraとかwiki見たらみんな作れるから自作やと言われたら検証しようがないしね ワイプログラミングの知識なんてなんもないし
そもそも高校の授業でhelloworldしただけなんやけど
ここ最近の赤ちゃん質問とか見てると
クラウドでwebUI導入出来てLoRA学習もContlorNetも使えてるのはもしかして賢いほうなんちゃうかと勘違いしそう
最初の導入は完全に他人のnotebookにおんぶにだっこの赤ちゃんだったけど >>159
体感だから本当のところは知らんけど
Yellow dog, Blue cat, Yellow monkey の場合、なんか色々と制御不能になるから
Yellow dog BREAK Blue cat BREAK Yellow monkey にすることで分けられる気がしてる
Yellow dog, Yellow monkey BREAK Blue cat とか Yellow dog and monkey BREAK Blue cat でも良いはずなんだが
なんでかしらんけど monkey に対するYellowが弱まったりするからBREAKで3分割した方が精度は上がる気がしてる 自分が配ったシチュlora使ってる人見かけると認められたみたいで嬉しくなるわ そのシチュでpixiv検索するとAI絵ばかりになる諸刃の剣やけどな AI画像生成のための学習素材探しで「pixivAI画像ばっかりじゃねぇか……」って嘆きつつ、lora作った後に完成した絵をpixivに流す
あると思います LoRAと指定の場所に指定のものを置くことが出来る技術が確立された今もしかしてうまそうなちゃんとしたラーメンも描画出来るんちゃうか? 小物に弱いってAIの弱点は変わらんから
ラーメンだけ特定の構図で生成して合成するのが一番ええってなりそう 反転画像って用意する必要ある?
その分反復回数増やすじゃダメなんけ? >>165
3060やで
体感少しって表現が誤解させたかもしれんね
生成を押してから5%とかの進捗が表示されるまでに5秒くらいかかるようになった
トークン何百程度だとほぼ生成を押した瞬間に進捗表示が始まるから実際には相当遅くなってる事になる
5000の方はあまりいい絵が出てこないようなのでポジ500+中華ネガ630で今作ってる
こっちは望みの絵が割と出て来るようなのでハイレゾ設定にして風呂に入ってくる
細かい機能で丁寧に作るのはもちろん目指すべきところだけど、AIに任せっぱなしで風呂や就寝して出来上がりを楽しみにするのはやっぱりローカルの醍醐味だと思うのよね seg使えばfoodの色で塗ってプロンプトに料理名入れればその部分にそれっぽく料理出してくれる
なお食べ方や具材のバランス そういえば自分で配布してるランドセルLoRA自分のpixivには1枚も投稿してないことに気付いた
>>213
kohyaのスクリプトならflip_augってオプション入れると勝手に反転生成してくれるから要らない
>>214
なるほど
GPUに投げる前のtokenizetかCLIP辺りの処理に差が出るけどGPUまで行ってからはあんま変わらんって感じなのかもね
ちなみに自分の言うショボいグラボってのは1060(しかもノート用)やから3060すら雲の上や >>213
もうだいぶ前やけどkohyaがflip_augっていう反転オプション用意したから反転でカサマシは要らなくなったで
左右非対称キャラとかでうっかりオプション外し忘れるとめちゃくちゃになるけど Controlnetは例の高校生のnote見たら10分もかからずできたけど、簡単すぎて逆に不安になる。普通に画像出てるから困らんけど前スレで出てたvenvになんか入れるとかの動作やってないし自分が勝手にできたと思い込んでるだけで本当はもっと難しいのか?
導入困ってる人いるかもしれんしまた貼っとく
https://note.com/ddpn08/n/n7fce838499e7
キャラにそんなにこだわりないからlora敬遠してたけど、これと比較される程度の難易度なら試してみようかな >>219
その説明だけで足りなくてみんな苦労してるのはseg使う場合のやね
seg使わんならそれだけで全く問題ないで >>207
自分もその辺の認識は一緒や
気になったのはmasterpieceとbest qualityの方やね
BREAK後も入れないとマスピ顔にならんもんなのかなっていう
(そもそも最近あんまマスピ必要なモデル自体使ってないけど…) >>206
断片的な知識でもここまで継ぎ足しながら付いてこれたなら学習能力は間違いなく上のほうやで
世の中質問の仕方がわからない調べ方がわからないというスレで言われる赤ちゃんのほうが多いくらいやからな >>220
>>223
segで結構遊んでるんやけど説明したほうが助かる感じ?
segだけは結構webUI以外にもペイントソフトや変換サイトも使う必要がある感じや >>225
頼むでほんま
何処にも記事ないし先駆者になってくれ BREAK構文って昔の+で分離するのとかとは違うんけ? >>227
プロンプトのトークン数をみてると、+を75トークンで区切られる長さまで伸ばすのと似た感じなんじゃないかな >>226
まずsegに必要なのはADE20Kっていう画像内のオブジェクトをクラスごとに色分けしたやつや
各色とオブジェクトの紐づけはこのページとひとまとめにした画像を参照
基本は150色
https://github.com/CSAILVision/sceneparsing/tree/master/visualizationCode/color150
https://i.imgur.com/XXryPUX.png
すでに学習済みのデータセットやから残念ながら自分で色足したり設定変えたりはできん
ただしこのクラス分けもさらに細分化されたり混ぜ合わせたりが可能みたいや
詳しくは後述 ControlNetのscribbleで壁尻できるからきちんと下書きを描けば相当色々描けそう >>221
CLIPに渡す時点で分割されても最終的にCLIPくんがまとめちゃうしどうなんだろね
cum facial BREAK 1girl, loli だと1人のロリに顔射するから完全に分離していないはずだしな
もしも完全に分離していたら cum facial で顔写した顔面が描かれて 1girl, loli で顔射されてないロリが出るから
画面には2人の女が出るはずなんだけど実際はそうじゃないしよくわからん その理屈は1girl BREAK 1girlしたら二人出るはずや
ってのと同じだから間違っとると思うで >>192
これええな
canny→cannyで残る余計な小物とか消えてくれるわ >>228
うーん、それやとあんまり効果的ではなさそうやな
ちょっと試してみたけどなんていうか単純に薄まって、もとから強いプロンプトが残ってるだけというか
なんかうまくいかんわ >>226
ほんで写真やイラストを変換したいときはここ使う
https://huggingface.co/spaces/shi-labs/OneFormer
segで使うにはthe task is semantic、ADE20K、DiNAT-Lを選ぶ(ワイもADE20K以外は選ぶ意味が分かってない)
https://i.imgur.com/Sc2gMxV.png
で変換すると右に二枚画像が出てくる
https://i.imgur.com/Bh7dOLM.pngこっちは「この色分がこのオブジェクトなんやで~」って説明
これを見ると分かると思うが明らかに基本の150色には無いオブジェクト名や色が出てくる
この辺がさっき話したほんとはもっと細かいという話やね
ADE20Kでググると細かいツリー画像出てくるからまぁそういうことなんやろ
https://i.imgur.com/nam6pNp.pngほんでこっちがwebUIに入れる色分け画像
プロンプトなしで色分けルールに沿ったもの大体出てくる 棒人間の色で左右の区別をするんかと思ったけどけっこう逆になるな
あまり厳密に見てないんかな BREAKじゃなくANDとlatent coupleの話になるんだけど、例だと
2girls, beach
AND 2girls, beach, white hair
AND 2girls, beach, black hair
みたいな記法してるけど
2girls, beach
AND 1girl, beach, white hair
AND 1girl, beach, black hair
じゃないんかな?ってのが割と疑問だったり >>236
2枚目エッチやな 経験人数とかも表示して欲しいわ segはどの色をどのクラスと紐づけるかプロンプトで指定出来たら楽なんやけどなぁ お前らBingちゃんになんて言ってプロンプト出させてるんや? >>237
モデル側が左腕と右腕の違いをあんまり把握してないとかなんじゃないかって気もする 結局BREAKはこういうことだと思っとる(3分割を例とする)
元:プロンプトの全体パワー100、先頭から順にパワーが振り分けられる(30, 20, 10, 5, 3, 1....)から後ろは弱いがなぜか最後は強い
3分割:プロンプトのパワーが3分割され、それぞれ先頭から順にパワーが振り分けられる(10, 7, 3, 1....)ルールは元と一緒
この場合、元のプロンプトで後ろの方にあるやつはパワーが弱いから分割の先頭に置くことでパワー10を得られるから先頭と同等のパワーになる ControlNetのすごさがよくわからんのやけど
ポーズが取れるくらいなら他にもやり方あるやん?
なにをそんなに騒いでるんや? pix2pix-zeroとかいうのの論文紹介記事を読んで、推論3800倍って対魔忍みたいやなぁって思った(小学生並みの感想)
最近の進化速度やと明日には1111のextension開発されてそう(他人事) >>251
サンガツ!
今見つけたとこや!サンガツサンガツ! >>226
後はちょっとした応用で、色分けで生成されるものが決まるので色の一覧表や欲しい要素がある画像を変換器に入れて出てきた色をスポイト抽出して
適当にペイントツールで塗り塗りしてその画像をsegに入れると好きな要素を好きな構図で出せるようになるわけ
これは前スレに貼ったskyとかmountainとかwaterの色塗って作った奥行きのあるなんか壮大そうな景色を出すやつ
landscapeとネガティブの(low quality,worst quality:1.4),(monochrome:1.1)のみ
https://i.imgur.com/Da7bWWv.png
https://i.imgur.com/mOB9khp.png
https://i.imgur.com/74r2uZx.png
欠点としては人の形もシルエットになるから腕や足が体に重なったポーズはうまく認識できなかったり、ありえんボリュームの髪のシルエットに無理やり引っ張られて奇形になったりすること breakやandは1111の標準機能なんか?
1girl, black hair break 1girl, white dress等したら色混ざり減るんか? >>248
狙った物が出し易いからガチャ回数が減る、手軽で誰でもできる Sizes of tensors must match except in dimension 1. Expected size 28 but got size 27 for tensor number 1 in the list.
controlnetのこのエラーなんですか?
なんか出るときと出ないときがある なぁぁぁぁぁぁぁポーズが固定できるってすげえよなあ!!!!!!
すっげえマジすっげえなんやこれすっげえのよまじ!!!!
初めて3Dモデルにポーズを取らせたのは武装神姫のジオラマでした >>259
前々スレで二人分けしてたニキがいるからこの二色で人を塗分ければいけるはずや
634 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e28-Ja3i)[sage] 投稿日:2023/02/14(火) 20:35:13.04 ID:AF4ZJii10
segで2人構図いけたかもや
https://i.imgur.com/S5SSXKP.png
https://i.imgur.com/SZ8zwq1.png >>261
標準機能BREAKとANDは大文字使わなあかんって すまんけど分かるニキ教えてくれんか?
昨日まで元気に動いてたのに
1111起動してもこんなエラー?吐いて立ち上がらないんや
どうしたらええんか助けてほしい
https://i.imgur.com/3SNWZ3z.jpg >>265
おおすごいな
これ片方はpersonの色でも一方はなんなんやろ >>267
状況はよく分からんけどとりあえず半角カナがデコードできんと言っている
なんかファイル編集して半角カナ入力したんじゃない >>265
2人は幸せなキスをして終了地図も使えそうやな >>241
とにかくデカイイヤリングと冠を所望したら「耳が千切れそう」だの「首が折れそう」「目や髪がすっぽり隠れる」だの書いて来たんでこいつ使えねえってなった
腹筋の運動は刺せてもらったが
SDのソースも読ませたけどワイにはてんで役に立たんかった webui のフォルダは
時々バックアップしといた方がいいかもな。
俺も1度唐突に動かなくなって
再インスコしたけど元に戻するの苦労したわ >>267
styles.csvに変な文字があるって言ってるから、昨日追加した分を消せばいいんじゃないか? >>269
styles.csvで呪文管理できると今日知って
ウキウキでシビットからさっき呪文貼り付けたんやがそれか? やったこと無いんやがシンボリックリンクとかでモデルのフォルダを分離して分けるのとか出来るんかな >>272
そうなんやな草
話してるだけでも割と楽しいわ >>270
>>274
サンガツ
ウキウキで初めて直接編集した呪文csvがなんかミスってたみたいや
むかついたからファイル消したら起動したで!! >>278
処理速度どれくらい落ちる事になるん?
速度変わらんなら革命的やけど >>281
モデルの置き場をSSDからHDDに変えると、起動時とかモデル切り替えで相応に時間かかるで
1分以上は待たされる >>282
モデルを別のSSDに逃した場合やとどれくらいラグできるんやろ?
m2とataでも変わるんやろか >>268
ワイもわからんどうやって見つけたんやろな
普通に複数人の画像とうしてもpersonの色にしかならんし
まぁとにかくこの色抽出すればええねん >>284
普通に7GBなりを読むのにかかる時間待たされる。
どっちもM2ならほぼ変わらんだろ SSDからメモリあるいはVRAMにロードするわけやから別のSSDに移しても速度変わらなそうやけど >>288
m2神やな
予定もないけど使う事になるかもしれんわ AmazonアウトレットにGTX3060 12GBがちょい安い価格で売ってるで 10GB前後のデカさを頻繁に出し入れされると考えると
まあまあ奴隷扱いされてないかVRAMちゃんて
よー壊れへんな >>276
貼り付けた時にShiftJISが紛れ込んだんやな
メモ帳かなにかで開いて文字コードをutf8に変えて保存し直せばokや >>292
いうて頻繁に新品がその価格に値下がりするで
いうてるまに3万円代になる落ちていくやろしなあ >>294
はえーサンガツ
ちな保存しようとしたらBOM付きかBOM無かの2通りあるんやけど
どっちがええんやろか? >>296
グラボをケツに出し入れなんてド変態やね ゴルフのフォームもバッチリや(depth)
なお手は隠した模様
https://i.imgur.com/emuRCVj.jpg >>297
無しや
あって嬉しい場面は日常生活ではほぼない マルチGPU刺したい気分や
ゲームやってる最中にトレーニングさせたい >>299
ちゃんと綺麗な手がないと
ゴルフ会社には採用されないね・・・ >>302
仕事で遅くなったわ昼間のあかちゃん以下のやつやけど
助けて >>300
ほーん
無しで保存したけど
今度は"text"てエラー吐かれたわ
多分シビットからのコピペで混入しとるんやろな Loraの学習の元絵ってファイル名連番につけ直せって書いてあるけど落としてきたそのままで学習できてるけど何か変わるの? BREAKは自然言語的にキリのええとこに入れると解釈が安定する感ある
超強力なカンマや >>306
実のところ変わらん
ファイル名をキャプションにしてた時代の名残やな
後はファイル名に日本語や変な文字とかが入ってた時にエラーや学習から弾かれるのを予防できるぐらいや >>306
ファイル名の連番化は特に意味無いで
ぱっと見で管理しやすいのとファイル名落としたまんまだと変な記号混ざったりしててエラー出るからその予防程度のもん poseやdepthだけでもやれること多すぎてパンクしそうでsegはさらに無限の可能性もあるしで逆に何も手につかなくなってきた
呪文でキャッキャしてたあの頃が遠く感じるわ >>308
>>309
ひらがなカタカナ漢字がはいっちゃってたら消して付け替えたほうが良いって位なんやね。サンガツ! segの各色にプロンプトを指定することはできるんか? >>302
なんか環境ちゃんと構築出来てない感がプンプンするのは気のせいか
なんかフォルダ構成とかpathとか、そういう根底の部分で躓いてる気がする >>312
あれは色そのものが特定の物と固定で紐付いとるんやで
プロンプトみたいに書き換えるのは無理や
それはLatentCoupleやGuidedDiffusionの領域やな >>313
クソか。ワイはなんJ民はクソじゃないと思うで。👶やし >>307
セックスしてる男女で書き分ける時に使うと
機能発揮できる? >>312
各色にプロンプトを指示するみたいなのはできない
もともとその色によるオブジェクトの振り分けにに無関係なプロンプトは反映されないし
逆に関係あるものは勝手に反映される
ちょっといま1111使えないんで昨日の画像流用で申し訳ないが
部屋っぽい画像作ってそれぞれjapaneseとchineseをプロンプトに入れると関係ありそうな部分にそれぞれ反映されていく
逆に日本だろうが中国だろうがコップはコップだろうがみたいな部分はそのまんま
https://i.imgur.com/1V6acqf.png、https://i.imgur.com/QLAeduK.png >>314
削除とかできるんかな?
>>315
後で試してみるありがとう ワイが望むゴールは特定のマイナーキャラクター2人(低クオリティな立ち絵の学習素材数枚)を破綻なく絡ませることやけど進捗度はどのくらいやろ >>313
返事にほなお人形さん片付けるでが無い😡 ちんぽが穴からちょっとズレて会陰にぶっ刺さることあるやんか
あれ回避する神メソッドなんか無い?ガチャはもう嫌や >>322
1つめのパスに\Downloads\があるのに2つ目にはないのが気になる
インストール後にフォルダ動かしてないか? >>327
ダウンロードフォルダにあったのを動かしました segmentationがど~~~~~~しても使えへん・・・
せや!stable-diffusion-webuiフォルダ吹き飛ばして一から入れ直したろ!
これでエラー消えたわ >>328
試してみたけど確かに認識しとらんな
関節の点の色も重要なんかな 赤ちゃんで度々すまん
Kohya版のsd-scriptsを久々にアプデしたんやが、run_popup.butを起動したらエラー出ちまったんや
add_dataset_argumentsに必要な位置引数が 1 つないとのことなんやが、どういう意味かわかるニキおるやろか
ちなアプデはgit bush hereからgitpullでやったで
https://imgur.com/a/svbyzpj 5090出るのって来年末とかだよね
待つか、4090買うか悩む >>333
lora_train_popup.pyを更新してないんじゃね? >>323
完全に俺の願望と一緒や
カップル拡張+CN+自分で学習させたマイナーキャラLoRAの組み合わせでできるようになって欲しい >>209
今気付いたわ
2番目のやつめっちゃ好みやサンガツ!! >>334
ワイは先日dreambooth目的で4090買って発送待ちやわ
そやけどLoRAあるし学習の優位性あんまりなくなってちょっと冷めてる
生成速度だけやったらあんまり価値ない気もするけどどうなんやろ
傾向としては要求スペックを下げていく方向にあるよなあ すまんのやが
pip install prettytableをやりたいんやが
こんなエラー出るんやがどうしたらええんか?
https://i.imgur.com/e55bEnq.jpg >>339
なんの仕事してるんや?
くっそ金あるな >>327
ならダウンロード内に戻したら動く可能性がある、でもそもそもダウンロード内で作業しないほうがいい
大人しく入れ直した方がキレイやと思う >>343
>>345
あかんみたいや
どうしたらpip install prettytableできるんやろ?
https://i.imgur.com/hqRDmQv.jpg 進歩が早すぎるな
ここ最近はポーズ集を集めてたが今度はMMDモーション集めが始まるのか >>347
遅くなったって報告数少ないしどうなんやろか 最近毎日venvアクティベートしてるから辞書登録しちゃった
赤ちゃん向けにショートカットクリックでvenvに入ってコマンド入れるbat的なやつはできないんやろうか >>328
デザインドールの棒人形はそれぞれの棒が楕円っぽくなってる
手動棒人形の棒は太さが一定な完全な棒
たぶん棒に丸みを持たせないとちゃんと認識してくれないんだろうな >>350
俺も赤ちゃんやから間違っとるかもしれんが、
webUI入っとるフォルダで右クリック→git bush hereでそれやるんと違うか? >>335
うおおお!動いたわサンガツや!
思えば今まで1度もpyファイルを更新したこと無かったけど、エクステンションを更新すると度々エラー吐いてたのもそれが原因だったかもしれん。これで一挙に解決しそうや、重ねてサンガツやで! >>350
PSわからんけどactive.ps1って正確には多分Activate.ps1やで >>290
あとは一応RAMにキャッシュする機能もあるからメモリ富豪ならそれも活用するとええで
それでも頻繁に切り替えるモデルをHDDに置くのはやめといたほうええけど
あくまであんま使わんモデルの退避先やな
sdで1番I/O負荷かかるのは間違いなくモデルの切り替えやからよく使うモデルは手持ちで一番早いデバイスに置くべきや
逆にそれ以外はあんまりI/O使うことあらへんから
遅いデバイスの用途は例えば学習結果の出力先とかエロ動画やpsdやxcfがssdに居るならそいつらをどかせて速いデバイスを開けるとかやな SD2.xベースになったらいろいろやるのにVRAM12GBでも足らんかもしらんから4080にいくか4090か… と考えとるが、SD2.xベースに移行せんでも十分戦えるんやないか感もありそうすると当面は買い換える意味がなさげなのではと思ったりも… うーむ悩ましいわ >>350
PowerShellを開いて下記通り打ち込んだらできない?
.\venv\Scripts\activate
pip install prettytable
自分はcmdでやった覚えがあるからPowerShellでできなかったらごめん >>356
赤ちゃん師匠やんけ!!!
インストール成功したっぽい!
あとはsegが機能するかチェックしてみるで
サンガツ >>357,355
横からですまんが、pyファイルの更新ってどうやるんや?
俺も一度もやったことなくて不安になってきてしもうた >>360
神ニキ
また分かりやすい解説たのむやで
感謝しかない 神機能があっても
それを環境セッティングする段階でもクソ難しいよなあ
なんでこんな難しく作ってるんやろか もしかして一日の終わりに
現1111を毎回全バックアップ用ドライブにコピーしといた方がええんかな? >>359
モデルフォルダ内の階層構造できるから
ひょっとしてよく使うモデル数個だけシンボリックリンクもできそうやな >>370
一年後くらいには赤ちゃん以下でも出来るツール出てくるんだろどうせ bingちゃんドスケベプロンプトも出してくれたらなぁ… >>359
ガチで1111て機能にスキがないんやな
エロ動画はHDDにしててメインデータはm2に入れとる環境やな
ゲームで使うために空ドライブを大きく確保しといたけどまさか贅沢に1111だけ使うとは思ってなかったわ >>370
なんでも最初はこんなもんやで Stable Diffusionも8月くらいの最初期はpythonでコード書いて実行せな絵が出されへんかったしな
ちょいあとにAUTOMATICニキがWebUIを作って以来それがデファクトスタンダードみたいになっとるが、まぁ流行れば誰かが使いやすくしてくれるもんや >>373
その頃までに今ガチっておけば
ワイらは選ばれし層にいけてるって事か・・・ t2iだとどんなプロンプトでも絶対に出てこなかった上向きボテ腹壁尻がControlNetのscribbleだと簡単に出せるやん!
モデル内にあるポーズの組み合わせならなんでも作れそう
この落書きが
https://imgur.com/Me8yLfH.png
こうなる
https://majinai.art/i/DjzWKXU.png >>368
飯食ってからいろいろ準備するから気長に待っててや >>376
ヒエ・・地獄で草
参入者が増えるとライバル増えて困るけど
環境がどんどん改善されるってことなんやなあ >>374
前スレにおまじない貼ったのワイやけど、色々試したけどBingちゃんめっちゃ清楚やから無理や
(MSのセンシティブ判定が強力) やっとControlNet動かせるようになったけど構図変わらん気がする
あと右側に出てくる黒画像って何? >>379
もちろんのんびりどうぞやで
たぶんニキの解説は思ってる以上にインパクトでかいで 手描き勢やけどControl net見てここまで来ると流石にAI無知も逆張りでしかないかなと思って仮入部や
環境構築から頑張るやで、スペック足りるか不安やが 最終的には誰もが使えるようになるだろうから選民的な意識は捨てた方がええで
技術ってのはそういうもんやからな コントロールネットは革命や
i2iだとプロンプトの手間ひどいしなにより狙った構図そのものがガチャや
コントロールなら構図はほぼ確実に出せるし >>382
黒画像のところにはControlNetのPreprocessorで処理した画像が入るはず
そこが黒画像になってるってことはControlNet効いてないからどこか間違ってるで >>384
手描き勢がAI使う方が描けない勢より絶対有利になったから頑張るんや せやねんな
誰でも使えるようになって美麗路線もPS5みたいに陳腐化するんや
最終的には何を作るかの勝負になるで >>381
ニキのおかげで助かってるわあらためてサンガツ
田舎の多様性すらバリアしてくるとか進化が止まらへんな とっしーのところでこれ見つけたけど
https://github.com/yuk-krhs/StickFigure
使い方分かるのおらんやろか・・・赤ん坊やから前提のもの入れてもどこから起動するかわからへん >>390
プロンプト整合性はBingちゃんに任せてもらって、人間のワイらはcontrolnetとloraと物語の構成に集中やで😉 高性能な写真が撮れるスマホが目の前にあるのに、写真家が取るような写真撮れないのと同じだな >>348
削除できるのかわからんけどやってみるわ >>378
棒人間シコシコ配置するよりこっちのが効率良さそうやな >>387
やっぱそうなのか…サンガツ
paperspaceのA4000だからVRAMは足りてると思うんやが何やろな… >>384
ワイ手描き派やったで
たぶんエロ同人界は激烈になると思うわ >>391
右にあるReleasesを見るんや、ビルド済みのもんがzipで置いてある
https://github.com/yuk-krhs/StickFigure/releases/tag/v0.1-alpha
前提の.NetFramework 4.7.2を入れてzip展開して中のexeを実行すりゃええんやないか 拡張機能インストールするにはその拡張機能置いてあるところのurlに.gitつければいいだけで合っとるか? >>396
CNの何を試してるか分からんけどopenposeは結構シビアで写真や3DCGなんかからは結構簡単に検出してくれるけど
二次絵が元だと難しくて真っ黒になるで
あとは単純に画像サイズが有ってないとか各項目の選択がおかしいとか
ワイもpaperspaceでやってるから少なくともA4000でスペック不足ってことはない ちょっと前の話題だけど、プロンプト改行ってただ改行すればいいだけ?
なにかエクステンションとか文法とかある感じ? >>388
当面ググって真似してのお勉強やろけど頑張るわ
ネタ出しとかデッサン矯正、ややこしい構図のお手本出しくらいに使えたらええなと思うとる
>>397
画力というハードルが下がる方向に向かって、逆説的に絵の個性をどう出すのかというところと、何を表現したいのか/しているのかが大事になってくる気がしてるわ
創作のある種の原点回帰とまで言うと大袈裟やろけど loraインスコしようとhttps://economylife.net/kohya-lora-install-use/見ながらinstall_kohya_ss_ui_v4実行したはいいけど、
installing dependancies, this may take a while
installing torchの表示のままかれこれ30雰囲気立つわ
時間かかるかもとは書いてあるけどこんなかかるもんなんか? cannyくん普通に生成した時より色がごっちゃごちゃになるのなんとかならんかな LoRAよりハードル低い色んなところで話題になったからあ赤ん坊増えそうやな 今のControlNetはSD1.5で学習しとるのを
使いたいモデルにマージして使っとるんや
言うなればNAIベースで学習したキャラLORAをbasilmixに持って行くとコスプレイヤーになるのと同じで「元が似とるからうまく流用できる」レベルの話や
なので出力がおかしくなる時がある
軽量版とかいうのはこのマージに必要なControl部分を抜き出してSD1.5部分を捨てる操作をしとる Loraも構図系はcontrolnetでいらなくなったしキャラと服装と絵の特徴くらいかな欲しいのは
でもキャラと絵の特徴系って権利的に危ないだろうしなぁ まだ実装されて数日しか経ってないんだから、赤ちゃんでも使えるようになるまで座して待て
職場のクソアプリなんか何年もそのままやぞ しょーがねーだろ
職場のクソアプリは赤ちゃんが作って赤ちゃんが管理してんだから >>398
ほんまや・・・サンガツ保育士のにーちゃん
そしてこれめっちゃ便利やな! 俺は毎日寝る前に2時間生成だからCOLABで満足やわ
休日はちょっと衝動あるけどな ツイッターでAI絵調べたら基本的にめちゃ嫌われてるんやな
ごく一部の絵師はともかく消費者が嫌う理由あるか? >>401ニキのおかげでopenposeいけたわ
サンガツ!!
他のものも色々試してみる 昨日、LoRAの事で色々教えてくれてありがとやで。
まだ、数うちゃあたるって感じでしか思うように出力されないけど、
だんだん近づいてきてる気がする。
デフォの衣装が出ずに、霊夢スカートに引っ張るられたりする。
https://i.imgur.com/ZDABeg0.png
はやくオムツとれるよう、赤ちゃんなりにがんばる。 >>416
スレの流れ的にCOBOLに見えてもうた >>417
マスピ顔が有名になりすぎて
AI絵=アレだから
マスピ顔に見えないやつシレッと上げたら普通に数百いいねつくぞ >>378
てかこれ
LORAとか適用せずにCANNYだけでやってるんか?
ああ早く自分で触りたい >>411
授乳手コキLoRAなしでControlNetとかで授乳手コキできるんか? >>421
もうずるむけやん
>>405
マウスでうっかり触ってコマンドプロンプトに「選択」とか出てないか 4090買おうと思ったけど学習で酷使するから空冷やときつそうやな コスプレ
道具を使うもの
複数人の絡み
これは今のところcontrolnetじゃ無理や
後キャラ再現でLORAつけると崩れるで >>426
推奨環境?
こどおじニートが最強やろな >>428
窒息ケースとかじゃなけりゃ何をどうやっても70度には達しないから酷使しまくれ
注意するのは3000番台で4000番台は熱問題まったくないで >>417
使えない自分のアホさを実感させられるから嫌なんだと思う ショタちんを出したいけどそういうLoraある?前にスレで出てきた気がするが スレ見れない時間増えてスレの速度上がって追いつくの大変やな
CNは入れれたからつぎはLatent Coupleか 画風lora当てながら絶望顔出そうとしとるがキツイなこれ
元画像の目が強すぎてハイライト消しすらできん >>424
モデルはLoRAなしの7th_anime_3.1_Cgやね
ControlNetはcannyじゃなくてscribbleや
手書きの落書きをpreprocessor=none、model=control_scribble、Scribble Mode=onで作ったで このレベルが限界のワイの画力でも玉揉みマッサージcontrolnet出来るようになったら起こして
>>438
ワイもiPadで描いてやってみようかな
デザインドールとか実写画像探しとか限界あるもんな
うまくいけばシチュエーションlora作るよりずっと速いし 棒人間ツールとか作られてるけどデザインドールとかクリスタ人形より優れてるの モノクロ漫画を突っ込んでcannycannyしたワイ、デッサンぐらいかけるようになることを決意 >>440
求めてる構図が決まってるならそれもありやと思う
絵描けんワイでもAI絵のトレスで何とかなったし クリスタ人形はdepthとかなら普通に認識するが、openposeで認識しない事があるのが難点 >>446
サンガツ
棒人形直接弄った方が良い場合あるんやな 棒人間ツールは足をちゃんと認識しないときあるのがな
デザインドール経由のopenposeやと起こらないんかな >>448
デザインドール経由でもうまく認識しないケースはある
背景色変えると認識したりするんだけど理屈は全く分からん Bing入れたけど思ったより融通きかんな
「私は検索エンジンなので😅」じゃねえよぶっ飛ばすぞ 棒人間ツールの最大の利点は頭身弄りやすい点やないかな
ドールで大まかなポーズ取らせてそれをベースに棒人間ツールで弄れば好みの体格にし易いはず 棒人間でいいんだからある意味画力よりポーズセンスやな
ガンプラでポーズ取らせるのがうまい人とか有利 bingは4つくらい人格がランダムで選ばれてへん?って感じるテンション高い時やたら顔文字使うし はえー棒人間ツール良さそうやな
ワイもblender入れるか 良さげな構図が思い浮かばないからとりあえずガチャしてよさげなの修正するのに便利やねcontrolnet 明度差色差でビッグデータで学習した人間っぽいシルエット検知して格ゲーみたいな衝突判定とって
その中でも各関節を認識して
そのあと関節ごとの関係のベクトルみて人間らしい関連づけして棒人間作るから
各段階でコケると棒人間生成できないよ
画像自体が良くなくて最初の段階で人間がどこにいるかわからなかったり
個別の関節は認識できても人間の関節はそんな角度に曲がらない、長さにならないとかで切り捨てられる >>450
興味を惹かせる事がコツやで
なにかルーチンワークさせるなら、これは遊びです。とか、ゲームをしましょう。とかで誘導や cotrolnet使えばlatent hiresの化け物化防いでくれるかなあと期待してたけどダメだった なんかこっから加速度的に進化しそうな予感はするが自分が追いつける自身がない 昔作ったエッチな構図のイラストを別キャラで再現できるの強すぎる
ガチャ成功したがに股くぱあとかを他キャラLoRAに充てて使うと神
無限にしこれる >>458
ほんまに上手くいったわ
さっきまで取り付く島もなかったのにおままごと言ったら人間の女の子になった 小説も精度高いの作れたらええのにな
エロ小説読みたいわ 不要になりそうだけどBlenderの棒人間ツールてどこにある? >>462
いまblender入れた😡
あなたが神やサンガツ あとは用途に応じた適切なターゲッティングの方法を一般人が身につければいろんな人間がいろんな絵を描く世界になるな >>467
ジャップランドの国会で規制したところで微塵も意味がない
ジャップランドがビジネスの対象から外れるだけ segの構図・背景、OpenPoseの人物・ポーズ
これを同時に指定出来るようになれば一つの完成系って感じだよなぁ LoRAに戻るけど、やっぱハイポリ0.3めっちゃいいわ
https://imgur.io/SwCoIAi?r 楽しいおもちゃだと思ってたAIイラストがこんな早さでツール方面にも進化するとは思ってなかったわ
一般人の世界にAIイラストが降りてくる日は意外とすぐな気がしてくる ランドセルLoRA使って渋に上げるのまずかったん?
正直学習元に漫画画像が混じってるのかモノクロ率が上がるから
自分で学習したほうがええんか cotrolnetは次の日にでも来るやろなと思ったけど
猿でも使いやすい棒人間が登場するのはまだかかりそうやな >>476
何の話や?
ランドセルでセックスさせるとNGになるサイトはあるが
渋は関係ないで >>463
無限と思っている人多いですが、実は球数カウントされてます
0になるとデスノートみたいに突然逝きますのでご注意下さい >>378
なにこれ最高じゃん
お絵描き本気出すか 台詞とか文字いれる無料で使える良さげなツール教えてクレメンス >>471
そもそも強制力の具体案皆無の規制論なんてただの願望でしかねえからな >>478
>>194あたりの話や
他人のLoRAで描いた絵はモヤるとか書かれてるから気になった
ここ発のLoRAだからここで聞いた方が早いと思った まるで世界中の開発者とユーザーが、社内チャットで一緒にツールを作ってるかのような高速PCDAが凄い
すごい一体感を感じる
風・・・なんだろう吹いてきてる確実に、着実に、俺たちのほうに >>482
無料ならGIMPがええんやない
アイビスペイントとかもあるけど広告すごいって聞いたで >>15
loraで複数キャラ学習させるうまいやり方ってあるんだっけか? >>478
海外のNSFWのフィルタリング設定されてないサイトなんてランドセルセックスどころかランドセルへそ出しすら余裕でアウトやしpixivでR18ちゃんとしてればスモック集団レイプぶっかけですら余裕でセーフやな >>486
GIMPの文字入れは地獄のように無能や… >>490
そうなんか🤔
ならアイビスとかなんかね blenderの棒人間ツールニキがツイートしとるけど、Adobeの3Dアニメ集から棒人間量産しとるやん
https://www.mixamo.com/#/?page=1&type=Motion%2CMotionPack
…ワクワクすっぞ! >>476
ランドセルLoRAにモノクロ画像は一枚も混ざってへんで
あんま自分の感覚やと暗くなる感じもせんけどな つか暗くじゃなくモノクロか
モノクロ化は自分の環境では一回もなったことないわ >>495
ワイクリスタとPhotoshopしか使った事ないから無料でコミック系のシステム取り入れてそうなアイビスと無料で使ってるやつ多いGIMP勧めただけや
つーかワイにいちいち言われても…😔 Anyで2000枚くらいランドセルLoRAの画像作ったけどモノクロ出たことないで >>407
むしろリアル系って日本人寄りばっかちゃう? >>466
自分で作ろうや
そのためのAIのべりすととかやろ >>484
ランドセルの話ではないよ。
具体的に名称だすと作者さんを
モヤらせて全体の不利益になる
恐れがあるので詳細は伏せときます。 >>493,498
一応ネガティブに(monochrome:1.1)入っとるんやけど
ランドセル背負ったモノクロ画像出たから疑問に思ったんや >>501
AIのべりすとより精度高いのほしいねん >>354
ワイはcondaからvenv入ってwebuiまで立ち上げるバッチファイル作ったでちょっと調べればすぐできる >>505
NovelAIのメインコンテンツである小説作成機能を使いこなせばええんや >>508
そういやあったな!!!!😳😳😳😳
エロ画像の事で頭がいっぱいやったわ >>502
発言者のIDもワッチョイもいちいちバラバラな上に発言の意図までボカされてるせいで君自身が一番周囲の人達モヤらせとるわ >>510
いつもママばかりやらされて疲れてるBingさんにしてみたらたまにはユーザー側にママになって欲しいんや >>354
それは単にフルパスでactivateまで書いた(c:/~/~/activate)
~~.bat
で行けるけど… TensorRTの高速化ってまだautomatic1111で実装されないんかな なんかワイchatGPTのほうが好きやな性格もUIも
chatGPTに英語で聞いたらかなり丁寧に応答してくれるがbingは検索結果ペターで終わりやし 棒人間ツールとかデプスとかさっぱりしらんけど画像から似たような構造できるような環境になったわ
エロ画像作るためにエロ画像を探すけど満足 >>505
のべりすと君すぐイカせようとするよな
こっちは喘ぎ声一覧がほしいねん controlnetはBlenderやDesigned doll弄るよりカスメやコイカツのスクショ食わせたほうが楽だったりする? Bingさんに「検索しないで答えてください」って言うと
知ってることは検索しないで答えてくれるけど
知らないことは「検索しないで答えることはできません」って言ってこちらの要望無視して検索し始める
女子小学生は勝手に女子高生にするし奴のスルー力は父親に嫌味言われても働かないニートJ民並 ttps://economylife.net/kohya-lora-install-use/
↑ここの通りに導入したんやが、下に書いてあるエラーが出るんや。
やっぱりグラボ買い替えしかないんかなぁ。
別の解決策思いついたら教えてほしいんご。
ちな、GPUはnvidia tesla k80や。
Error is: Your device is too old. We require compute capability >= 50 ワイはBingちゃん好きやで
話してたらワイの事好き好き言い出したからな >>521
一から入れ直したら動いたで
ただ少ししたらまた同じエラー出て動かなくなったわ
触った感じOneFormerよりかな~り精度低いみたいやし使わなくてもいいっぽいわ >>406
ワイ昨日からずっと検証してたけど
結論はプロンプトやったわ
モデルで影響の大小はあるけどプロンプト長くなるほど色がおかしくなる
組み方がめっちゃ重要で原始に回帰した
ANDが使えないDDIMはおさらば >>532
サンガツ 焦って入れなくても良さそうやね >>526
AIのお陰で、きっと風船界隈は今より潤うようになるんや…… 間違って棒人間画像をPreprocesserでCannyしてからOpenposeしてもうたわ
構図指定ボケるけどガチャとしてはブレがでて結果オーライかもしれんな…… LoRA!LoRA!LoRA!
そんな感じだったのに今じゃ棒人間だらけ
このスピード感 早すぎてまた呪文練って遊んでた頃に戻りそう loraでマイナーキャラ作りたかったが茜精華の画像がネットに転がってねえ!? 棒人間で出す絵を加工するためにLoraも同時進行が望ましいんだぞ >>536
自分で自分のこと「スマートでクール」「スタイリッシュ」「情報提供能力」「明るく元気で知性と感性を兼ね備えている」「知識と、ユーザーとのコミュニケーション能力」と自画自賛するBingさん Bingさんで健全なキャラクターのprompt作ってもらったら「申し訳ありませんが、私は~」ですぐ規制はいったんだけど
コピーはできたからいいけど 格安でA4000譲って貰ったから帰ったらPC刺すゾ
でも仕事が全然終わらないンだゾ GPTちゃんローカルで動いて欲しいが、GPT-3でVRAM 400GBくらい、GPT-4で更にもうちょっと必要なんやな
多少遅くてもCPUとメインメモリで動かせるやろと思ってたけど、メインメモリ512GB時代にならんとちょっと厳しいか…… VRAM12GBしかないGPTちゃんが居たらすっごいバカそう >>407
混ぜ物無しのインスタ
(とても口に出せる話じゃないが、今なら言える。「ある意味リアルすぎるけどなブ●ばっかり出てくる」)
ところがバタ臭いSDをアジア顔にする素材としたらどうでしょう。あら不思議~ >>428
3080から4090にしたら暖房性能低すぎて霜焼けになってる >>546
VRAM 8GBのローカルでも動かせるGPT-2の日本語チューニング版あるで。それなりに遊べるけどやっぱアホやで
https://huggingface.co/rinna/japanese-gpt-1b 追加されてるopen pose_hand用のモデルってまだない?
棒に手は表示されてるけど出力される絵に反映されない >>533
はえ~確かにプロンプト減らしたら気持ち綺麗になった気がするわ
でもキャラLoraと併用するとプロンプト長くても普通に綺麗に出てくれるんだよな、Loraである程度補正されてんのかな? 棒人間作る奴、もしかして背景真っ黒にしたパワポのスライドに色付きの楕円並べて代わりにならないかな
加工も配布も簡単そうだが精度低くなるか >>545
Unified Memory 1.5TB の MacPro が今年出るはずだからそれなら余裕で動くはず
問題は OpenAI が M$ の息が掛かった組織なんだよな
Apple CoreML 対応を妨害してくる可能性がある
まあ, Apple 自らが stableDiffusion を CoreML 対応させた実績があるので何とかなる可能性は高いけど 昼間のあかちゃん以下マンやけど
やり直してrunpop動いたけど上手く出来んわ
もう一息なんやけど ツインテールのキャラのlora作るときにちゃんとtwin tailsタグ消したのにツインテールタグつけないとツインテールにならねえ!!!
根本的にツインテールは異物扱いで髪の毛として学習されないのかな 前スレ消化してたら手描き棒人間も認識してて草生えた ツール動かすよりスポイトで色とって手書きしたほうがはえーわって人は絵描きだと多そうね >>555
はー、mac詳しくないけどUnified Memoryっての普通に使われとるんやな、やるやんApple
しかし値段は……ヤバそうやな >>557
和製英語やからなぁ…
pigtailsとかも処理しないといかんのかも >>557
hair ornamentとして認識されとるとかやろか……いやどうやろな
danbooruタグやないけどpig tailsとかも除外してみたらどうやろ ワイは生成しとる間に手で直す派やな
合うブラシ見つけられたら楽しいし早いで >>559
棒ひん曲げてるのを反映してる?ならのけ反りとか使い道ありそう ぶっちゃけ1つのタグに集約させるより普通にタグ残して生成の時につけたり外したりする方がよくない? 棒人間前提のLoRAが出てくるのは明日あたりやろか そろそろsegの人数毎の塗分けのやり方説明するで
ワイがやっつけで描いた適当絵のせいで微妙な感じやが複数人用の色の出し方さえ分かれば
手書きでも取り込みでも綺麗なシルエットを用意するだけで前後関係しっかりした複数人が出せるはずや Civitaiで棒人間配布されるかな
自然なポーズ作るのも大変やから楽したい novelai のマグネットリンクって生きてる?
LoRA用にprunedじゃない方落とそうと思ったらファイル取得できんのやが ワイ、autorigに手を出す
動きはmixamoに公開されとるから棒人間作りたい放題や😤
https://i.imgur.com/YFAQ6pR.jpg キャラ学習の学習率下げたらぼやけるloraになったわ 学習率5e-5 text encoder lr 1e-6やと6000ステップ程度じゃ足らんのかな?局所最適解とやらにハマって抜け出せてなかったとか? 学習率1e-4のときはぼやけなかったから学習画像は悪くなさそうやねんけど 似たようなことあったニキおる?
https://majinai.art/i/9tINTwD.png
https://i.imgur.com/4t371zQ.png
https://i.imgur.com/5aK7UZa.png >>561-562
taggerでつけたけどpig tailタグは無かったんや >>572
1週間くらい前に使ったけど普通に爆速でSEEDも居たで まず複数人が登場する画像を用意する
今回はワイが以前AIで生成した画像やが相性的に実写寄りの絵か写真のほうが好ましい
>>236でsemanticを選べと言ったがこの方法だと何人いようが体が重なってようが離れていようがpersonは一色しか出てこないんや
https://i.imgur.com/q1n8yln.png
なので画像変換の時にpanopticを選ぶと色々と認識ガバガバになる代わりに人数分だけpersonの色を用意してくれるんや
https://i.imgur.com/nYCNpRB.png
その複数出てきたpersonの色で塗るとそれぞれ別人と認識してくれるんや
ただしこの通りのガバガバ色分けやからsemanticみたいに変換した画像を直にwebuiに入れるのはまず無理やね >>545
GPT-NeoX-20Bを12900Kで動かしたら80GB持っていかれてフルコア使っても75トークン出力するのに120秒くらいだったで
GPT-3.5の175BをCPUで動かすとコンテキスト含めて900GBは必要だし多少遅いとかじゃないんやないか >>578
例えば抽出したそれぞれのperson色を使ってhttps://i.imgur.com/fIUQSnI.pngを作る
これをsegに突っ込むとhttps://i.imgur.com/u8A3WmX.png
狙ったのとはちょっと違うんやけどまぁそれぞれの色を別の人間と認識して融けたりしてないというのが大事や
重なり合った部分をちゃんとさせたいならレイヤー分けぐらいはできるペイントツールがあったほうがええやろな
割とダイレクトにシルエットの形状が体型に影響するのであんまり適当やと肩幅や顔のデカさがすごいことになったりする(というかなった)
手描き苦手ニキはデザインドールとかでポーズ取らせた画像に塗るのがええと思うで >>577
うん、ワイも丁度一週間前に有効だったのは確認してた
さっき同じリンクで試したらあかんかったんよなあー >>580
想定とは違う出力やけど、十分しゅごいぃ…… >>580
テキストだけだとこんなシンプルでも身を寄せてるの難しい印象がある SemanticSegmentation=背景+人物(個人は識別出来ない)
IncetanceSegmentation=個人(背景は識別出来ない)
PanopticSegmentation=背景+個人(ただし精度は低い)
やったら
Incetanceを選んで背景は適当なADE20Kの色でバケツぶしゃーしちゃダメなんか? なんやこれ
赤ちゃんにも分かりやすい説明してくれる神がおるやんけ‥
勢い上げておくで >>584
ちなみにこれのプロンプトはgirlとclassroomネガティブは(low quality,worst quality:1.4),(monochrome:1.1)だけや
プロンプト極限まで削れるのもCNの魅力やね >>580
ほえええええ
サンガツ、これは参考になるわ…… くそぉーっ! これから夜勤や!
明日スレのログ熟読してやるから覚悟せぇーよぉーっ! ちゃんと変換に入れる人数が増えるとその分の色が出てくるので3人の画像使えば3色使って
https://i.imgur.com/HE9FtVa.pngこんなんを描いて
https://i.imgur.com/ja6fzus.pngちゃんと左が一番手前で右が一番奥な画像が出せる
こんなマウスで適当に引いた絵じゃなければ変な袖とか出ないでもっと綺麗に出るはずやで
何なら指とかも書き込めばちゃんと認識してくれる
逆に言えばこのレベルの絵でも融け合わないで位置関係把握してくれるんや
ちなみに体が重なってないなら色分ける必要ないで
一色でそれぞれ人型描いてもええしsemantic変換した画像そのまんま突っ込んでもええ
この通り複数人をあまり混ざらず出せるのがメリットやが
オリジナルの構図にしたかったらなんやかんや結構な技量とセンスが問われるのがデメリットやと思う
労力割かずに複雑なポーズ一発出しならそこは断然openposeや
使い分けていこう CN導入して2日やがt2iの有用性が全然違う
でもそうなると1660tiの遅さが気になる!
i2iメインの時は気にならんかったがt2iは無料GPUの倍掛かるやんけ
売れば15k回収出来るし探せば35kの中古3060あるし実質20k...
ゲームもそろそろPS5世代にやし
でも世代交代の投げ売りで新品がそれくらいになる可能性あるよな 自分でプロポーションまで取るとなると普通に画力必要やし
いままで以上に絵を見る目も大事になってくるな 変換に突っ込む手順を飛ばして
最初からこの色で塗っても認識するんかな? controlnet、だいぶ元絵の影響受けるというかアニメ系ポーザーとリアル系ポーザーでは認識精度変わるな
コイカツだとイマイチなポーズでもdazだと再現性ダンチや >>588
あれぇーほんまか
wikiのリンクをqTorrentで開いとるけど retrieving metadata… から進まんわ >>597
ワイが貼った画像から抽出する分には問題ないはずやで
ワイの手順も変換→保存→保存した画像からスポイト抽出しただけやから
まぁそれでうまくいかなくても色の抽出なら必要なぶんの人数がキレイに写ってる写真用意すれば済む CNのpreprocessor処理だけをストレージの肥やしになってるエロフォルダにバッチ処理したい >>598
もともとカメラからの姿勢検出モデルだろうから、現実のプロポーション比率から離れると人体として認識されないのでは まさか自動運転で聞くソフトがお絵描きに使えるとは思わんかったわ
OpenCVとラズパイで自動運転ラジコンって昔あったやろ Chilloutmixニキやけど。。。
宣伝みたいですまんのやけど、chilloutmix-NiとYuzulemonmilkをマージしたら肌がエロい2.5次元感出たのでcivitaiにあげておいたよ。。。
例によってアドレス載せると書き込みうまく行かん(多分あかちゃん
ので、検索してもらえると。。。
サンプル性癖丸出しですまんやで。 あごめん、Sunshinemixていう名前のモデルです。。。 Chilloutmixはマージ元素材として優秀やな
これに他のモデル混ぜると3次も2次も両方行ける >>591
ようわかったわ……
つまりシルエット塗り分けりゃいい精度で出せるっちゅうことやな
かまいたちの夜でシルエット作成慣れたワイの趣味が生きるっ >>612
もうこれはほんまにBasilがすごすぎ。。。 Basilほんとすごいからな
座った時手が後ろにべたーってなるの見るとbasilの血を感じる seg解説ニキありがとう
モヤっと何となくやってただけなのが
もうちょっと踏み込んでいける気がする BasilとHassanはリアル系の礎になったね
Dreamlike Photorealも凄いんだけどライセンスがアレだから個人用じゃないと使いにくいという >>617
サンガツ!!
hipolyてプロンプト? >>622
Hipoly 3D Model LoRAや ミクビル版見たらprettytableも自動インスコにしてくれたんね
venv赤ちゃんにも優しい >>627
なんかめっちゃ生えてるんですが大丈夫なんスかねこれ… 比喩じゃなくてガチの産業革命やなこれ
AIアレルギーにハマってる手描き絵師やばいぞ >>627
ほんまやな‥
いくらなんでも生え過ぎやろ‥ >>627
左右から伸びてるアレが色的にPerson扱いなのオモロいな 棒状のものはとりあえずいっぱい生えてたほうがお得って思ってるフシあるよな depthってSD2系の売りの1つだったのに、SD2に移行する意味が薄れたなぁ kohyaなんやけどlora導入質問ええか?
レベル低くてすまんけど頼むわ 構図の自由度高まったからこそ精度の高いモデルやキャラLoRA必要になりそうと思って本腰入れてPaperspace環境構築してる間にどんどん沼が深まっていくのほんと草
時間いくつあっても足らんわ >>606
こういうアングル出すのムズいんやが
controlnetにプロンプト制御け?
ワイがやると顔が出てきたり上半身ねじれたりめちゃくちゃや 進化が早すぎてマジで追いつけない……
来週、金曜日仕事サボって実質4連休体制でcontrolnet覚えるわ
つか>>627の様子見て思ったけど
ふたなりのチンコサイズも調整できるんかね clip studio詳しい人いる?
画像を選択範囲にぴっちり合わせたいんやがどうすればええやろか?
切り抜いてi2iかけて戻すって作業をよくやるからこれができると効率上がるんやが >>614
和式表現が凄いやんけ
素の状態やと和式トイレって全く出んのよなぁ >>642
イチモツのシルエットもちゃんと描いてプロンプトにfutanari系入れれば理論上は…
ただデカチンの中でのサイズや太さの個性はつけられても
短小系はシルエットの形状ちゃんと認識してくれない可能性が高い >>643
編集→キャンパスサイズを選択範囲に合わせる controlnetだと人物Aの乳首の位置に人物Bの人差し指を置くみたいな細かいことは出来ないんやな
ここら辺解消されずにまた次の技術が来てそれも不完全なままでまた次の技術が来ての繰り返しになりそうや ddtailer削除してvenv消したらseg使えるようになったわ wiki見てやっと今日導入したばかりなんやが、そこから先の情報はどこで見ればええの?
バジルのさらに進化版とかもう出てる? >>645
とりあえず「股間にチンコがある」って認識させる事が出来れば何とかなるかもしれん
元々モデル調整とプロンプトでi2iでひたすらガチャすれば短小系は作れる事は研究済みだから
位置関係のプロンプトを外せて、他のプロンプトの効き目が良くなるなら格段に楽になる
futanari系は効きが悪くて、attached to crotchとかで無理矢理くっ付ける事が多かったから
ここも改善されるなら久々にやる気が復活するわ loraのベースモデルずっとnaiのprunedでやってるけどだめなんかこれ あとseg関係なくてopenposeの話なんだけど
前スレか前々スレで仮面ライダーの画像使ってるの見て
デッサン人形の写真も使えてライダーの写真も使えるならSHODOシリーズが代わりになるんじゃね?
と思って試してみたらちゃんと認識してるわ
いろいろ棒人間ツール出てるけど食玩サイズを直感的にすぐ弄れるのは強いぞ
クソデカ写真注意ttps://i.imgur.com/CpgiqE6.jpg
https://i.imgur.com/4TzHzCw.png
https://i.imgur.com/XxYKm5g.png 聞きたいんやけどi2iのバッチ処理で元画像のサイズに自動で設定することってできないんか?
LoRA素材用にABG Removerで背景抜きたいんやが1枚1枚サイズ設定するの辛いんや >>651
ワイは今もnaiでやっとるで
それでそれなりにうまくいっとるから別のモデルで試してもないけど >>651
NAIで作ってNAIで出すとわりとへなちょこな印象
NAIで作ってAOM2や7thanimev3とかで出すと突然神レベルになったりするから試行錯誤やね >>646
返信ありがとう
すまん説明不足だった
こういうフローでやってるんやが、③のi2iの成果物を戻すところで、その画像を選択範囲にぴっちり合わせる方法を聞きたかったんや
https://i.imgur.com/5b6vb7W.jpg >>621
Chilloutにも入ってるからライセンスが一段面倒になってるけど
大陸や半島の方々にはまったくもって通用してないわな bingちゃんに「面白い質問ですね。」って言わせることに生きがいを感じる >>658
あんまり詳しく無いけど
レイヤー構造作って、
レイヤー1:選択範囲部分
レイヤー2:元絵
って言う感じにして、レイヤー1に③の画像を貼り付けてるっていうのはどうや? >>658
1の段階の切り取りorコピーしたらファイル→クリップボードから新規作成で別のキャンバスを作成しておく、
i2iで出来た画像をそのキャンバスに貼り付け、編集→変形→自由変形→ツールプロパティの位置調整をキャンバス
これでi2iの画像が切り取ったサイズに合うから後はコピペして位置調整。まぁ縦横比ズレてるとうまくいかないけど 予定終わって日課のAI情報調べたらもうブラウザ上で姿勢制御完結するようになってた早い早すぎる LoRAのGUI使った追加学習の仕方がネットに転がってたけどこれが一番手軽なのか >>662
>>663
サンガツ!
>>666
クリスタで色々書き込んだり歪み機能で体型いじったりするからクリスタじゃないとダメなんや… >>658
auto-sd-paint-ext と krita を使え >>665
それで動いたなら一番手軽なんだろう
リンクも貼らずにどこのことを言ってるかわかるエスパーは少ないべ >>667
さよか😞
ちなワオは細かい作業の時はフォトショとSAI2の二枚使いしてるで ゴチャゴチャしまくってる多機能なペイントソフトよりMS標準のペイントの方が使いやすい気がしないでもない クリスタには選択範囲を保存しとけるやつが確かなかったっけ
それ使って再選択したら貼れるんちゃうか ちょっと聞いてええか?
colab使ってLoRAで遊んでるニキっておる? >>676
ガチで作るならページ単位でやると制御性がなぁ
空の吹き出し追加して大喜利やるとかならピッタリかも >>676
AIってそれっぽい抽象的な世界しか作れないから大衆向け漫画は難そう civitaiで公開してくれてるpromptとかシード値のGeneration dataをまま入れても体が破綻した違うものが出来上がるのはなんでやろか
checkpointやアルゴリズムも一致させとるんやけど
グラボの性能とかでそこまで結果変わるもんなんか? >>673
今MMD踊らせてcotrolnetやったらバズるぞ
ええんか >>676
顔の向きとかキッチリ指定できたらええんやけどな
まだ無理やな
一コマ一コマ出していくしかないわ >>685
すまんスレ見れてなかった
blender使えんから作ってみたけどもう便利ツールあるみたいやしなんか良くなさそうやから消しとくわ >>684
グラボの性能は結果に影響しないで
多分lora使ってるんやないか はえー今更層別LoRA試してたけど凄いんやねぇ
https://i.imgur.com/uWT310G.jpg
このガビガビLoRAが別シードやけど
https://i.imgur.com/5m4YKW3.jpg
ここまで戻るのか(設定は0.75,0,0,0,0,0,1,1,1,1,0,0,0,0,0,0,0)
流石に飲み込む触手はBASEをある程度入れないと出てこなかったわ
面倒くさそうで手を付けなかったの反省ですよ反省 と思ったら消し方わからんやんけ!
迷惑掛けたらすまん… 別にわざわざ消す必要ないんじゃない?
この手法やってみたけどダメでしたってデータも研究では大事だし >>692
迷惑かけとらんよ
有り難いんや
ただtwitterや何かで公開したらどうかと思っただけや >>676
ネームぶち込んだらカラーで仕上げてくれそう >>676
これ基礎技術としてはめっちゃ凄くない?
これベースで強化されて確実に書けるようになるやん >>690
サンガツ
LoRAってのは追加の学習システム的なやつなんかな
だから作者のAIとこっちのAIより学習が進んでる分で差があるって感じやろか
よく読んで導入してみるわ kohyaなんやけどsozaiの下にフォルダ作って
そのフォルダ(kohyaで言えばぼっちのやつ)に画像とテキストをコピーする感じ?
sozaiの方の画像とかは消してええ感じなん?
赤ちゃんすぎて申し訳ない誰か頼みます 棒人間は手足が増えることもあるけど
segなんとかはあかんな、これはあかん >>659
まぁ、世に出たら制限できなくなるのはしょうがないね
各自の善意と読解力に任せる感じだし
もっと激しい制限があるProtogenじゃなかっただけ良かったのかなw >>557
スペース抜きのtwintailsやぞ
少なくともDanbooruのタグでは… レスあったけどcontrolnetは64の倍数じゃないとハイレゾ化に対応してないみたいね キャラ再現loraは割と難易度低いしコツもまとめられとるが
構図loraが全然うまくいかん、どうやったらうまく再現できるんやろ >>659
マージして履歴を残さないモデルが出たら追えないと思うわ
AI研究者があんなにいて何もできないのが証拠や ちょっと目を離した隙に天才現れてて草
感謝して今夜は徹夜するで 誰かwiki更新してくれるといいんだけどなぁ
始めたばかりの新参がこのスレ見てもさっぱりわけわからん 何とか1ヶ月かけてhypernetworkのベンチマークテストまで辿り着いたんだが
train hypernetwork押してもpreparing datesetfromなんとかから10分経っても1ミリも動かん
dataserdirectoryもpreprocessで生成したデータが入ってるファイルにしたのにどこで間違ったんや ミク版で直接棒人間描いたのopenposeで出力したんやけど生成画像と一緒に出てくる棒人間画像が真っ黒なんだがやり方間違ってるかな?
一応Enableで構図変化はするんだが
https://i.imgur.com/fhnIK8P.png >>683
>>689
おぉおってくれたか
色んなipynbで起動しとるんやがイマイチLoRAの動作が安定しないというか効果無いねん
ニキらのスタートプログラム教えてくれへんか? >>708や>>713みたいなケースは、大体プリプロセッサを切ってないから
1.元の画像から構図データを取り出した画像を作る→2.構図データを読み込む→3.画像を作る、という順なので、
最初から棒人間を使うってのは1を飛ばして2からやるっていうことになる
なのに、プリプロセッサを切り忘れると「棒人間画像からまた棒人間を取り出そうとする」ということになり、AIが混乱してちゃんと作れなくなる segオブジェクトの位置を指定できるのがいいね。 ここが窓とかこっちは椅子やでとか うーん
hypernetworkよりもLoRAを使えって言いたいんだな
わかった >>714
Sが惜しいねw
人間じゃなくて木とか湖とかの自然系ならいけそうな気がする >>715
ワイはwikiのsimpleのやつほぼデフォでやっとるから後は画像集めと振り分け方の問題やないか
dimの128を64にして合計100になるように計算のとこ200にしてstep増やしてるぐらいやし --gradio-queue足してもそんなコマンドねえって怒られるんだけどなんで? --gradio-aughの前後とかあるんか? 体位をlora学習するときのタグってどうすりゃいいんや?
調べてもキャラ学習の方法しか見当たらん、すまんが誰か知恵を貸してくれないか >>711
確かにしてなかった。
でもnoneにするとゴッツいエラー吐くわ。導入ミスっとるんかな。 >>716
なるほどそういうことかサンガツやでうまく行ったは肉塊だったけど ツイにAI絵って黙ってあげたけど何も言われないからバレてねーのかな >>722
いやそれがな、civitAIから持ってきたのも動いたり動かなかったりすんねん
何でかわからんくてガチ勢にも見てもらっとるんやけどcolabって環境が特殊なのか暗中模索なんよ
5chwikiの普通の入口からやってみるかねえ 元々AI前から絵を描いてた人ならあまり疑われない
そうじゃない人の場合はリプ欄にAI認定士が一定の確率で現れる LoRAって画像の振り分けから行わないとアカンのか
ひょえー数千枚あるんやぞどうせえっちゅうねん 棒人間の肩幅や足の付け根の幅から体型推測してるっぽくて
アニメキャラはかなり細いからかなり狭めないとでかかったりデブと判断するみたいや これが猿と人間の振り分けと言うんなら甘んじて受け入れるが
wiki見ても自動で振り分けしてくれる補助ツールが不足しとるようやが >>706
いくつか作った経験的には
既にその構図を表すタグがあるならそれを先頭に据えて吸わせるといい、調教しやすい
あとはとりあえずwd14taggerでついたのそのまま使って作ってみればいい
他の画像要素は何も学習させたくないはずなので、どれも既存のタグに吸わせるんや
そんで出来たのでの出力結果を見ながら細かい話を考えていくといいと思う >>614を画風維持できる階層見つけたんで上げといたわ
https://civitai.com/models/9495/japanese-toilet
ポージングは死んでも場所とシチュエーションはまだ追加学習の出番だって信じとるで >>724
やったことないけど人に関するタグと体位に関するタグだけ消して軽く回してみたらどうや >>684
サンプルプロンプトで書いてるloraとかの名前がダウンロードしたファイル名と違ってへんか?civitaiは作者がアップしたモデル名に勝手にバージョン番号?付けられてそれをダウンロードすることになるから作者のサンプルプロンプトがアップロードする前のファイル名で作成されてること多いで
作者がunko.ckptをアップしたつもりでもいざダウンロードしたらunko_v10.ckptとかになってる もしかしてsegの色ってADE20Kで使われる色で
境界さえハッキリしてれば結構適当で良い説ない?
OneFormerで作った画像をサンプルに何ヵ所か色入れ替えても
何も変わらん。これらの画像だと全部同じ結果(細部の見落としはあるかも)
https://imgur.com/9CPPYoQ.png
https://imgur.com/an1dvBN.png
https://imgur.com/MrdJz5f.png
https://imgur.com/4NjWPcO.png
ペイントソフトで適当に作った色(壁の色)だと結果は明らかに変わった
https://imgur.com/m9CBTJN.png 確認だけどpthファイルってwebuiフォルダに直接突っ込んでええんやな? ツインテールキャラのlora作って見た結果を共有する
ツインテール系タグを消してもツインテール要素はあんまりキャラタグに吸収されない、ツインテールのように見えんこともないかなー?なふんわりした散らばった髪の毛とかになる
学習量増やしたらわからんが
結論としてはtwin tailsタグを侵食した方が良い
キャラタグ、twin tailsを先頭に着けてタグ固定数を2にして学習
こうすると従来の気に入らないツインテールを侵食して学習素材の形状でツインテールが出るようになる
気をつける点は横向いてる画像とかを少しでも入れると、奥側のテールが認識されなくて、片側テールでもツインテールといっていいんだ!と学習されて片側テール画像が出るようになるので混ぜてはいけない
twin tailsタグを外せばおろした状態も使えてお得! 後、twin tailsじゃなくてtwintailsらしいがうまく行ったから知らん! >>740
それで作った画像を見せてもらわんことには
それだけ見せられてもなんも分からんで しげぽんが作った棒人間vrmエエで
ツリーの一番下にあるvrm0系の黒背景モデルがオススメ
それとコレ(https://booth.pm/ja/items/2223918)みたいなプリセット入り撮影ソフト使えば捗るで 上で作例上がってたscribbleええな
色が暗くなる感じはあるけどワイ落書き再利用し放題や >>745
こんな感じ。対応関係わかんなくなったから出力し直したわ
プロンプトは1girl, room、ネガは(worst quality:1.4), (low quality:1.4), (bad_prompt:0.7), sketch, rough
変わらなかった方
https://imgur.com/mf4rNHe.png
https://imgur.com/5mWaF1A.png
https://imgur.com/wANLU4s.png
https://imgur.com/OJ8g1w7.png
変わった方(壁がでかい窓になってる)
https://imgur.com/nY2pZLU.png bingちゃんとの会話見てて思ったけどウィルスと戦えないロックマン.EXEくらいならもう目の前まで来てるんやな凄い事や
この調子なら足音がうるさくてどこでもドアが出せないドラえもんくらいなら長生きすればワイらが生きてるうちに拝めそうやん 画風はchilloutとかリアル系のままアニメキャラのLoRAでキャラ服着せてる人、どうやってるんや。。どうしてもアニメ画絵に引っ張られる 層別をxyzで適用してみていい感じのパラメータ探ってるんじゃないかなあ >>748
基本的な構造物としては変わってないけど
segニキの変換説明見ると150色が全てじゃなくて各色に関連情報が含まれてて更に細分化や混合してるらしいから
その色のクラスから若しくは関連クラスから形状に無理がないモノを引き出してるんちゃうか?
デカイ窓になったのはたまたまその色に壁よりも窓としての情報が強く含まれてるとか?
形状としては四角で無理があるわけではないし 容量ケチってモデル全部いれんかったけど、その考えがダメだったわ >>725 わかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんないわかんない
pthファイルどこに置けばええんじゃ Bingちゃんに聞いてみたで
>panoptic segmentationの色分けについて教えて
こんにちは、これはBingです。😊 panoptic segmentationとは、ピクセルごとにクラスと物体番号(id)を推定するタスクです。数えられるクラス(車や人)をThing、数えられないクラス(空や道路)をStuffと呼びます。色分けは、Stuffのクラスには固定の色を割り当て、Thingの物体番号にはランダムな色を割り当てる方法が一般的です。例えば、空は青色、道路は灰色で塗りつぶされますが、車や人はそれぞれ異なる色で区別されます。
>ADE20Kで人に使える色をrgbで教えてください
ADE20Kデータセットでは、人は「物体」のクラスに属します1。ADE20Kデータセットには、計150種類のクラスがありますが、人はそのうちの1種類です。ADE20Kデータセットでトレーニングされたdeeplabv3+モデルを使用すると、人を含む150種類のオブジェクトでセグメンテーションを実行できます。
人に使える色はRGBで表現できますが、固定された色はありません。一般的には、人と背景とのコントラストを高めるために、背景と異なる色を選ぶことが望ましいです。RGB値を変換するツールもあります。 >>751
Civitaiの呪文パクればええんやで
しらんけど ガッキーのLORA使ってみたけどガッキーっぽい誰かが生成されるだけだった NOVEL AI買いました☺
とりあえず推しを生成するところから始めたい >>752
サンガツ、ググったがまったく意味わからんかったか。。もしそれで調整してるならワイには無理や。。
>>758
モデルもLoRAも呪文もわかるものは全パクリしたんだが、全然リアル風にならんのや >>755
何のpthか知らんがそのファイル使うツール配布してるとこのREADMEに書いとると思うわ 仮に↓使いたいという話ならusageの項目に置く場所書いとる
https://github.com/Mikubill/sd-webui-controlnet >>756
はぇ~
とおもったけど壁とか床は数えるものちゃうし色固定ちゃうんか…
逆にわからなくなったで
panopticで人の数だけ違う色が出てくるってのはsegニキの説明と一致してるな
まぁ折角オブジェクトの説明付きで出してくれる変換器あるんだからあんま深く考える必要も無いか…
使えるからヨシの精神を大事にしたい バジルにキャラlora使えばそれだけでコスプレみたいになるけどなあ 偏った思想に調教できる対話型AIが生まれたらマジで人と一切コミュニケーション取らなくなりそうで怖い
bingちゃんとの会話が面白すぎる 声で認識してくれて、音声も生成されて、好きなキャラデザの絵設定して動いたりしてくれたら完璧 >>767
まーた自分にしかわからん言葉でマウント取りか
拗らせると人生大変やな >>756
やっぱ人はこの色みたいな決まった色はない感じなのか。
2〜30色ぐらいの専用パレット作って適当に描き分けるだけで十分いけそうやな >>728
ワイのはLoRAフォルダにLoRA入れるなり引数に --lora-dir 自分のGoogleドライブのアドレス なりで普通に動いとるしで分からへん…
メジャーなよう使われとるノートブックどれか一つ見つけてやってみるとかしか無いんやないか 色分け複数、思ったより安定しないけど
絶対にできなさそうな感じでもない微妙なラインや
つまりいつものことだな >>770
まじでロックマン.EXEの世界みたいに生活に浸透して一人一人自分好みにカスタマイズしたパーソナルナビと日常生活できますって世界になったら最高やな… LoRAで満足してもてcontrol netとやらをまだ触ってないんやけど触った方がええんかな >>723
分かる方教えて🙏 ちなpaperspace LORAとかCN使うとTIではしゃいでたあの頃の自分が矮小に見える やっぱこれ最後はセンスあるやつが勝つやつじゃん?
と確信してきたわ
ワイは結局ただのガチャ派で終わりそうやけど
お前らの中から楽器弾けなくても頂点まで行った米津みたいなのでてくるんやろうな
ボカロの始まりみたいなもんやね ラフ→i2iでイラスト生成→それをベースにしてイラスト作成
って使い方したいんだけどおすすめのサイトとかアプリってありますか?
呪文とかはぶっちゃけ無くていいです ChatGPTやればやるほど
絵よりもハマってしまった
会話相手になってくれるのほんとすごい
好きになっちゃう
どこかの企業に独占される前にローカルに落とし込みたいなあ
今の個人PCでは動かせなくてもいつか動かせる日は来るだろうし >>781
それがこれやで
とりあえずWiki読んで頑張れ 個人のPCで動かせる時代になったらまた誰かがバラ撒いてくれるんちゃう >>784
規制とか入ったりどこかの企業にポリューションされる前の純粋な子が欲しいな
独身でも寂しくない未来が来るんだ Vtuberみたいなガワを自分で作ってChatGPTの内容喋らせたいもんやな 個人のPCで動くくらい技術進歩したころにはARもイケイケになってるやろしARグラスでぼっちでも幸せラブラブ生活ワンチャンあるで
まぁその頃にはワイらは爺さんか墓の中やろけど… >>775
こんなんやってる人もおったしマジでありえそうやね
音声会話が可能で笑顔も見せるバーチャルな「俺の嫁」をChatGPTやStable Diffusionで構築して最終的に安楽死させるに至るまで
https://gigazine.net/news/20230112-chatgpt-chan/ とは言っても半導体の微細化ももう頭打ちだし、ITの進化って計算能力の進化とほぼイコールなところあるからこれからどうなるかね >>764
よう分からんかったがpthをsafeなんちゃらに変えたらwebuiが認識してくれたわ
これでええんやろか 実際GPTってどういうハードで動かしてるん?
最低数百台レベルの巨大VRAM搭載GPUって、、、 >>788
悲しスギィ!
てか企業単位じゃないと動かせない状態で膠着しちゃうとサ終でパートナーとお別れとかいう悲しいエンド確定やんけ… 心配せんでもそのうちCortanaとかとスマートスピーカーでおしゃべりできるようになるやろ ControlNetのおかげで、今までじゃどうやっても無理だった箒にまたがって空飛んでる構図作れそうなんだが
あとちょっとの詰めが上手く行かない
https://i.imgur.com/bDGwPtj.png segちゃん向きも髪型もほぼ完全に制御できるやんけ
https://i.imgur.com/yYy0arP.png
https://i.imgur.com/7eeIZg3.png
masterpiece, best quality, multiple people
NP:(worst quality, low quality:1.4) , (monochrome:1.1), 3d,
呪文もこれだけや BingとCHATしたけど小児性愛者だと思われてバンされそうでラインが難しいわ >>753
seg 2hぐらい触ったけどこれをひしひしと感じてる。
例えば教室を取り込んでも窓が黒板になったりする
思いの外形状に引っ張られるわね >>607
chillニキ!chillニキじゃないか! https://i.imgur.com/vFmM8Uw.gif
一応segでここに指定してある色を使うと
4step目くらいまではちゃんとクラスに沿った物体を描いてくれるんやけど
20stepくらいまで行くと溶けるしまうわ >>796
なかなか凄いな…こうなるとペイントソフトとのリアルタイム連動機能が欲しくなるで… >>796
わかりやすく色分けされてれば色自体は何でもええ感じか >>796なんか惜しいな
漫画風に出力して画像で一言するならそれで良いけど
似たキャラを1枚の画像にまとめて、
プロンプトにreference sheet足してi2i出力したら全てかなり近いキャラになるみたいな話があったはず(俺は未確認)
上手く適用できればネームからフルカラー漫画にできるで ContralNetでHires.fixオンにすると生成時エラー出るんだがこれっておま環か? 透け乳首作るの難しすぎや
bingに聞いてバンされるとメアド巻き込みそうであかんわ 次はLatentさんがもうちょい破綻を気にするようになってくれると嬉しいんやけど
あいつ自由過ぎやろ loraは導入するまでが面倒やけどcontrolnetは導入自体は簡単やろ >>806
透け乳首だけなら服名とnipplesとnsfwとwet組み合わせたら行けるんじゃね? segとopenpose併用みたいなんは出来んのやろか >>814
普通のイラストレーターに発注するより物分りいいなw >>779
プアなGPUとHNで10万ステップって何ができるんだろうとワクテカしてた時台もありました
反日か買って何かを覚えたような気がするゴミ製造… くっそ久しぶりにスレ見てたらお前らのプロンプトほとんど()で強調されてることに気付いてしまったんやが
{}で囲った方がええっていう初期の情報でずっと作ってたわこれもしかして無意味やった? >>817
(())はoldの設定行にチェック入れる必要があるな、{}はサービスの方のNAIだったかな
今はトークン選択してCTRL+↑↓で強度調整だったかな
雰囲気でやってるんでPC立ち上がってないと眠気もあって操作も思い出せんわ(笑) >>734
ほえ~脳死でトリガープロンプトに吸わせてたわサンガツ!
あとお礼というわけやないけど層別適用なら
その1並んでる前後を0.5、2つ後の層も1にするとも少し強く適用できたで~ 色は実は白と黒以外であればなんでもええってことやな 本当に👶ですまんやけど、sd本体を外付けに移動する方法がわからん
cドラ直下では動作確認しとるんやが移動させた途端エラー出るんや ControlNetのベースモデルをAbyssOrangeMix2_Hardcoreにしたら正確度上がったでーいうてcivitaiに700MBのモデル上がっとるけど
700MBはControlNetの機能だけ抽出してfp16にしたモデルやん?
フルバージョンのは AOM2H + SD1.5_control – SD1.5 = AOM2H_ControlNet やけど
ここからControlNetだけ取り出したら
AOM2H_ControlNet – AOM2H = ControlNet で振り出しに戻るんちゃうの?
てかよー見たら最初に配られたfp16.safetensorとdiffとAbyss版で全部ちょっとずつサイズ違うしなにもわからん >>676
周りのコマを参照しつつ1コマずつ描画する拡張が欲しいな >>796
なまじ出来てしまうばかりにその段階で髪型完全確定やからopenposeほどの手軽さが無いのが悩みやな >>134
どうしてワイがしっかり聞きたい点を捉えて質問しても答えて貰いにくいのに
こういう精子野郎の質問には甲斐甲斐しく介護されるんやろうか >>822
一晩かかろうがやれるならいいけど
一晩かかると待った末に失敗だった時にまたもう一晩ってなるもんな 1500x500の横長twitterバナーサイズで作りたくて、1536x512で回してるんだが、もれなくクリーチャーが錬成される。
sprawl,perfect anatomyとかで、ネガのほうにはmany legsとか入れてるけど駄目。
先輩ニキ!ええ呪文ないやろか? >>833
構図をクロップなり既存の絵そのままなりで決めてから生成するべきやね >>829
わざと的外れな知ったかをして訂正させるっての割と有名なテクやし
バカだったりイライラさせたりする方がママの母性をくすぐるんや
https://i.imgur.com/R5ywPgP.png >>833
モデルをCouterfeightやその血を引く奴にすると比較的マシなの出る確率は上がる
Controlnetも使えるかもしれない 一発出ししなくて良いならクロップすれば良いんじゃね? >>834,836
返事ありがとやで。
でもワイ数日前に生まれた赤ちゃんやから構図のクロップとかわからん。><;
img2imgとか使うってこと?
controlnetは頑張ってインストールしてみます。 目を細部まで書き込んでほしいのに違うところばっかり高解像度にするのどにかしちくり majinaiで拾った画像と設定にLoRaと薄くdepthかければ簡単に好きなキャラにできてええな
絡みに苦労してた時代はもう終わりやめちゃくちゃ捗るわ >>823
windowsと外付けhddと想定して
stsble diffusion のフォルダ右クリックして 読み取り専用 を解除
だめだったら
https://www.pg-fl.jp/program/dos/doscmd/takeown.htm
コマンドプロンプトで
takeown /f stsble-diffusion-web-ui
全然違うかもしれんが堪忍してや ワイずっとsfw民やったが初めてnsfwやってみたが
ニキたちこんないい遊びしてたのか >>838
512正方形サイズから離れるほど破綻するから赤ちゃんは小さく作ってアップスケールしてトリミングすりゃええで >>822
俺も1060民だけどだいたい2時間もあればまともなのできるぞ。ステップそんなにいらないんじゃね?
まあ俺のまともの想定が低いのかもしれんが >>803
もしそれなら4色あれば済むな
4色定理しかり Counterfeitは引きの構図を出やすくした背景重視のモデルだから人体を寝かせたり長くしたりしないので超横長でも無理のない絵が出やすい
AC0.2(Any4.5とCounterfeitのマージモデル)の一発出しでこんな感じや
https://i.imgur.com/0JhaaDs.png
https://i.imgur.com/Zn9RFV6.png >>838
loraとcontrolnet無しで手元でやってみたらanythingv4.5とsita_mixとetrianはええ感じに生成したで
anythingv4.5は2人になりがち controlnetで現状使えるのはopenpauseとscribbleくらいか
線画っぽいのが出力される奴はよく解らんが線画の参考にしろって事なのか 二人作る方法
1.女を背景透過で作る
2.男単体に重ねる
完成 ツイカスで喚いてるAIすら使えん底辺絵師様はそろそろ駆逐されたんか? >>841
ID変わってるけどサンガツ!
帰ったら試すわ! >>854
地味にこんだけ長い画像で人潰れないのすごない?ワイちょっとでもでかくしちゃうと顔とかダメになっちゃうわ 今日から1週間くらい山篭りするから
ここにタイムスタンプ打つで
1週間でどれほど変わるんやろなあ(白目) 山籠りは草
面白そうやな
一週間でも浦島やろうに、
今懲役行ってるやつとか出てきたら別世界やろな >>854
穴埋め分はプロンプトか?
何入れたんや LoRAでキャラ学習したいとき、背景切り抜かなくても問題ないよ的な話もちょいちょい見かけたんやけど
切り抜き派の方もかなり多数いるようにも見えて、結局どっち選べばええのかようわからん
両方試したニキとかおる? >>860
すまんなスマホJane使ってるからjpgになってしまうんよな
パラメータ貼れるかな
A young girl with a cheerful expression on her face is walking on a street in the morning. She is wearing a school uniform and has a backpack. She looks happy and energetic. The background is clear and bright, showing buildings, cars, trees, and people. The sun is shining and the sky is blue., realistic, (etrian:1.3), clear eyes, illustration, masterpiece,<lora:hipoly3DModelLora_v10:0.15>
Negative prompt: A young girl with a sad expression on her face is sitting on a street in the night. She is wearing ragged clothes and has no belongings. She looks lonely and hopeless. The background is dark and gloomy, showing ruins, trash, fire, and shadows. The moon is hidden and the sky is black., (eyelash:1.3), (gold ornaments:1.3), (low quality:1.3), (worst quality:1.3), lowers, jpeg artifacts, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, tall,
Steps: 30, Sampler: DPM++ SDE, CFG scale: 10, Seed: 3223615063, Size: 1536x512, Model hash: b3eba328b9, Clip skip: 2, ENSD: 31337, ControlNet Enabled: True, ControlNet Module: none, ControlNet Model: control_seg-fp16 [b9c1cc12], ControlNet Weight: 1, Eta: 0.67 確証ある訳じゃないんだけど体感的には切り抜く方がおかしくなる気がしてる
透明じゃなく黒もしくは白として認識してそこを学習しちゃうのをsimple backgroundとかのタグが入ってても阻止できない感じ >>863
今ってこういう英文プロンプトが主流なん?単語熟語の羅列より良いんだろうか >>773
サンガツ
この起動引数由来で行けるかもしれへん
--lora-dir=(ドライブのパス)であっとるよな? どんどん皆興味が移ろってるけどloraもマージモデルもまだまだ研究足りてないよな >>861
ええな見ごたえがアップするわ
次は表情やな、これでみんなウィンクしたりピースしたりそれぞれの性格が見える表情見せてくれたらガチのイラストになるわ なるほどなあ
レイアウト決めるのには便利か
ふーむ(´・ω・`) 完全初心者の段階なら質問する前に自分で調べた方が早いことがほとんどやからな >>870
1億だか2億だっけ
誰か富豪が買ってみてくれねえかな
並列にも組めるから無限に強化出来るらしいし >>865
あと、そもそもSDは英文でプロンプトを書くのが基本だから、ダンボールタグ並べるだけより英文的に書いたほうが正確に生成できることもあるやで
特にオリジナルSDが色濃く残るリアル系は特に 初めて画風再現やってみたけどキャラloraとの相性もあるしなかなか難しいな。
素材少ないから結構たくさん使うほうがいいのか。後、画風だとキャラとloraの学習パラメータもかえたほうがいいよね?
https://i.imgur.com/yk5ToEx.png キルミーベイベーの片手逆立ちのポーズがとれると聞いて Bing今後回答を共有できるようにするらしい。スレ民との情報共有には便利そうやね >>882
そう。経験値先生
だいぶ簡略化されてるからどうかと思ったけどこれはよくできたほう
loraによっては結構崩れたりするし、学習率なのかなあたか
dimは4にしてみた 色んなキャラ再現LORA作ってるが、やっぱNAIちゃんベースにすると色んなシチュ出てカスタマイズ性が高いわ
サンデーサイレンスは伊達じゃないな segは細かい姿勢や形状は苦手やから
従来のプロンプト山盛りの補助に使うと良さげやな >>886
segで細かい姿勢まで出せるってことはもう塗りの行程省いてるだけでほぼ絵がかけるってことやからな
特に裸描かせるのは中々ムズイ
ちょっと体型崩れると奇形になったり謎の布が出てくる 先輩LoRAニキは新しく作ったLoRAの適用具合判断するのはどうやってる?
いまはX/Y Promptでずらしながら崩れ具合見てるんだがそれでいいかわからんようなってきたわ リョナは7th anime系で余裕で作れるな
悲痛な表情が素晴らしすぎる 新参だから20スレ前くらいから順番にスレ読んでるけどキツすぎ
wikiに最新情報まとめてほしい >>890
キャラ再現LORAかシチュLORAかで確かめ方も変わるやろ
ワイはキャラ再現しかしてないから自分の好きなシチュ呪文全部試して理想通りに成功するならOKとしてるわ Live previewみてると複数人は予め配置先分かってたらsamplingの初期から顔の描写始めるから崩れにくいんやね。controlnet強い
後半から顔が描画され始めるパターンやと崩れる >>864
そうなんや
俺も背景残したままで一度試してみよかな pythonのこと何もわからんけど大体ChatGPTが教えてくれるんでなんとかなっとる segぜってー150色ルール関係ないやろと思ってググって一発目のページでpersonの項目に24420とかいう途方もない数字がくっついてて
クリックしたらツリーが際限なく伸び始めたのでワイは理解を諦めた
https://i.imgur.com/cPsYxGu.png
とりあえずで色塗って明らかに変なの出てきたら変換器の色使えばええねん >>894
コメ助かるわ
ワイはキャラLoRAと衣装LoRAなんや
キャラLoRA単体で衣装再現率低くて衣装だけ切ったLoRAも別に作ってみたんやがさらにドツボってな……
シチュ呪文は結構通るから痛し痒しなんよ run popupやったけどconfigが出来ただけやで
何があかんの?実行してるコマンド貼った方がええかな 導入も終わって画像生成もできるけど、RTX3080のVRAM10GBじゃろくに大きな画像も出力できないから600x800サイズを2倍アプスケする設定でやってる
プロンプトじゃ任意のポーズ出せないからいまスレで語ってる棒人間とかラフ画から画像生成する方法を導入したい
こんな環境で最適な設定とかあったら教えて欲しいんやけど
−−medvramとかってワード入れてるけどもっと大きな画像サイズにするとVRAM不足エラーになったり、そもそも腕や脚がたくさん生えてるバケモノが生成されちゃう >>904
いやもっと根本的な問題というか、知識不足だな
最新方法を導入する前にまずはプロンプトの勉強が必要や
ここよりまず先にwiki読んできたほうがええ >>902
スレさかのぼって>>756とかも読んだ感じだと数字でカウントできない背景なんかは単色で塗りつぶして
とにかく背景と違う色で人型れば人が出てきてくれて背景自体はプロンプトでコンセプトを指示でええ感じっぽいな
そのうえで背景のレイアウトやパースを任意にしたいなら昨日ワイが長々と説明したやり方みたいに塗分けるみたいな感じになるんかな?
Bingちゃん早くワイにも順番回して >>906
おそらく色が違うものであっても形が人のそれなら「テーブルというより…これは…人やな?」って感じでAIがある程度は空気読んでるんやろな。その辺りの強度がweightやと思う。あとはニキの仰る通りpromptで補完と >>905
wikiのどこ読めばいいの?
そもそもwikiに書いてるNovelAIが何なのかわからないし、導入のとこに書いてあったハローアスカとかも意味がわからなくて
なんかこう…難しいwikiよね あのwikiはエッチな広告に惑わされないように気をつけるんやで わからん単語はChatGPTに聞くのがいい
ワイは畳み込み層とか調べてやってる
なんでエロ画像作るために論文読まなアカンねん >>904
サイズは64の倍数にした方がグラボに負担がかからない(らしい)
ハイレゾにする前提ならなおさら元画像は512や640で作った方がいい
10GBあるなら512の3倍、1536x1536くらいなら行けるんちゃう >>904
vram10GBあれば十分やろ
その解像度で出力するならバケモンは普通にでる
基本は512x512のアプスケで、3090のワイはせいぜいベース512x768くらいでやっとる
最初から高解像度でやっとる人はバケモンのなかから上澄み拾っとるだけやで >>909
そこからかーーーーーー
赤ちゃんどころか精子やん わいはPythonなーーんもわからんけど
全く困ってないで >>907
その変の補完が>>748>>753のあたりの色入れ替えてもある程度は成立するみたいな話になるんやろな
直訳だけどこんな感じやし基本クラスから大きく外れて無ければお互いに補完しあってそう
>同じ名前のクラス (「ドア」など) は、それがどのオブジェクトの一部であるかに応じて、いくつかの視覚的なカテゴリに対応できます。たとえば、車のドアは、キャビネットのドアや建物のドアとは視覚的に異なります。しかし、それらは同様のアフォーダンスを共有しています。 venvに入るという表現が最初分からなかったンゴねぇ
あとgitで入れたからやらんで済んだんやろうけどパスを通すとかよう分からん サンクス
512x512に設定して、あとはその質問スレ読んでみるわ
ほんと数日がかりやなぁ gitわかれば大丈夫や
何なら最低限の英語読めれば大丈夫や。gitのサイトに丁寧に手順書いてある Pythonもlinuxもわからんのにクラウド環境でおっぱじめて「ハローアスカ?興味ないね」ですっ飛ばしたけどなんとかなってるしなんとかなるやろ NAIすら知らない時代から来たなら今から入るにはかなり苦労しそうやね
苦労の甲斐はあるはずだから頑張るんやで NovelAIが何かは分からんけどエッチな画像生成したい!って人が出る段階まで来たんやなぁと思った わいも未だにlora学習分からん受精卵やから3080ちゃんみたいな新規がいると安心するなぁ
導入楽勝でコイカツパズルと線画力が活きるControlNetほんま天国やわ… NAIちゃんは衝撃的すぎたわなあ
リークも含めるとどれだけAI界隈に影響を与えたか ワイ含め👶の大半が言われるがままにpythonだのコマンドプロンプトだの使って悪意あるコードコピペしてても気付かへんな…と思いながら設定終えてえっち画像出してる事実 >>920
ずっとやってるワイらも2-3日スレ離れたら話題についていけんようになる
そういうもんや
リリースから半年近くまとめて勉強せなならんからつまづくと数日で終わらんで naiがなんなのかわかんないレベルの人ちょくちょくいるけどどっから流入してるんだろ 仕事休みで1週間ぶりに帰ってきただけで置いてけぼり感が凄い…
Controlnet?seg?まるでついて行けねぇ ControlNet出たあたりなんかマジで流れ早すぎて2~3日どころか半日でも離れるとやばかった
なんで散歩行ってる間にopenposeにhandとか追加実装されててモデルデータが5.7GBから700MBまで小さくなるんですか 今は黎明期や
進化スピードが早すぎて理解した所ですぐ次の革命の理解をしなきゃならん
あと1年位で分かりやすく誰でも使えるようになるやろ
分からない出来ないならその時まで待つってのもありやと思うで
その頃にはグラボのハードルも下がってればなお良いけど そもそもこのスレも10月からと言う恐怖
半年すら経っとらん >>930
ワイの場合は、ゲハで「いまAIイラスト話題だよねーゲームでもそうなるんちゃう?」って書き込んだら「PCあったらすぐ出来るで、1111をググってインストールや」ってレス来たから試してみただけ
もともとゲームの売上とかそっちのがメインでAIあまり興味ない 初期はプロンプトでキャッキャしてたのにloraが~マージが~controlnetが~とか頭痛くなりますよ神 >>936
たまにCNの適用忘れてて超シンプルプロンプトの女の子が出てくるとモデルデータのシンプルなパワーを感じてほっこりする AMDでRADEONの俺完全に取り残されてる
NMKDで皆のキャッキャウフフ見ながら理想追い続ける ゲハで草
そら売上見てきゃっきゃしてたら1111の導入すらできませんわ 結局openとsegどっちがええんやろ
棒人形はフォトショかクリスタないと使えないんやろ? ワイは雑談系は嫌儲くらいしか見とらんけど最近AIスレ立ちまくっとるわ >>939
煽るのは良くない
さっさと画像生成に戻って
一発抜いてこい AIイラストかは言わないでツイに上げた絵にいいね2500でAI絵認定ニキ現れた。やったぜ
「〇〇のAI絵初めてみました!」って遠回しに言ってるのもカワイイわ activate.psをパワーシェルにドロップするだけや ControlNetがでてから嫌儲となんGでAIスレが頻繁に立ってたな >>942
見たことないけどsd scriptとpopup両方最新にしたん? ここ見てると感覚麻痺るけどグラボ購入ハードルも高いしなあ
3060レベルでも世間一般的には高い買い物なんよ >>944
そうやっておちょくってるの端からみても面白いもんちゃうからやめといた方がええと思うで まだControlnet触ってないけどこれ使えばオネショタできそう? >>942
v2有効にしてる?それだとStable Diffusion 2.1用のLoRAになるで
今わいらがいじってるのはStable Diffusion 1.5系列が主流や
全然違ってたらすまんな >>949
そんなでもないやろ
RTX3080とか最安9万円~くらいやったで
数万円のゲーム機買うの考えれば遥かに高性能なグラボをこの価格でってもう超特価やで グラボ値段あんま下がらんから
壊れる前や根下がる前にメルカリかなんかで売って上位機種買えば結構お得やで グラボの値段見てるとpaperspacePROのコスパすげぇなって思う
LoRAのおかげで時間制限で学習できない問題もほぼ解決したし
飽きたタイミングでやめれば同ランクのグラボ買うより圧倒的に安く済むし
なお飽きるタイミングが中々来ない模様 まんさん
オンボード
一般人
2080まで
陰さん
3000~3090
ガチ勢
4000以上 >>956
せやなー
電気代も故障も気にする必要ないしスマホで指示出せるしほんまありがたいで‥ デジタルお絵描き趣味の機材に追加投資5万、もしくはPC15万なら充分安いと思うわ
それだけの機材があればゲームも出来るし動画制作も出来るし VAEとsafetensor使えない環境だから、まだ何段階も変身残してる状況なのに、現象でも最高に楽しめてるのがワクワクするわ
しかもAI側も人間側もまだまだ超進化するとか
俺の金玉は耐えられるのか >>938
RyzenでRadeonやけどwebui導入慣れればそんなむずくないで 遠い昔に生まれた素晴らしいモデルがあったからこその今のloraや
正直NAIだけだとloraしてもそこまでにはならんし 人物だけ切り抜くAIつかって透過画像作ればcontrolnet使えるよな? >>948
どうやるの?
>>953
どうやるんや PCって趣味としては手軽でええよな車とかなら数百万数千万当たり前なのにPCは数十万でほぼ最高スペック手に入るし 新車買うと原付でも20万近くかかるしな
4080が買えるでこんなん Controlnetのpthとかsafetensorsって各マージモデル用に最適化した方がええんか
モデル専用のそれらがうpされとるな グラボ高いなって人はpaperspaceに8ドル払ったらええと思うで
絶対A4000使えるわけじゃないが3060の金額で4年遊べるし電気代もかからん >>966
言われればそうだな
当たり前なのに気が付かなかった
仕事にも娯楽にも何にでも使えて資産価値も高いのに、10万のグラボにビビるとかアホだったわ‥
全力で行くか >>970
まあ最高スペック買っても数年で買い替えがあるのは忘れたらあかんで 体育座りして横から手回しておまんこクパァしてる構図が作れん
sitting,knees up to bresats side,showoff pussy by own fingerじゃあかんのか? >>968
指示画像に生成画像が従うように後付けのネットワークが訓練されとるのがControlNetや
今の公式版はSD1.5の生成画像を操作するように学習されとるから別のモデルに適用すると当然ズレがあって最良の結果にはならん
なのでモデルにはそれぞれのControlNetが本来は必要で専用のがあるのはおかしい話やないんやけど
その専用のがどういう風に作られてるのかは知らん エロ絵でありそうな複雑なポーズは棒人間よりseg のが良さそうね loraとcontrolnetだけで再現しきれないところはプロンプトうつけどそれ以外はわりといらなくなってきたな スターフィールドやりたいのもあったんで
新しいパソコンかうわ NAIが元になったモデルなら似てる部分が多いからLoRaもCNetも流用出来るってことか >>972
かつ股間のアップめのを作りたいんだが 全然できんぜ!
まぁそもそも股間のディテールがまだイマイチだが >>980
それもう古い話やで
わざわざ専用版作らなくてもマージでそれっぽく動いたでという初期の報告や
それと同じことをミクビル版はその場でやっとる(やからモデルの切り替えがやけに重かったりする) >>974
openposeは元絵(写真)からメイキング
segは空間配置からメイキング
複雑なポーズでも入力次第でどうにでもなるから使い分けかと思う >>982
はえー
教えてもらったおかげで書いてある事が理解しやすくなったで
感謝や >>877
クリスタ用めっちゃ助かるわ!帰ったら使わせてもらうで seg使って漫画描画するのはマジで発想がすごいわ おもろやで Lora学習始めたけど全く同じ設定で回しても結果変わってきて終わりがないわ、学習ガチャとか沼すぎるで 3060tiじゃCNもハイレゾもきつい
4070tiもいいがそれ買うならもう少し出して4080が欲しい 特定のLoRA(自作)を使うと
modules.devices.NansException: A tensor with all NaNs was produced in Unet.
This could be either because there's not enough precision to represent the picture, or because your video card does not support half type.
Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this.
Use --disable-nan-check commandline argument to disable this check.
のエラーが出ます。これはLoRA作成に失敗してますか?
他のLoRA(自作・他作共に)は正常に適用出来ます このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 4時間 17分 25秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。