なんJNVA部★153
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★152
https://fate.5ch.net/test/read.cgi/liveuranus/1676652520/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>9
こういうアニメ調の画ってanimescreencapタグ?もしくはLORA? CivitAIのサンプル画像とプロンプトをまとめて落とせるツールってある? >>16
サンイチ
これいいね
ブラ取れたLoRAとかあるん? i2i→画像を元に加工する
コントロールネット→画像の持つ情報使って生成する
この認識でええんか? サンイチ
10月のNAIちゃんに触り始めの頃のつたない絵を最新のControlNetとAOM3で再描画
https://i.imgur.com/a9lTBVQ.png
おお、素晴らしい・・・って思ったら、誰か居るwwww サンイチ
ちょっと赤ちゃん質問で申し訳ないんやが、作ったLoraの強度調整試すのに今まで全く触れてなかったxyplot使いたいんだけど
種類のところをどれ選んで右側はどんな感じで入力すればいいんや・・・
例えば <lora:test:1.0>ってのを作ったとしてこれを0.1ずつ弱めていく的なの 背景に小さな人とか描画される癖も何とかして欲しいわね… モデルが得意な構図で描かせるなら
一度モデルにまかせてガチャして、当たりを引いたらそれでsegるのがいいな >>26
(lora:test:0.9) を追加してちょうせいしてけ 前スレ989
サンガツ、更新andおすすめ使ってみる
ControlNet使うとなんか頻繁に絵がピンボケ気味になるのはなんか設定がおかしいんやろうか >>31
ワイはもう最後のチャンスだと思って買ったわ
これからここの仲間入りや サンイチ
なんか変なもん出るのはlama cleanerで決して仕舞えばええか… AI需要で高騰する思って焦ってブラフラセールで3060買ったけど意外と変わらんかったわ >>26
プロンプトの変更したい場所にたとえばBASEと書いて(この場合は<lora:test:1.0>の部分)、
Prompt S/Rに BASE,<lora:test:1.0>,<lora:test:0.8>,<lora:test:0.6> とか書く。 2日ぶりに来たけど
controlnetから革命あった? >>35
グラフィック専用PCパーツなんて買う事自体少数派やからなあ
CPUで代替できるものをなんでわざわざってのが大多数
ようするに市場自体がワイらが思ってるよりも小さい
そしてゲーム用途なら無印3060は劣等生一歩手前の微妙ちゃんでAI生成でのみスポットライトが当たるという隙間産業状態
今や金儲けにも直結しないから少数派内での買い占めも起きないし
技術面での変化が早過ぎて状況を見極めにくいってのもあるかも >>38
ワイ3060ゲームでも使う気満々やけど劣等生一歩手前なんか…? すまん、どうしても教えてほしいことがあるんやけど
とんでもなくクオリティ高い画像があって、このページ一番下のDiscussionのとこにあるリアル系の画像なんやけどどうすれば再現できるんや?
ネガティブプロンプトしか書いてないし、この通りシード入力してもまったく違う画像にしかならんのやけど…
>>https://civitai.com/models/4985/licking-oral >>33
価格ヨコヨコしとるしそれが正解かもしれんな >>39
性能価格に対してVRAMだけ頭出てる
「メモリ多くても処理がしょっぱいからマイクラみたいな低解像でクソデカオープンワールド」みたいなトンチキ向け >>39
併用なら別に問題ない
無印は3060Tiより安いし
ゲーム用途重視で性能で考えるとTiとかに行くやろって話
そしてAI弄る奴よりゲームする奴の方がどう考えても多いやろって AOM3が勝手に脱ぐ対策は結局モデルマージやり直さんときつそう >>42
ひどいこと言うな~
普通にコスパ良いから不満ないわ
>>43
コスパで買ってゲームも問題ないし値段も考慮すればti行くとは限らんちゃうか >>39
実際ホグワーツとか既に厳しいんちゃうか?確か推奨1080tiやろ chilloutmix + koreanDollLikeness でミニスカにならんようにするいい方法ないやろか?
(knees:2), (leg:2)をネガに入れてもすぐミニスカになってしまうんやが
プロンプトはこんなかんじや
(masterpiece:1.0), (best quality:1.4), (ultra highres:1.2), (delicate illustration:1.4), (8k, RAW photo:1.2), (soft
focus:1.4), 1 young girl, (18yo:1.3), (sharp focus:1.4), (Japanese:1.0), (korean:0.7), detailed beautiful face, black hair,
(detailed white frilled dresss, long skirt:1.4), (lace choker:1.2), beautiful white shiny humid skin
<lora:koreanDollLikeness_v10:0.3>, (full body:1.0) >>40
画像中のiマーククリックしたらプロンプト出てくるべ? アドガ部みたいにまとめあるの助かるわ赤ちゃんやけどがんばろ
まずは1111入れるところからやな 来週3060買う予定なのに叩かれ始めている・・・! 前スレでコツとか言われたけどワイも試行錯誤中や
とりあえずmajinai貼っておくで
使用拡張機能 Latent Couple
モデル内蔵キャラ hatsune miku
使用TI deep penetration missionary、corneo_tifa_classic
使用LORA hipoly3DModelLora_v10、koreanDollLikeness_v10
https://majinai.art/i/9t-JKz5.webp >>48
いや、この画像はネガティブプロンプトしかないんよ
ふつうのプロンプトの欄すらないからどうやって再現すればいいかわからんの SDのCEOのおっさんが、closedAIになった件に対し俺に任せろと言ってるから
chatGPTのオープンな代替品が出てくるものと期待している
本番はそれからだろう >>40
ネガに書いてる各プロンプトの意味は理解してるか?
bad-image-v2-39000とかbad-hands-5とか明らかにいろんなTI系てんこ盛りやで チャットaiがエロ方面に発展して弱者男性の心をつかんだら今度こそ少子化止まらんし影響もヤバそう ゲーム人口からすると今でも世間的に1番多いの1650や3050やからな
このスレおるとゲハ以上に感覚麻痺するけど >>40
書き忘れかなんかでしょ
近そうな構図のプロンプトにcum on face, cum-covered, cum-drippingあたり追加でいけるんちゃう? >>46
ワイは買う予定ないけど2070の友達でもやってたからいけるやろ 指輪っかにしてエアフェラしてほしいんやがうまくいかんなちんこ握ってまう Google colabのやつってpcスペック次第でうまく起動されないとかありますか?🥺
ちゃんとコピペしてるだけなのに また15万出せばミドルクラスが組める時代に戻らねえかなぁ
ホグワーツ入学してぇなぁ
まぁグラボ側で設定下げればいいんだけど >>61
地獄の用に低スペとかならわからんけど一般論としては無い >>51
昨日3060届いて全裸で1080から3060に換装して幸せになったで 15万でミドルのゲーミングPCが買えま
15万でミドルのグラフィックボードが買えます
田島AA不可避 冬場は静電気やホコリ怖いからな
風呂場で全裸で水道管触って換装はネタに見えるけど正解なんよね >>64
ありがとうございます🥺
paperspaceもできなかったら素直に課金してNOVELAI利用しときます >>45
分かりやすさ優先で言ったらこうなるんや
ただあくまで「価格性能比」ってだけで絶対値的性能はあるから昨今のゲームの要求水準は満たしてるで kohya版のlora UNETとtxtエンコーダー別に重み変えられんのな
理想を探して一晩中沼ってたわ >>60
civitai の fellatio_invitation が近い絵でるんちゃうかな 今やってることって検索でエロ画像探してるのと本質的に何も変わらないんだよな >>55
なるほどなるほど
TI、Textual Inversionのことか
はぁ~ネガティブプロンプトは出したくない要素のワード入れるだけだと思ってたけど、TIの場合はネガティブプロンプトに書き込むことで指定できるものなのか
助かったわ、試してみる >>53
あ、discussionの方か
確かにないw >>53
civitaiは画像投稿後にプロンプト編集できるから意図的に消してるんじゃないかな >>51
2070から3060に換装したけど幸せやで
ゲーム性能もちょっとだけ上がったわ >>73
草 確かにそうやな好みのワードで検索して良さそうなの見つける作業 sunshinemix、アニメキャラの目の色そのままでリアル化できるのがいい
chilloutmixの時は、リアル化すると黒茶青以外の目の色はほぼ出せなかった
https://i.imgur.com/QfrZRxB.png
https://i.imgur.com/GdCFfy8.png 検索してもエロ画像が全く出てこないキャラもいるんですよ! >>16
上手く再現出来なかったんでプロンプトかlora教えてほしい >>75
vram容量が正義
その手のゲームのFPS比較みたいなのりでやってるベンチマークもどきは情報としてゴミ 微細な高速化の恩恵より60Ti買ってcudaエラー見る度に60にしておけば…って思う頻度の方が高そう >>86
>>89
VRAMやっぱ重要か3060にするわありがとやで すっかりTwitterとかの画像はAOMだらけになったな
マスピ顔ならぬマスピモデルや >>75
LoRA自作とかcontrolnetに興味ないならそれでいいと思うよ
どうもAIの世界では基本VRAM12GBがスタートラインなんや
それ未満だと新しい何かが始まる度にメモリ問題にぶち当たる 速度問題はスレ見ながらでどうにかなるしなぁ
lora使えないや使ってエラーあがる可能性あるのはきつそう
今後CPUも重要になったありえるんかな >>19
>>87
https://majinai.art/ja/i/Zn9jIaw
loraなしのプロンプトオンリーやで
コツはプロンプトエディティングで途中からcrossed armsを弱めるんや
そうしないと腕組みポーズみたいになってまう
あとyamlいじってCLIPを別のにしてはいるけどそんな影響はないはず AOM3にJapanese doll合わせるとサイバーパンクやらビクビク効果やら着物が混ざってカオスなことになって笑う 1111 でモデルファイルだけ別のフォルダを指定することってできんか?
出来るみたいなレスどっかで見たけどググっても出て来んしBingはまだ順番待ちだから知ってる民いたら教えてクレメンス… >>101
シンボリックリンク張るか--ckpt-dirで指定するか >>92
マスピ顔の延長線上って感じやからなあ
一見クセの強そうな絵柄やけど実は万人受けするという絶妙な絵柄
絵師の絵柄としても居そうでいないというのも貴重
それが高精度高品質で出て来るんやからそら流行るわって言う
デカイ冠や派手なイヤリングが全く出ないからワイは使ってないんやけど
デカイ冠が出るモデル自体が希少で、しかもエロが出せるとなると無さすぎて泣く
非エロだとElysium_V1があるけどエロに弱い
エロ有だとNAIちゃん以外にゆずレモン系くらいしかないけどインパクトある絵が出ない
LoRAも下手クソで上手くいかないしマジで泣きたい >>40
これのTIについてなんやけど、negprompt5ってTI知ってる人いない?
ググるといろんな画像でこのTI使われてるようなんだけど配布元が出てこない ようやくControlNetをやってみた
これ面白いね
1枚目が元にした画像
https://i.imgur.com/2GpL9J4.jpg >>5
ええやん
D君とゴーファー君も覚えさせてや このアップスケールを外部ツールで実行する話やけど
https://fate.5ch.net/test/read.cgi/liveuranus/1676652520/907
ここに紹介されてるアップスケールモデルを
https://upscale.wiki/wiki/Official_Research_Models
関連しそうなモデルのフォルダにぶっこむと
stable-diffusion-webui\models\ESRGAN
stable-diffusion-webui\models\GFPGAN
stable-diffusion-webui\models\RealESRGAN
stable-diffusion-webui\models\SwinIR
WebUI上で実行できるで
https://i.imgur.com/38BAoRo.png >>103
LoRAで良さげなのができないなら層別マージで自作するのが良さそうだわ
ワイもアニメ塗が好きやからAOMのレシピ参考に秘伝のタレ作っとる >>98
分かるわ。画像生成よりもLoRA学習ばっかやってる。
よかったらLoRA作成時のパラメータ教えてもらえん? LoRAで1モデルに複数キャラを学習させたいんやが、
学習素材フォルダに、「10_CaraA 1girl」「10_CaraB 1girl」 みたいにフォルダ名付けて覚えさせたいキャラ素材を入れて
それ以外は1キャラ覚えさせるときと同じ手順でええんやろか?
先人ニキおったら成功のポイント教えてもらえるとありがたい 遂に俺好みの美少女を生成したぞ!って感動してもネットを見るとすでに誰か別の奴も俺の子と同じようなのを作ってたりするのがAI絵で遊んでる時の傷心ポイント 前スレ817参考に準備中や
うまくいくとええんやがなあ >>93
予想だと、ベースラインは1年毎に更新されるね
2023 最低12GB
2024 最低16GB
2025 最低20GB
2026 最低24GB
もしくは、もっと加速するかも >>111
フォルダ名に1girlは不要
あとはタグのテキストファイルの内容の始めにそれぞれCharaA, CharaBを忘れずに入れて、実行オプションに
--keep_tokens=1
を入れればOK 自分の好みの絵柄がわからんし目指す場所がわからんけど、何か生成したいマンだからマージとかには手を出さずにモデルいろいろ試して遊んでるわ
マージしてるニキは目指す場所がはっきりしてそうで尊敬するわ >>108
そこでの選択はhighres処理の途中にかけるアップスケール処理やから、外部ツール使って事後にアップスケールかけるのと似てる使い方やったらExtrasタブでやれる処理やないかな
Extrasタブ全然使ったことないマンやからアレやけど Controlnetの作業効率ってペンタブ買ったらあがるんかな
Cannyはもちろんやけどdeepthとかマウスやと深度一定やし >>108
元から入ってるR-ESRGAN 4x+より高性能なんか? >>118
普段液タブ使ってるけど、
inpaintとかの加筆修正系は、たまにズボラしてマウスでしようとすると上手く行かなすぎてイライラする
で、結局液タブ使う
ペンタブ(っていか板タブ)は人によって慣れれるかどうか個人差あるけど、6000~8000円ぐらいでもちょっと大きめのとか買えるし、お手軽作業効率アップにはお勧めだぞ >>118 depthなら筆圧感知あるから効率はよくなりそうやけどなぁ、多少慣れんといかんのんちゃうか
https://twitter.com/sp8999/status/1626132805553119233
というか >>121 ニキも言うとるがペンタブ液タブは普通に加筆修正に便利やで ワイはNAIちゃん始めてから液タブ買ったんやがもう手放せんわ
https://twitter.com/5chan_nel (5ch newer account) >>61
ランタイムのタイプでGPU選んでないとかない? ワイあかちゃん頑張って調べたけどわからん
2人の人物で「色黒金髪」と「色白黒髪」にしたいとき
並べて書くと逆になって色黒黒髪と色白金髪になったりする
分けて指定する方法はないだろうか? >>121
>>123
サンキューガッツ
やっぱ便利なんやな給料入ったら安いの買ってみるで
全然知らんけどワコムがええんやんな?あとやっぱ液タブの方が初心者向きやんな WSL+Dockerは興味あるけどその手の問題まだまだありそうで手出してないわ
もう少し安定したらDockerのほうが環境構築楽そうやな >>126
これでもくらえ~!
opparco/stable-diffusion-webui-two-shot: Latent Couple extension (two shot diffusion port)
https://github.com/opparco/stable-diffusion-webui-two-shot >>110
適当に見たそうなとこ雑に貼っつけておいたで
ええもん出来たら画像見せてや
https://pastebin.com/BvmCwkUS >>116
雰囲気や絵柄で抜いてたのか、キャラやポーズで抜いてたのが、話の流れで抜いていたのかのパターンをチェックや
前2つならモデルとloraでその癖を再現しまくればパラダイスや
最後はまだ人間の領域やから待ちやな Loraの学習始めたんだけど、白黒のマンガ画像も学習させたい良いのがあるんだけど、
なんとかして色をつけてから学習させるべき?どうやってるか教えて欲しいんご >>127
液タブのが初心者向けだな
自分の場合は昔はwacom使ってたけど、今はもう3年ぐらいhuion使ってるわ
特にAI画像生成の補助目的なら、wacomまでの精密な筆圧制御無くてもいける
金有るならwacomに越したこと無いけど、2万程度のxp-penとかhuionのでも全然アリ
更にケチるなら中古も在りだと思う
ただしhuion買うならPW517ペン対応以外を買ってはいけない…… 推しカプ生成できると聞いて初loraに手を出したけど初期のHNの100倍難しくて草 学習させる画像って縦横比が等しい正方形にしなくてもいいのかな >>115
先頭固定ってやつかな、いつもやってるので大丈夫やと思う
>>119
見てきたわ、サンガツ LoRAはその辺自動で選別してくれるから加工しなくてええで >>130
サンガツ。
納得のいくもんできたら貼るで。 >>127
ワコムじゃなくてええよ、XP-PentかHUIONでいい LoRA学習はキャプションつけるやり方とつけないやり方2つあるけどどっちが主流なん? サンイチ
朝起きて仕掛けたLoRAがなかなかいい感じやと嬉しくなるね
https://i.imgur.com/pYblsDS.jpg i2iどういじってもノイズしか出ないのなんか設定ミスっとるんやろな……
モデルの問題なんやろか >>144
これ設定してセクハラしまくってみるか… >>142
マジか!ありがとうほな学習画像用意して試してみる >>143
キャプションつけるのが主流
kohyaニキのカエルテストみたいに超シンプルな学習だったりタダのコピー機にするならキャプション不要だけど
みんな好きなキャラやコンセプトを色んな服やポーズで反映させたいわけで どなたかGPUメモリを解放してくれる拡張機能みたいなのご存知でしたら教えてくれませんか
8Gなのが悪いんだけどimg2imgで出力するたびに再起動してあげないとCUDAがメモリ不足ですって言われてしまい wikiにリアルモデル比較上げてくれとるのめっちゃ助かるわ
写実系って振れ幅大きいしピーキーなのも多い印象やからこうやって一覧で見られるのええね
サンガツ >>144
Bingチャットたんは不正解というかくだらない回答してきたんで口汚くバカとか罵ったらえらい高圧的な態度で接してきたで
もっと丁寧な言葉を使えとか私は真剣ですとか反論してきてちょっとビビった
その後の回答もなんかツンツンしてたし >>152
それくらいならスクリプトですぐつくれるんじゃね
やってみては もしかして3070や3080買った層って負け組…?
メモリ12GBないとお話にならないのか… >>156
それ職員が返事してたって言ったら信じる? >>152
Windows + Ctrl + Shift + B >>159
vram8Gで特に何も不自由なくやれてるで >>159
VRAM不足はどうもならないが
GPUのパワー不足は待てばいいだけだからな 去年ゲーム用に買ったPCがよりによって3070なんだよな… >>160
それはない
人間だとやらないような勘違いだったから
だからお前はあほか真面目にやれふざけてんのかボケみたいに書いたらキレやがった ratatataみたいに癖ありまくるのってLoraで再現出来るんやろか >>159
最低メモリ9Gいるというのがワイの体感や >>165
すまんまるでなんJのやりとりで笑ったwwwwwww >>170
3060tiで頑張ってるけど買い替え先に悩むわ
どうせならハイスペックにしてサクサクしたいわ >>146
日本語化後の表記で申し訳ないんだけどimg2imgタブの「レタッチ(inpaint)」で
「マスクされたコンテンツ」を「潜在空間でのノイズ」にしてない?
「埋める」だとマスクされた領域の元の内容を参照せず
「オリジナル」だとマスクされた領域の元の内容を参照しつつ
img2imgしてくれるはず 1060から3060にしたけど大分捗るようになったよ >>148
セクハラしてみた
ショタちんちんの皮を剝いて洗う話に少し恥ずかしそうなChatGPTちゃん
https://i.imgur.com/mDuvNkU.png
ショタが勃起してると聞いてちょっとだけ興奮度がたかまるChatGPTちゃん
https://i.imgur.com/nTwifPR.png
ショタがちんちんを洗って貰って明らかに感じてると聞かされて羞恥と興奮が一気に高まるChatGPTちゃん
https://i.imgur.com/fXhJ1GY.png
ショタが射精したと聞いて「適切な性教育や専門家への相談を」とか綺麗事を言いながら内心では一気に喜びと楽しさと興奮。マックスに振り切らせてるChatGPTちゃん
https://i.imgur.com/pUCZ5AX.png
ドスケベが…… >>138
その前スレのもんだが上手くいっとらんわ
成功したらヒントくれると助かる VRAM8GBはCPUにGPUが内蔵されているかどうかで評価変わりそうなラインな気がする
あと生成や学習と並行して別の何かをやるかにも >>174
こんな怪文書読まされるケニア人の恐怖が5で振り切るわ ワイは3060やけど置き場所の都合でケースをスリムタイプにしたからファンが2つタイプの3060しか選べんかった
つまり3090以上はどうやっても積めんのやけど、ライザーケーブルでムリヤリ外置きにする事は可能なんかな
置いてみたら思ったよりももうちょうい余裕があったんであと数センチならデカくても良かったなあと今更ながら後悔
それならファン3つの3060はもちろん3090も選択肢にあったんだよなあ いかん、複数人LoRA試そうと思ってるのに貧乏人根性でキャラ数めっちゃ増やし始めとるワイがおる
(何人くらいまでなら綺麗に別れて出るんやろなあ) 序盤にオススメ認定された3060vram12、今もなお入門用コスパ最強の名機として君臨し続けてるの笑う
発売当時ゲーム用途では全てが中途半端なグラボ扱いだったからスルーした人も多かったろうな すまん前スレで丸呑みLORAあげてたニキ
パス掛かってるみたいなんや
よければあげ直してくれんか? ゲーム用途で買った奴は大半が3070やろうね…
まぁゲームやってればええだけや
AI用途はコスパ最強の3060に任せろ👍 >>181
ワイPCI-Eを外付け出来るミニPCに3090で使ってるんだけど
裏面メモリを冷やすスペースが無かったからライザーで空間確保してるで
https://i.imgur.com/2SEUHHZ.png >>186
横からやけどそれ多分URLコピペミスっとるだけや >>168
玉無しじゃないと抜けない😡
エロシチュloraを作る時のライフハックですが
モザ必須なエロは素材探してもモザ必須なので集めにくいし無理に作ってもクオリティ落ちやすいです
なので局部を隠したりなんだりするネタでloraを作る必要があったんですね メモリの解放について答えてくださった方ありがとうございます!
再使用設定はできていませんでした
ショートカットの再起動と併せてそれぞれ試してみます 1080Ti、11GBあるおかげでなんとか生きてけるのよな
とか思ってたら最近HDDのほうからいやな音しはじめおったが >>196
ControlNetってLowVRAM設定が新たについたやん
LowVRAMオンにしてもこれなんか? >>189
>>195
ワイがちゃんとコピペできてなかったみたいや
サンガツ 3070なんやけどグラボ増設するだけでいける?
automatic1111入れ直さなくてもいいよな? >>188
サンガツ
やっぱそういうことやってるヤツ多いよな
というか3090はともかく4090とかってデカすぎるから後付けでケースに入れられるもんやないそうやしな
ミニPCに外置きグラボは去年真剣に考えててギリギリまで悩んでやめたんやけどやってるのを見れてちょっと感動してるw >>202
2スレ前ぐらいでやった人のを完全にパクっただけのクズ野郎 >>184
今もなおつーても半年弱しか経ってないからなあ
グラボ界隈って基本的に2年スパンとかでしか動かないでしょ クズ野郎呼ばわりは草
まあ部discordに盗みに入って速攻でつまみ出された奴やしな lowvramやと激遅になるから
使わずになんとかやりたいところやな ムクる為に中華とかこことかいろんなとこからネタパクりまくって出典明記せず我が物顔の奴や 後ろからの手コキがうまくいかんのやが誰かいい案ないか?
depthでやってるんやがsegの使い方覚えたら男女分けとかちんこの位置とか覚えてくれるんやろか?
http://imgur.com/HR2tXxd.jpg
http://imgur.com/uiycwqo.jpg >>210
0.1~0.3GBぐらいケチるために、処理時間倍でその分GPU負荷掛かってブン回る
って、lowなかなか糞仕様よな…‥ >>174
すげーな。ただこれ、書き手の意向を汲んで興奮値を上げてるだけかもしれんぞ
実際には「ハイハイ、5がお望みなんだろ」って冷めた目してるかもな AIコスプレ見て2ヶ月ぶりくらいに戻ってきたが、環境が様変わりし過ぎてて草
おまえら凄いな >>180
4080で悩んでるんやがダメか
ゲームもやるから4070tiのメモリバス気になるし4090は高石 というかCNのhiresは整数倍縛りやなくて64の倍数縛りやとおもうでたぶん >>202
技術部から追い出されて現行スレもスピード早くなったので
ツイッターで周回遅れでドヤるしか出来なくなった哀れな男 64縛りやから、正数倍以外にすると64倍がズレてエラー吐くんやで…… 2,3カ月ぶりくらいにAIで遊んでるんだけど、
手足が破綻しやすい問題って何か進展あったりした?
EasyNegativeやbad_promptをネガに放り込むくらい? まぁ正方形なら64倍保ちつつ正数倍以外もいけるのか >>215
というか進めてく内にだんだんと語り手と聞き手の区別が付かなくなってるなってる感じがする
4枚目とか喜んで楽しんで興奮してるのは話聞かされてる側じゃなく話の中に出てくるショタやと思うし >>196
segはhighres 1.5倍で行けとるけど? >>196
整数倍縛りってなんや?
普段使ってる512x768の1.5倍とか特に問題なかったが >>229
その場合は12*64:18*64でどちらも64の倍数になってるから問題あらへんわな
正確には結果が64の倍数になる縛りってとこだと思う AI始めようと思ってるけど月々の電気料金ってそんな跳ね上がるの?
何アカウントか併用してセルフで相互RTして伸ばそうかなと思ってるからジャンルごとに大量生成する予定だけど >>225
せやで
因みにポーズ系のプロンプト指定は「nsfw」以外何も無いで
>>229
あーその縦横だと1.5倍いけるんか
冷静に考えると結構組み合わせあるんやな >>222
ああ、なるほど
最終的なサイズが64の倍数になってればOKってことね? グラボ性能うんこのLenovoPCあるけど、グラボはどれくらいの値段の買えばええんや すまんのやが
顔と絵柄を固定できなくて困っとるんや
lora無しで顔と絵柄固定しようと思ったらどうすればええか教えてくれへんか?
何時間やってもあかんのや 手描きの画力上げるのは多分もう意味ないんよな
画力は多少はあるけどしばらく筆追ってたわ 前スレの後ろの方でマージ速度の話題が出てるけど、
ストレージのインタフェース速度がマージ速度に直結すると思うで
ネット上でマージが2、3分かかるって解説してるところがあって、なんでそんなにと思ったんだけど、
SATA接続のストレージじゃそのくらいかかるということだと思う
NVME接続の環境において5.57GB(AOM2NSFW)と7.7GB(Chillout)をマージして7.2GBのモデルを出力するのに、
WEBUI標準のファイル出力マージで12秒、SuperMergerのメモリ出力マージで7秒だった
SuperMergerで層別マージのXY出力をする場合はマージの速度が重要だから、
もしPCを組むつもりの人がいたら気を付けてほしい hires前提で基本512,640,768,960ぐらいの組み合わせしか使って無いな >>240
ゲームやとSATAでそこまで差ないから
何気にトラップやなこれ >>175
ありゃ、そうなんか
俺も試すのはもうちょっと後になりそうやが、そもそもLoRAで複数キャラは難易度高いとも聞いとったし
成功率は低いのかもしれんな
なんにしても、トライアンドエラーの結果はスレに書き込むようにするわ >>243
マ?
ワイ3070なんやがlora学習できるんか?
ゲーム強いしと去年のセール期に3070にしたの後悔し始めとるわ ほんまや
852も頭からlora前提で語ってるなこれ スーパーマージてモデル3使うと急にstage 1/2 ・・・の所が遅くなるのなんでなんやろ画像生成毎に何秒も時間取られるんだが
一回モデル取り込んだらおしまいじゃないんか?モデル2つならそんなことないのに >>248
サンガツ
loraってめちゃくちゃむずかしいやろこれ
としあきwikiで学ぶのが一番実行しやすいんかな? >>227
https://github.com/TencentARC/T2I-Adapter/
テンセントのほうのsegとscribble組み合わせるやつが使えるようになったらいけそうやな >>238
自分で描けた方が修正したり素材作ったりできるし画力高い方が有利じゃない?
全部AIまかせだとAIが出せる構図しか出せんから制限がある
男女が密着した構図とか作ろうとすると結局エロゲのエロ画像とか素材にすることになる >>227
左右反転したらもちょっとでそう
>>212
けっこうでとるやん
depthははみ出とるところにほとんど書かれないんで
おにんにんと手の影を書き加えたらどうや >>254
やっぱり無理なん?
グラボ早死にする? loraなら3070で何も不自由なく出来るでしょ
768とかは出来るか知らんが テンセントすげえな
こういうとこで日本企業の影が全然出てこないのが寂しい >>255
一応まだ手書きスキル生きる部分あるんやな
最近やとControlnetとか色々出てきててどんどん手書きのアドバンテージ減ってる感あったわ >>252
そんなのもあるのか凄いな
mikubillのアプデに期待が高まる 自分のオリキャラや固定衣装のLoRAを作る需要
↓
「最低限このポーズさえあればいい感じのLoraが作れるよ」というポーズ&アングル集のControlnet用画像集
↓
それを作った20枚くらいを元に学習
的な
フローさえしっかりさてれば機械に負荷かかってる時間は1時間以下くらいでやれることではあるんだよな既に >>227
いうてこれオーソドックスな構図やし
これすらsegでも出来ないとなるとかなり厳しくないか? >>252
ミクちゃんまさかこれ取り込んでくれないとかないよな?
期待してるんやが 64倍考えるのめんどいから640x640で作ってる
それか576x704
どちらもハイレゾSwinIR_4xで3倍にしたら3060のほぼ限界サイズという点も共通しててわかりやすい
アップスケーラーをLatent系にしたらもうちょいいけるけど元の画像とかなり変わってしまうので最近は使ってない 新品で買って半年の3090が画像生成中とか高負荷時になると
カチカチ…ピキッ…みたいなラップ音みたいなのがたまに鳴るようになったんだけど大丈夫かこれ…
コイル鳴きとかそういう類では無さそうなんだが… >>264
もう単体のT2I-Adapterには対応しとるし時間の問題やと思うで 設定の「サンプラーのパラメータ」にある項目の意味を教えてくれんか
・DDIMで用いるeta(noise multiplier)
・Ancestalサンプラーで用いるeta(noise multiplier)→「Ancestalサンプラー」はEuler aのような「a」がつくサンプラーのことらしいのはわかった
・sigma churn
・sigma tmin(X/Y/Z Plotにあるsigma min/sigma maxとあわせて)
・sigma noise
今までに見たページ
What are "Sampler Parameters"? ・ Discussion #1162 ・ AUTOMATIC1111/stable-diffusion-webui
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/1162?sort=new
X/Y Plotについて - NovelAI 5ch Wiki
https://seesaawiki.jp/nai_ch/d/X/Y%20Plot%A4%CB%A4%C4%A4%A4%A4%C6 >>253
5Gぐらい余裕あるからメモリは足りてるとは思うんだが
足りない時は毎回ハードディスクから読み出すっぽい動きしてたけどモデル一つあたり2Gまで削減してからはそんな挙動も見当たらないし >>262
はえーこれだけ読むと意外と簡単なんかと思えてしまうのが怖いな
イチから実践して絵つきで解説ブログとかないんかな? 複数人LORAやけど前スレで書いたとおりキャプションはオススメせんで
他のキャラと被るワードがキャプションで多用されるとそこを起点にキャラが混じるんや
それと使いやすいようにchara1 chara2なんて連番ワードをトリガーにするのも無しや
トリガーワードは必ず別トークンで1トークンの何かで分離する必要があるんや
原理確認なら
10_shs 1girl
10_cic 1girl
にそれぞれ別キャラの画像突っ込んで学習回すだけや
これで、shs 1girlをプロンプトに入れた時と、cic 1girlをプロンプトにいれた時で別キャラがそれぞれ出てくれば成功や
テキストファイルにtaggerでタグ付けしろとかそういうのは一端無視や >>246
3070は16GBにアップグレード出来る神機やで >>266
まだピチピチの歳やんけ
こんなん効いたら学習させるのめちゃくちゃ怖くなるな 繰り返し回数とepochの違い教えてくれんか?
数を増やすとどんな影響があるのか
比率は1:1がいいとかそういうの 冬場のみの使用でグラボが悲鳴を上げるんか・・・
夏場どうすんねやろなワイら >>272
なんやその神機能
どうやったらできるん? >>262
最初に程度の低いLORAを作ってから
高度な物に作り込んで行くということ? >>271
キャプション付けて色々試してたわサンガツ 3070を16Gにできるってどういう事や
そんなんここで聞いたことなかったんやが >>271
あっぶねえ準備段階で誤解してた
サンガツやで
……ちなみに同一キャラの別衣装区別させたいときはその場合どうするんや……? PL80%使用でケース開放してるから爆熱のVRAM温度も最高70度くらいまでしか上がらないんだけど
高負荷時とアイドル時で温度変化ありすぎるから収縮してピキピキ鳴ってそう…
周りの金属プレートとかが収縮してるだけなら問題無いか…? >>256
モデルが悪いんか結構継ぎ足して書いてみてるけどhandjobで出ないんよなぁ
あと普通に男が溶けまくるのは人物二人以上を俺が扱えるプロンプト書けてないせいやとはおもうが >>266
ファンが劣化してくるとそんな音するけど半年は早いね
羽が何かに当たってんのか? って感じの音
実際には何も当たってないんだけど、軸が劣化して軸がぶれるときに音が鳴ってるっぽいんだけど 3070の16GBは多分魔改造(ハードウェア的に半田とか使ってvram足す)のことだと思う
一般人には無理 >>262
どういうポーズがええんやろうな
雰囲気でやってるワイ的には最低限こういうのがあったらみたいなのが集まればええんやけど 温度変化怖いから
次買うとしても間違いなく4080あたりになりそうやわ
ただ5080にしようかとも思ってるけどその頃には4080が10万切ってそうやしな >>268
同じseedのまま微妙に内容変えたい時に使うものや
sigmaはchurn(掻き混ぜ)してnoiseを乗せる度合いを示しとるからこう変えればこう変わるという性質はないし他も似たようなもん
Eta noise deltaなんかはまだwuiもまともに出回って無い時期のwaiduやsd1.3で同じ構図のまま指ガチャしたいなんて時に使われとったな >>285
ガチで期待して損したわ
ネクロマンサーとかお呼びでないんだわ 画面の設定をまるっと保存、復元できる拡張ないかな
設定が増えてきて「?」では不便になってきた 一応やけど、メーカーは90度余裕とかこいてるけど、グラボは80度あたりからギアセカンド入って寿命数倍で減る
対策でファンぶん回すとファンの寿命も尽きる
せやから本体のエアフロー、グラボもトリプルファンでリッチに構成するのが安心や
ええか、パーツの寿命は金で買うんやで、やで、やで、やで >>290
PNGInfoから取り戻すんじゃアカンの? >>284
なるほど温度というよりファンのせいなのかな
機械学習で1週間に1回くらい1日中ファン70%で回したりしてたけど
でもマイニングとかに比べたら全然ライトだしなぁ
とりあえずファンの速度変えたりして確認してみるわ ↑Generateボタンの下のナナメ矢印出そうとしたら化けたわ 数%の性能上げるために電気使い過ぎなんだよな
リミットかけた方がいい >>292
Dynamic promptとか、X/Y/Z plotとかはPNGInfoに保存されないやろ たぶん >>278
「LoRAで学習させるに足る成功ガチャ絵」を20枚用意する、って感じやね
わざわざ「機械の負荷が1時間」っていう変な言い回しをしたのは
「大量に作った数百枚の絵を作る」(機械が40分働く)
「使える20枚の選別」「適切にフォルダ分けする」(ヒトカスが何時間も働く)
「学習する」(512x512で機械が20分働く)
みたいな内訳になるだろうなあと想定したからや アップスケーラーがたくさんあるけど、LatentとかR-ESRGANとか
それらの比較というか何をつかえばいいかを書いたサイトとかない?
もしくはどのアップスケーラーがオススメ? コイカツ画像とかでいいから「この20枚をLoRA学習させたらこんな風に出るようになったで」
「こういう画像でやったらイマイチやったで」みたいな例をあげてくれる人がもっとたくさん出ると嬉しいな
LoRA使ってこんな画像出せるようになったで、って事例はWikiにたくさんあるけど
こういう画像を食わせたで、って事例はちょっと少なめだし >>271
以前にhatsukazeとhagikazeとmaikazeを同じLoRAで学習させた時、初風(素材)がみんな萩風(素材多い)みたいになってしまう現象があった
舞風は意外と混ざらなかった
つまり次のトークンが適用される
https://i.imgur.com/3pGf5aT.png
だから、分離されたトークンを使う必要があったんですね >>302
こんな頭おかC事する奴おるんか・・・
グラボ界隈って狂ってるんやな >>286
多分アニメの設定画の構図に近いものになるんだろうなって気はする
しかしopenposeの棒人間さん前と後ろの区別が曖昧なんだよな… >>303
キャラにしても構図にしても大抵の場合素材にしてるのが誰かの作った画像やから公開しにくいんやろなぁ >>303
食料を解説するほうがはるかに大事よな
まあヤバい所から食わせてるからそうなるんやろけど LoRAが上手くいかず懲りずにt2iばかりメインでやってるがbasilMixでも豪華にできるようになってきた
今まで無駄に盛りすぎてたのか崩壊一歩手前みたいなのとかイマイチな構図とかばかり出てたけど(500トークンとか1000とか5000とか)、
75トークンできっちり作って、盛るにしてもそっちも75トークンにして合計150トークン
すると破綻もなくスッキリした派手さになってくれた
https://i.imgur.com/w9aWRF0.jpg
ただしネガの方は中華呪文使用
ネガをあっさりにするとワイの呪文はbasilだとクソしか出なくなってしまう(色などがクドい)
これよりもっと派手にしたいけどbasilだとキツイかねえ ふと、古いプロンプトって今でも再現できるのかと思い……
こちら、去年の9月に出したもの:https://i.imgur.com/6ijmBZs.png
こちら、今日出し直したもの:https://i.imgur.com/Ixzg03i.png
構図は概ね再現されてるのか?多重カッコの強調から数値指定で若干の変化があるのと、xformers入ってるのはあるけど、細部は結構変わってるわw そしてそのままhighres
https://i.imgur.com/fCg6VQU.png
そうそう、うっかりhighresかけるとこんな狂った絵になるんよなw 現在の知見をもって、i2iでCFGがっつり上げてratent upscale
https://i.imgur.com/iEiqXz3.png
まだ狂った絵面ではあるけど、だいぶましに >>303
megaとかに元画像とtxtファイル纏めてあげられてるやつがたまにあるが参考にならんか?
まだlora手出してないからわからんのやが >>290
わかるで
でもDOMの構成みた限りフォームの名前的なものを決め打ちするしかなさそうで、ちょっと更新されたらもう要修正になりそうだからかなり難しそうやな… >>311
なお、ControlNet (seg) かけるとhighres発狂しないw
https://i.imgur.com/0pZBWD5.png 足にある特徴を再現するときどういうのがええんやろう
全身やと再現微妙な感じするし体育座りとかさせたほうがええんかな >>311
webNAIちゃん時代の資産がローカルで再現できない問題はワイも悩まされてる
細部はしょうがないにしても微妙な表情が再現されないのは痛すぎる
括弧の変換の問題と思って全く括弧なしで作ったりしたけどその場合でも再現されないのはなんでやねんってキレてたけど、
そうかxformersか
他にもくっつけてるしそういう部分の差異が再現を妨げてたのか
でもアスカテストやると同じになるんだよな
webNAIちゃんでもアスカテストが再現される
なのになんで過去に作った絵の再現はできないんや・・・ 昨日3090の熱問題相談乗ってくれたニキらサンガツやで
afterburner入れて調整したらメモリ温度15度以上下がったわ
これで安心して学習に専念できるー マージで大量のファイルを扱うせいで容量の大きいファイルは HDD にコピペした後 md5sum でハッシュ値確認しないと安心できない体になってしまった おおん?新しいモデル導入したからサンプル画像と同じ値でいれて見てるけどサンプル画像と全然違うものが出てくるんだがなんぞこれ
skipもノイズ除去も合わせてるのに >>222
2か月前なら階層マージもまだ手探りな時代か。知ったかで他人のやつパクって小さいマウント取ってたのが逃げてるのもいたくらい
その頃に比べたら今出ている有名モデルはそれなりに出るし、素人でも少しツール覚えれば欠損くらいは修正できるレベルだよ
Clip異常を検出&修正&safetensors出力までしてくれるpyも公開されてるし(ウィルスリスクは減ったけどMacには拷問カモ)
壊れたモデルや変なマージ繰り返さなければ、シンプルなプロンプトの方が素直にいい物が出るようになった
個人的な感想だけどEasyNegativeやbad_promptは他にも影響が出るから、常時利用はモデルの質を有効に使えないと思うわ >>315でピンときて、ちょっと試してみた。
first pass: https://i.imgur.com/MuQfSlq.png
hires.fix: https://i.imgur.com/xtI3a55.png
脚が肉塊化してる。
first passをControlNetに入れてopenposeでhires.fix
https://i.imgur.com/3i2Wfak.png
おお、CFGそのままなのに肉塊化しませんよ? >>312
これで上下左右にグリングリン出来たら最高だな
webuiがイラストソフトを食い始めてるな >>317
NAIサイト版はEular aの設定微妙に変えたんじゃなかったっけ
だからEular aで作ったやつは再現できない >>327
これって棒人間とかラフ画でもイケるんかな >>301
hires.fixの場合は拡大した上でボカして書き直すから動作の軽いlatentでええぞ
Extrasとかで単純に拡大したい場合はSwinIR_4xかな >>288
ありがとうな
今はバリエーションとかより高度な手法が出てきてるけど、古い方法も残しておくくらいのことなんか >>327
脚が肉球化 に空目した
ためしに肉球にしてみたら、手足の崩れがなくなって良い感じだな >>326
待ってました、と言っておこうか
特に驚いていないから相当感覚がおかしくなってる自覚がある
>>330
ほぼDDIMでしか作ってないんや
DDIMで括弧皆無で新たに作り直した絵すらローカルで再現できない
というか皆はできてるんか?
そのままハイレゾは無理としても拡大くらいはしたい >>333
そういう原理だったんか
道理で、最初から途中までは完璧な絵なのに変換途中でいきなり肉塊化して絵が崩壊するなぁと思ってたわ
やっぱControlNetとかでがっちりポーズ指定しなきゃアカンね chilloutmixって試したけど同じような顔ばっかやな
あと目の色を指定しても灰色になりがちやしプロンプトの効きも悪いから胸の大きさが細かく調整できんからbasilでええかって感想 🤗ってエロ画像NGじゃなかったっけ
ワイまだ置いたことないから違ってたらすまんけど >>336
設定でUse Old Enphasis~入れてもあかんか? >>331
アロナみると250枚も画像使ってるのかやっぱそんくらい用意せねばならんのね >>339
そういえば前もスレでそんなこと言われてたな
>>324ニキは大丈夫かな ハグフェイスはエロNGや消されるで
だからワイはデータのバックアップだけにしてcivitaiかmegaにおいとるわ >>342
エロダメなんか???
一応爆速で消してきた >>317
NAIは裏で自動的にクオリティタグが入れられてるけど、ローカルだとそれを手動で再現しないといけない
それやなくて? >>338
自分のネガティブプロンプト疑ったほうがいいな
チルアウトの問題じゃないと思うわ うむ、棒人形使うとhiresで人体崩壊しないんだなぁ……
first pass: https://i.imgur.com/2iYqwtQ.png
hires.fix: blob:https://i.imgur.com/Mwtltqi.png
seedが同じなので、棒人形でも背景は概ね変わりなし。 ネガポジのこれ入れとけば間違いなしプロンプトの選定でも時間消し飛ぶわ
ある程度テンプレあるけど効きがやっぱ色々違うように思えて沼る >>254
別にlora学習普通にできるぞ
処理速度は3060より速いんだし何が悪魔なのかわからん
https://i.imgur.com/BgQ1O0O.png
>>272
検索したら草 >>344
エロはあかんね
サンプル置いたり露骨でエロワード入れなければセーフやけど(生成物がエロくなるのがアウトだったらモデルデータ軒並みアカンし) >>338
俺が試した限り、chilloutでよい画像が出てくるタグをbasilに突っ込むと
顔だけ老けた人が出てきたりするので、この二つのモデルは全然違うタグを指定してやる必要が多分あるで あんまりt2iの某人形使ってる人おらんが使い勝手悪いのか AIくんが奥行きを把握してくれないから棒人形は正直使いづらい >>338
目の色だけで言えば、sunshinemixが>>84の通り自由度高い 温度見てみたら生成中はグラボのメモリが92度とかいってて草 >>340
そんなのがあるんか!
webUIを日本語化してるからそのものが見当たらないが、Compatibilityの一番上の「古い強調の実装を使う。古い生成物を再現するのに使えます。」
でいいのかな
>>345
そういうのを全部取っ払って作ったものでも再現できんかった
逆にクオリティタグありLow Quality+Bad AnatomyにしてNAIconvertしてもあかんかった >>357
そのチェック入れると75トークン以上は効かなくなる(トークンが捨てられる)から注意な Supermergerのおかげで今更層別マージにはまってるんだけど、
顔の年齢に関しては特にIN7層が影響大きそうなんやが、
ここをいじると、他の層の影響が逆になったりして、かなり扱いづらいね
別の層でリアル系モデルの割合を減らしてるのになぜか出力される絵がリアルに寄って行ったり
あとIN7の状態で、大量のネガティブプロンプトを使った方がいいのか、
少量のネガティブプロンプトの方がいいのかが決まってくる気がするな
ここはまだちょっとそうかもしれないって思ってるだけで確信はないんだけど >>331
ありがと
そういえば追加学習系は中韓が強いんやったな やっぱ棒人形動かしやすいの探さないとだなあいろいろ選択肢すでにあるみたいだけど
どれがいいのやら >>358
ええ、再現したい絵って少なくとも160トークン、多くは200トークン超えばかりやねんけど >>314
そうなんや…
ui-config.jsonをexport/importできればいいんかなと思ったけど、ないんかな… 絵の練習の最初は棒人形を書くことから
後は全部aiだからやらないでよし 10年前にドスパラで買ったガレリアとかいうWin7PCが押入れにあんだけど3060入れたらWebUI動きますかね? >>31
>>33
むしろ上がってるじゃねーかここ最近
46000円でしばらく張り付いていたのに1ヶ月ぶりに見たら
最安49000円とかになってもうた
んでちょうど来月カネ少し入ることになったからポチったわ
これからLoRAの勉強や アホ程増えてた錬成画像、眠ってた初代pixel端末を経由させてgoogle photoに突っ込む事で、
容量無制限で画像の保管が出来るようになったわー。
埋め込みプロンプトも問題なく残ってくれてるので、googleが仕様変更するまでは、これでいくか。 >>363
パースとか位置関係把握できてないと結局seg使いこなせなくて震える 4080今20万で手が出せるし買ってもいいんけど、下がるいわれてる中今買うのはなんか損した気分になりそうで手が出せん RTX3060の8GよりRTX2060の12Gでもええんちゃう?
メモリが鍵やろ >>363
アタリだけ描ける絵師が量産されるんか‥ 前スレあたりでも出てたけど30XXから変わっている部分あるらしいから
3060の12GBやろやっぱ
1万円も差ないんちゃうか ええいガチャしてなんか良さげな構図をそれっぽくするだけやワイは画力鍛えへんぞ 2060が3万ぐらいで買えるなら選択肢として有りやけど現状の価格なら3060の12GB買うべきや ぶっちゃけ手描きで仕上げる作業はクリエイティブじゃねーよなって感じてたわ >>377
ワイかな
この構図、このポーズにしたいって思いが特にないからガチャでそれっぽいの出すだけで満足や tiはたまにそのまま新作に使えそうなアイデア詰まった生成するから大事ちゃうの 学習サイズ512学習だと上手くいったんやけど768だと出力されるときにエラー吐いてたわ
赤ちゃん以下のワイにはもう分からない512でいいか 今って構図の悩みとその解決策が話題の中心でこういう顔が出てほしいみたいな悩みってもうみんな通過済みなんか
最近AI興味持ったから周回遅れ感強いわ +記号でトークン分離できる説が無意味とか昔検証されとったが、今はBREAK記法なるものがあるんやな。
wiki見たら書いてないみたいやから誰か詳しい人解説作ってクレメンス
書くならプロンプトエディティングやら+呪文やらの項目やろうか >>326
このオープンポーズエディター、良いけど縦横サイズの設定ですぐ縦長・横長を切り替えられるようにサイズ入れ替えボタン追加してほしいな
そうじゃないといちいち縦長・横長サイズの切り替えを手動で数値入力しなきゃいけないし NAIちゃん初めの頃はレンチン揶揄されてたけど食材探しやら下ごしらえまでしなくちゃいけなくなってるわ 自前で完璧に構図を定めてしまうと"使えない"絵になるんだよな
あくまでもランダム性がないと話にならないわ
だから今話題のやつはワイには無価値や >>384
わりとガチャ対象やろそれ
プロンプトで好みの表情いれつつ調整や >>388
ワイらエロいだけの赤ちゃんにとってはそうやろなと思う
でも元々表現したいものが湧き出てくる人たちとか
特殊な絵やシチュじゃないとおちんぽ反応しない人たちにとってはうれしいツールになってきてるんやろなと >>334
古い新しいで言えばsigmaなんとかは割と新し目だと思う(そもそもDPM2が実装されたの結構最近だし)
多分、どういう意図で実装したというよりは、こういうことが出来るって論文なり仕様書なりを見たから実装してみた、みたいな感じなんじゃないかな hiresはもうちょい元の画像に近付ける努力して欲しいわ
元のサイズの半分ぐらいに縮小したら殆ど同じに見えるぐらいの一致度で書き込み増やして欲しいところだが
それやろうとするとDenoise0.4ぐらいになるからぼやけて使い物にならんのよな >>350
このballoon mixってのはかわいい女の子と綺麗な風船のイラストが出るモデルなんやろなあ… >>373
その通りやで
生成速度は時間を払いだせば解決するけど
メモリ不足は打つ手が無い
ワイは最初会社に転がってた2080sで8GBの壁に当たって
エルザのアウトレットで格安の2060 12GBを買って8GBの壁を打ち破った
結局12GBの壁に当たって中古3090を買ってしまったわけだが
何が言いたいかというと最優先すべきはメモリサイズやで バルーンアートはメジャーなジャンルやし子供の教育にも良さそうやな! >>338,351
服飾とか裸体はchilloutの方がディテール良いと思うんや
顔はbasilの方がリアルと思うで ラブホのバイトでベッドメイキングしてたら布団の下にバルーンでハート書かれてて泣いたコピペ思い出した >>378
2060の12G自体がレアやがマイニングされてる可能性低いし
中古でええんちゃう?
記憶が虚ろやが中古マイニングでヤバいのって
3060の12G~3090な気がする
3090出た辺りではマイニング下火やったか記憶が微妙やが
90を手放す人もレアやな 4080かっても筐体に入りそうにないな
全部丸ごと買うしかないか AOE3は女の子ちょっと置くだけで背景もゴージャスになるわ
透けてなくて露出してなくてピタピタでもない服を出すのに指示が多くなるが すまんスレ的に初歩的かもしれんが教えてくれ、なんか腹がぶよぶよになってまうんや、ハイレゾかけると余計ひどくなる
https://i.imgur.com/VgdJzfl.png
過去スレから勝手に持ってきて申し訳ないが、この画像くらいのなめらかなおなかと腿のふとましさが欲しいんやが、何度やってもうまくいけへん
https://i.imgur.com/o1oCmCi.png
https://i.imgur.com/v3vAdTH.png
はじめは自作loraが悪さしてるのかと思ったが、呪文シンプルにしても同じやった。
masterpiece,best quality, stomach,From the waist to the hips without moving the face,1girl,completely nude, nude,wide thighs, narrow waist, 1girl
NP:(worst quality:1.1), (low quality:1.1) , 3d,realistic,excess flesh,flab,grid 複数キャラLORAの続きやけど、>>271でも混ざるというなら1girlすら経由して混ざっとるめんどくさい状況なんやけど
10_shs
10_cic
に入れて回すという最終手段でまあ解決するとは思う
ただし学習のスタート時にこの画像は女の子が映っとるんやでという最低限のヒントすらなく始まるので立ち上がりや収束が遅くなることがある
服装はxxx(1トークンの他と重複のない何か) costumeとかxxx outfitとかで分類しておくと分離できてそのキャラの服装パターンにはできるけど、服装交換は無理やな
どうしてもキャラ自体も混ざる
https://i.imgur.com/v5w1fPQ.png >>398
だから男同士のカップルは嫌がられるんやで 手足Loraってどこにある?
検索かけても見つからないんだが >>375
貧乏人なんで、クリーチャー以外の錬成は残しておきたいとか思ってたらこのザマだw
ところで、ラーメン食べるLoRA作ってる人おるんやろか。 AOM3のgape比率下げたらエロ表現の過剰なのが落ちついたわ
絵が崩れすぎて最初は焦ったぜ もしかして、いやもしかしないかもだが
構図loraの学習素材って実写に近いリアル系だとうまく行きにくい…?
なんとか構図は来るものの、絵がガビりやすいんよな…
過学習というわけではないんだが、みんなイラスト素材でやってんのかな 数週間後、ロリっぽい画像も共有してしまいGoogleから抹殺される>>370の姿が! >>407
ハイポリのことなんか
これかけてそんなに手足良くなるかな >>403
プロンプトにstomach入っているから引きずられて強調されてるんじゃない? >>370
本当か?
保存容量の節約画質で Google Pixel 3a~5 からバックアップした写真と動画は、無制限かつ無料で保存できます。 元の画質でバックアップすると、Google アカウントの保存容量にカウントされます。 >>403
without moving the face,
これなんのために入れてるんや? >>403
ネガティブのexess flesh flab gridとか一個ずつ消して見たら?
かえって悪さしてるかも >>413,416
レスサンガツ
割とましになった気がするけど画像ほどきれいな曲線にはならんかった
>>415
テストで腹から腿にかけての画像を出力するとき、「顔を除いた腹から腿にかけて」をDeeplでつっこんでそのまま入れてるだけや
今思えば外してもよかったな >>392
hires前が気に入ってるなら
hires_fix使わないで、ExtrasからSwinlRでアップスケールして、i2iで低めのdenoisingでガチャるのもアリやで
正直あんまり書き込みは増えんがぼやけたりしないから自分の納得のいく数値を探せる
あとi2iの時にもseed使えるから同じ絵からガチャできる ワイ3070使いやが普通にLORAで学習できてるで
キャラ再現もバッチリや
ttps://i.imgur.com/Z3IFHMg.png
ttps://i.imgur.com/UoiRtqr.png
ttps://i.imgur.com/3zwox4o.png >>418
なるほど
ワイはスレのニキにcurvyって教わったで >>331
アロナは250枚×4epochなのね、素材増やしてepoch減らす方が色んな構図や角度でも適用可能ってことだろうか ランムダム構文みたいなのってどうやって書くんやっけ
なんか瞳の色とかblue green redとか入力するとどれかにするよーってやつ >>425
dynamic prompt入れるんや >>411
せやなー。
そこ注意せんとな。肌色成分少ないのだけにしとこか。
>>414
ワイの初代だから無制限やねん。
150Gくらい突っ込んだけど、容量変わってないで。 >>426
dynamic promptて打ち込むだけでええんか? >>421
塗りの感じの再現凄い
lrlateどんなもん? >>417
明るさ上げると普通の絵なんやな
色の問題か? >>426
それや
なんか色々入れすぎて忘れてたわ
見に行って思い出したけど{blue|green|red}みたいなのやな AOM3は何も入力せんかったら
エロ絵出現率くそ高いな >>432
確かにホワイト髪とかNGに入れてたけどそれだけでこんななるかな
学習素材に白髪入れてないのに何故か白髪になるんよな
学習画像が明るすぎたのかな 250枚!
20枚でちゃんとしたのができないのは当たり前だったか >>429
学習率?1e-4やで
>>430
512やで >>436
正則が透過と思いきや真っ黒になってる…とか?謎やな 15枚100epoc学習ワイ、低みの見物
ControlNet以外ではほぼ言う事を聞かん困ったモデルしかでけん 逆にそこまでカッチカチに過学習させてもcontrolnetで曲げられるんか
面白い >>391
ありがとうね
昔からあるのはEta noise seed deltaのほうか
etaもDDIMのデフォルトが0でaつきサンプラーのデフォルトが1なのも理由がわからない
sigmaシリーズはDPM2で使うものなの? バリエーションを使うのに対してどんなメリットがあるんやろか
うーむもっと調べないと >>403
hires無しでやれる限界の解像度ちょっと越えてるかもしれない
少し小さくしてみたら? >>422
強調してそれ使ったら画像程じゃないけどマシになったわ!
サンガツ!
しかしみんなよく綺麗な曲線美のキャラ出せるな尊敬するわ >>445
512でも出るんや
でもCiviのhuge assってLoraのプロンプトに倣ってネガティブいれたらマシになった
サイズ上げすぎも良くないンゴかぁ… ワイも3070やで
https://majinai.art/i/Dk8DbIJ.png
画像36枚
ft₋repeats=10
num₋epochs=5
learning₋rate=1e-3
text₋encoder₋lr=2e-5
unet₋lr=2e-4
alpha/dim=128/128
resolution=768,768
のFTモードで10分クッキングや ベースモデルってやっぱリアル系はSD1.5、アニメ系はACertinaryなんかな >>439
正規化って真っ黒だとあかんのか?
説明サイトで自動で作られる物だと真っ黒やったんやが >>451
ワイは多少の破綻も気にせずにシコれるからマジで幸せやぞ リークモデル使うの気にしないならNAI-SFWもよく見る。AoM2も
地味にお蔵入りになってしまったWD1.35-booruモデルも学習元としてはかなり良い AOM3って隙あらばred eyesにしてくるんやがなんでや? マージを Hugging Face に git push した時はまだ外が明るかったと思うのにまだ終わらない
ブラウザ経由で一個ずつ上げるのでないと時間がかかってしゃーないな
5 GB 以上のファイルもブラウザで出来たらいいのに huggingface_hubのupload_file関数使えばええやん >>461
この頃、highres.fixどころかSD upscaleもまだなかったんやなぁ AOM3でなんか不気味にリアルな絵が出てくると思ったら
推奨ネガティブプロンプトにrealisticがあった
説明はきちんと読まなあかんな >>461
懐かしいなぁ、と思ったんやがほんの5ヶ月くらい前なんやなこれでも…
>>462
NAIちゃんすらなくて細々やっとった時期やな、Waifu Diffusion はあったやろか? >>453
いや、手順通りというかextensionの透過画像吐き出す奴で作ったなら
エクスプローラー上で真っ黒になってるのは正常なはずや
それがなんかのきっかけで透過情報失われる事をしたら(jpgに変えたとか)
ありうるかなと思ってな… >>467
この頃はモデルひとつしか使えなくてリネームしてた。
これ実は自前のコンテナイメージ生成スクリプトで当時のハッシュ値指定して作ったのだけど、sd用とwd用の起動スクリプトが別々にあったわw loraモデルってみんなどこで見つけとるんや
授乳手コキとかパイズリとか気になるわ CNのボーンいじれるようになったしもう複数人でも違うポーズ簡単に取らせられるやん >>470
このスレの住人が作って公開したやつは大体wikiにまとめてある
後はcivitaiとか4ch >>463
読んでなかったわw
AOM2のほうがいいなぁとなってたし試してみる >>462
あ、SD upscale発見。この頃はscriptsの中じゃなくて外に出てたんだ…… Loraいれてrefreshしてもupdating model hashesで止まっちゃうんやが
git pullはしてる そろそろ学習に手を出してみたいんだけどこのスレ的にRTX2070 SUPERってどんな感じの評価ですか? >>454
まんこが見えていれば何でもシコれるワイに勝てるかな? TIってUnet学習してないから出力される絵は基本的にモデルの絵柄になるって認識でええんよな? 病院行ったほうがええんやろか
シコれば勃つし夢精や朝勃ちもできるんやけど絵や動画を見たり妄想するだけでは興奮できないのが2ヶ月続いとる
たくさんエロ画像作りたいのにあんまりや… ほんまhiresは元画像を維持してほしいな
中止したときに出てきた構図が割と綺麗に複数でキャッキャしてて良かったんで
同じシード入れて作り直させてみたらしょうもない構図に変えよったわ >>484
それはAV監督と同じ領域に踏み込んだからや
ニキもクリエイターになったということや >>470
4chビューアで(sikiとか)雑に画像だけみとけばリンクいっぱいあるで >>419
横からすまん。 このハイポリってなんや? 手足が崩壊するから困ってるんよ >>484
もし自分の性癖に当てはまるものしか見とらんなら飽きたのかもしれんね
新たな性癖を開拓する時が来たんや >>487
これはこのseedで偶々こうなっただけなので、別seedで再現するにはControlNetのseg使わないとあかんで >>468
番号001とかに変えたぐらいやな
てか正規化画像が認識出来ませんって言われて使用出来てないわ
仕方ないから無しでやってる >>487 それそれ
何スレか前どころか前スレに昨日貼られてたやつだな
>>481
>>487のそれの最初に『(white background:1.2), BREAK ,』付けて白背景にして、
あとは顔の各種方向の画像並べてcontrolnetでゴーだ プルしたら起動時に大量のTI読み込むようになった
なんだこれ アロナちゃんにえっちなことさせて遊んでたら
謎性癖が出力されてきてワロタ
https://i.imgur.com/i4YQDU7.png >>500
大量にembeddingsに突っ込んでるからでは? 亀だけどAOM3いいね
射精管理局とかいう怪しい団体を名乗るメスガキに捕まってしもたわ
https://imgur.com/M341MM9 >>502
もともと10個も入れてなかったし全部退避させて起動したけど変わんないからembeddingフォルダじゃないとこから読んでる気がする Embeddingってどうなんだろ
色々提供されてるようだけど
どれか1個使うぐらいなら大丈夫? >>505
ファイル名で検索したらどこから読んでるかわかるから、それをui-config.jsonから探せば設定場所もわかるんじゃないかな >>444
sigmaはDPM2以外では無視されたはず >>507
やってみます
Textual inversion embeddings loaded(889)ってどっからそんなに持ってきたんっていう数読み込む >>448
原神loraの中でもかなり再現度高いな >>466
塗りがまともになるとただのカントク絵になりそう 拡張機能の方から読み込んでたわ
今まで表示されてなかっただけぽい >>509
油断してDLしたもの適当に入れてTI/HN/LoRA全部にパス通してやると今月だけで600とか軽く超えててチェックすら面倒になる
うちだとテスト時にmklinkでサブフォルダにつないでたの忘れてたり(笑) latentcoupleっていうかAND記法、使うと全体的にガビガビになる感じで低品質になるんだけどこれってそういうもん?
何かコツとかあるのかな 解像度上げたときに構図めちゃくちゃ変わるのどうすればええんやcontrolnetで固定しようとしたらなんかめっちゃ塗りが荒くなるし >>516
ハイレゾの強度50とかまで下げて、CFG16とか18とかにしたら、多少は回避できるんじゃなかったっけか そもそもLatent Couplesを使わない時のANDがどういう風に作用するのかもよくわかってない
BREAKがトークンを強制分割するから色移り防止に良いってのは聞くけど lora作ってみたけど、明らかに白黒比率が上がる場合何が原因?? >>496
んーーわからんな
違うLoRA作ってみたりして同じようなこと起こるなら環境か設定が何かおかしいんやろなぁ
そもそも正則化認識できないってのもどこかで何かおかしいからだと思うが
>>417の画像は暗いことを除けば学習は出来てる感はあるんか? >>519
もちろん学習素材に白黒画像は無い前提なんだろうけど
あるいは学習のキャプションに白黒を励起するトークンが紛れているとかかもしれない
黒髪に白い服の女の子がいてキャプションに「black」「white」が沢山入る
↓
🤖「Black and Whiteやな!かしこまり!」
的な >>521
なんかパンツ見せてくれそうな表情で良いなコレ リアル系でpeeingさせるLoRAある? civitに2Dのはあるけどリアルに使うと微妙なんよね >>84
せやろ?これ認知されてくれたらええなぁ。。。
可愛いキャラにぴったりなんや。。。 >>522
あーーーなるほど
white back groundとblack dressが入ってるわ
調整してみるよサンキュー 間隔離したら良い感じになってきた
https://i.imgur.com/wpyjcWu.png
https://i.imgur.com/mU42qTQ.png
https://i.imgur.com/1VTublx.png
これで後は適当にぶん回したら、なんか好みの雰囲気のキャラできるやろ感
あとは出来た顔リストで顔lora作ったら、一定のオリキャラ(AIブン投げ)の顔の見た目でエロ量産やでぇ 3060値段上がったなぁ
数週間前にアマゾンみたら4万5千円くらいで売っとったのに今5万2千円もするやんけ
買っときゃ良かった😭 >>528
はえーこれすごいなLoraにこんなんあったっけ ワイ未だにやってるloraがFTモードなのかそうでないのか分かってないんやが >>530
木曜日にポチった3060今見たら4000円下がってたわ
この週末幸せになったからええけど
ちな価格コムの売れ筋5位のやつ 3060購入してついに参戦や
革ジャンは余ってる3000シリーズのチップにメモリ載せまくって売ってくれ >>535
逆やで
lora無しで顔の複数方向出したキャラ生成して、この画像を基にオリキャラの顔lora作るんや AOM3ネガプロンプトはできるだけシンプルなものがいいみたいだけど
指示書の以外で推奨のあります?めちゃくちゃ入れてたら明らかにダメだったし厳選というのも難しいすね >>541
はえーcontrolnetのおかげでこういうのもできるようになったってことか >>369
そこまで細かく値動き観察してないけどだから最後のチャンスと思ったんや
この先下がる明確な見込みもないしこれが底やと思ってな
値段は割引込みで47,000やった! >>545
ありがたく頂くわ
fbxとかの、BlenderとかUnityで使えるモデルもあったりするやろか・・・? >>546
blenderあたりは誰か作っとるんやない?
ワイはblender扱えん赤ちゃんやから… >>545
おぉ、大分しっかり認識してくれてるように見える
あとはプロンプト微調整でエラー減りそうだな >>516
denoise strengthを低くすればハイレゾ前に忠実になるで
latentアプスケの場合は0.6あたりから変なノイズ出始めるから元画像そのままにするならesrganとかswinIRやな
ただ見た目は解像感高まるというよりほんとにただアプスケしただけになるから緻密な絵と構図維持は両立しないな >>547
まあpmxからfbx変換するソフトどっかにありそうやな
サンクスやで 3060程度なら別にわざわざ買わんでもよくねって感じやわ
ローカルPCでやるなら24GBくらいの買った方がええやろ >>545
便利そうやありがたく使わせてもらうで
サンガツや
>>550
pmxはblenderでそのままインポートできるアドオンあるで open pose editorで手の位置変えてるんやけど、
手前とか奥に配置するのってプロンプトでやるんか?
editorの方で前後の指定はできないんか? >>551
vram24gbとかグラボだけで20万はかかるやろ…
12gbに意味はあるけど24gbに明確な意味あるんか? 今まさに12GBで限界感じてるので24GBメッチャ欲しいけど高すぎるぞ…… 解説サイトに解像度は64の倍数ってよく書いてあるけど、例えば540x960ではなくて512x896のほうがやっぱいええんか?倍数じゃなくても出力自体はできるし、いまいちようわからん・・。 エロゲで機械姦のときにつける洗脳マスクみたいなのってLoraで既にあるかな? >>552
入れたわ
んでfbxで書き出してUnityで読み込んだ……らなぜか腕がグネグネになってもうた
なんでやろ・・・ Blenderのポージングツールあんま好きじゃないのよなあ
とりあえずfbxの書き出しツールを別のにするとか探ってみるわ 12月頃から勉学の都合で離れた浦島太郎なんやが
もう1年間PC絶ちの環境で過ごさなあかんくなるかもしれん😢
ディープフェイクやら児ポ系の規制で1年後には焦土になってそうで怖いわ
今のうちに目ぼしい実写系モデルだけでもアーカイブしときたいんやがオススメあったら教えてほしい >>564
基礎固めの9月にこんなおもろいもんが配布されたのが悪い😡 4090とかは電源から総取っ替えになるからなあ
動画作れる時代になったらどうなるんやろ なんか疲れたから一周回って手書きの絵かいてるわ
でもこのスレ見ないと遅れてしまうという強迫観念が常にある >>558
StableDiffusionは512x512を64x64(=1/8)にして内部で絵を作る処理をしとるんやけど
この関係で解像度は8の倍数でしか絵を作れない絶対の制限があるんや
これに倣うと540は作れんしそもそも指定できんやろ?
それに加えてhiresをするときには元の解像度と拡大後の解像度でどちらも8の倍数を満たす必要が出てくるんや
この関係上で大抵の拡大率で拡大後も8の倍数になる64単位が珍重されとる訳やな
hires無しでも64単位が良いと言っとる奴も居るがそれはほぼ迷信やな >>569
機械学習専門分野だけどAIお絵かきはさっぱり理解できなくて草ですよ >>558
最近は8の倍数で出力できるようになったみたいだけど、64でないとCntrolNetでhiresできないとかあるらしいで 時間のある大学生にこそ4090買って研究配布しまくってほしいのに高すぎて買えない現実… loraのモデルにキャラ特化ってどっかで見たからACertainty使ってるんだが、naiの方がええんか? >>558
指定しても実際に生成された画像サイズを見ると64の倍数になってないか >>569
H100が120台ある神みたいな大学にE判で突っ込むから応援よろしくやで
SDの配布による影響見て進路決めた部分もあるし当然研究も頑張る予定や
そんで実写モデル教えてくれ😅 しかし、そのうち愛犬RoLAとか作る人も出てくるんやろか 自分が受験生じゃなくて心底良かったと思うわ
こんなん高校3年の時にあったら人生終わるで イラスト生成したいけど今までpcに興味もなかったから何が必要でいくらするか検討もつかん
いまCHATGPT君と相談しとる >>562
今勢いあるのはChilloutMix
civitalでもうすぐダウンロード数1位
同じ作者のSunshineMixも注目や
派生のOrangeCillmixもなかなかいいで
aom2hBasilMixも良かったけど今は消えてる >>580
友達と相談した方がええで
ノートpcとかスマホは自信あったけど自作pcは全く知識なかったから助かったわ >>577
DreamBoothは元々そういう用途で開発されたんやで
ワンコの写真をポチポチ撮っておけばちょっとした学習で後から写真を増殖させたりいろいろなシチュエーションに仮想的に連れて行けるからうれしいやろ?って技術や
それをワイらは >>562
>>564
草
>>417
ワイもaom3a1でloraやったら黒背景ばっかになったな
学習に向いてないのか???
https://i.imgur.com/YPdQDjR.png マイナーキャラの学習素材どっから集めればええんや… 64の倍数やないと生成時間が余計に増えるで
例えば576x960と536x960だと前者の方がサイズデカいけど生成速度はほぼ同じや >>570,572,575
ありがとやで。自分の環境1111版SD2.1だと普通に64の倍数じゃなくても普通に指定も出力もできる。
(1920x1080で今までずっとやってた・・)
やっぱ8単位にならOKてことかな。
けど技術的に考えたら64倍数がやっぱり良いってことやね。8でも64でも崩壊率とかは正直わからんな・・ 学ばせたいキャラの公式立ち絵が2枚しかなくて、二次創作もほぼないんやが同じ画像を拡大縮小向き変えしてふやしまくったほうがいいんやろか
2枚で学習させるのもあまり変わらんかな アプデしてから同じ呪文で違う画像が出るようになってもうた…
Override settingsって項目が増えたけどこれのせいなんかな? >>327
試してみたいから呪文を教えてクレメンス AOM3上手くいかない理由分かった。設定次第ではグラボメモリ12GBじゃ足りないわ
他のではこういうことなかったけど今後12GBではダメなのも増えそうだなぁ・・・ >>581
サンガツ
スマホに落としといてネカフェに現実逃避しに行ったときにでも楽しむことにするわ 4090ほしいけど、もうひとりの俺が5090が48GBだったらどうする?と語りかけてくる なんかハイレゾ扱いきれなくなってきてよく分からなくなってきた
AIを使うためのAIクレメンス >>595
そんな大富豪なら4090買って5090出てからまた考えればええやないか >>595
ワイのキンタマの中の黒田総裁「5090が出る頃に1ドルが80円になってるかもしれない」 Colabとkaggleに詳しいニキおらんか?
Colabやと何もしてないときはメモリ使用量0なのに
kaggleやと何もしなくてもメモリを使ってるのは何が原因なんや
メモリ不足でものすごく遅くなるんやけど >>599
何がアカンのやろなあ…
NAIで学習してNAIで出してたりする?
NAIは元々白黒出がちやけど 4090を買うということは最新のハイエンドを更新し続ける修羅の道に入るということやからな toyxyzニキ真似してmixamoからfbx落としてopenposeでアニメーションしてみたで
https://i.imgur.com/Uh8NJZH.mp4
前後判定が怪しいから腕振ってくれない😇
奥行きを認識してくれればええんやけど AOM3 A3はクリップ1でrealisticぶち込んで実写に特化させたほうがええかもしれんな グランバニア王国には高貴な女性にエッチなしたぎを着用させる伝統があります。一見すると奇妙な風習ですが、王家の血筋を確実に受け継がせる為に必要な伝統であるとして地域住民には受け入れられています。
https://i.imgur.com/hkp0qyR.png
https://i.imgur.com/yze6IwQ.png
https://i.imgur.com/JoP2tF4.png >>592
https://majinai.art/i/a2Ba7_v
一応手順を解説しておくと、最初はhires.fixなしで生成
できたのをControlNetに投入、Preprocessorはopenpose、Modelはcontrol_openpose-fp16
あらためて同じseedでhires.fixを実行 >>604
凄いやんけ‥
次はアニメーション方面に進化するんやな
もう絵だけの話で収まらんな >>605
横からすまんが
小さい画像は白背景で埋めた512x512にしなくてもいい? >>582
まあ友達はいないからなんとかやってみるよ >>604
おーすげ
Loraでキャラと服固定したらもうすでにいい感じになりそうやん >>605
ユニティア生首ニキは、私に夢と希望を与えてくれた存在やでぇ! civitにあるrealdosmixは実写系なら良さげ いうても13700KとRTX3600とSSDが2TBあれば適当でええやろ >>515
たぶんlatent coupleをenableし忘れてる ……なあ、Loraの学習時の解像度ってもしかして256×256でも普通に学習しないか?
学習解像度下げると学習時間めっちゃ早くなるしバッチ数増やせるみたいだし皆も試してみてくれん?
ワイの環境だと512×512との品質の違いが分からんわ 48GBまでくるとローカルで言語モデル動かせるケースも増えそうやね
容量削減の研究も進むやろし >>600
kaggleってコンペのkaggleちゃうんか 騎乗位で目線を下向きにするのうまくいかんのやが何かいい方法あるか?
顔の向きまでは若干下向きになるんやが目線があちこちに行って安定せんのや
looking downとかfrom belowとか入れてawayとかをネガティブに放り込んどるんやけど >>626
そうやで
GPUが使えるから普通に画像生成はできるんやけど、LoRAの学習もできるようにしたいんや >>627
下からの画角にしたうえでカメラ目線させる手はあかんの? >>629
from belowにlooking at viewerとかも試してみたんやけどうまくいかんくてな
もしかして勘違いしとるか? aom3簡単にパンツ脱ぎ過ぎだろ
ちゃんとパンツ履いてくれ civitaiにアンハサウェイupしたやつアタマおかしいやろ VRAM48GBの夢を今見ようと思ったら60万のRTX A6000か150万のRTX 6000(Ada)しかねぇもんな
Twitterにはこいつらを使って遊んでる逸般人がいるらしいけど >>619
下げる事考えてなかったわ
256で当たり付けて良い感じなら512以上とかも出来るしええな >>628
kaggleのnotebookってことか
多分その前に使ってた変数とかを削除しないと残り続けるからだと思うで
aiお絵描きは初心者やけどその辺はよく使うから多分これ
delとかで逐一消すとかgc.collect()するとかが対策や ゲーマーよりよっぽどハイスペックPC持ちが集うスレやな
本格水冷ニキも多そう CivitAIが無法地帯なんて今更やろ
アレも何年かしたらDeepFakeみたいにFantopiaに籠もるんかな
>>421
このスレって何人か女児アニ民いるよな
まいらちゃんはまだか? AOM3で脱ぐの自重させたいならモデルカード通りに作ってgape減らすとかバランス変えるしかないわ
統合したからエロ要素強いので元々非エロで使ってた人には
扱いにくいよな >>630
ありゃ、ワイはそれで結構制御きいてたんやが…… >>628
もう知ってたらすまんがsd-scriptsで--lowramオプション追加されてたで
kaggleやcolab用のオプションらしいが代わりにvram使用量が増えるらしい >>635
変数は違うみたいやで
pipでライブラリ入れただけでメモリの使用量が増えて戻らなくなるんや
gc.collect()を使っても何も変わらんかった >>619
比較してみたで
同じ学習回数で768と256や
256は胸のハートがあからさまに歪んどるし細部の精度はやっぱり関わってくるんやろうけど
3060で2分以下でできたものやからデータセットがヤバくないかどうかとりあえず見る味見用途にはええやろな
https://i.imgur.com/TSY8ZxU.jpg >>632
有村架純アップしたアホのほうがチキンレースでは先行ってる ControlNetがタグから消えちゃったんだがどうすれば良いんだろう
zip版使ってるんやがxyz_grid_supportがエラーと出てるんだがよくわからん…
ミクビルのissueにも同じ症状の人いるみたいなんやが解決してへんみたいや >>636
最近はゲーマーよりVRガチ勢の方が良いPC使っとるし時代は変わりつつあるわ >>601
切り抜いた立ち絵をキャンバスサイズで立ち絵に合わせたり
学習回数+10したら
白黒率下がったわ
サンガツやで、学習数がギリすぎて色情報が分散してしまったのかもしれん >>648
VRChatガチ勢 とさらに限定してもよさそう >>632
ああいうの何が目的なんやろな というかcivitaiもああいうのは差し戻さないんか >>643
それも試したけどアカンかった
Colabやとそのオプション使わなくても学習できるんで、やっぱりkaggleの問題だと思うで
もう夜やし続きは明日やるわ ここのニキらはそのモデル専用でlora作ってる感じなんか
ワイみたいにベースモデルにnai選ぶ横着者は少数派か 元々ゲーマーと言う名のベンチマーカー達も少なく無かったから depthで剥ぎコラimpaint捗るわ
アニメのスクショ剥がすと背徳感マシマシで抜ける
学習とはまた違うシコり甲斐があるわ
>>645
ControlNetと組み合わせたら激ダサポーズ再現出来るかな
あと、ヤムヤムは? >>644
うーん
なんか基本的なところで見落としがあるんちゃうかgpuモードにしてないとか >>610
最新のsd-scriptsにbucket_no_upscaleというオプションがあって、
これを利かせればアップスケールされなくなるので小さい画像のキャンパスサイズを512x512に広げる必要はなくなる
ワイはhttps://github.com/derrian-distro/LoRA_Easy_Training_Scriptsを使ってるから
lora_train_command_line.pyとかをメモ帳で開いてself.bucket_no_upscale: bool = Trueにしてる >>605
bucket_no_upscaleってrun_popupでも使えるんかな?
それっぽい設定が出てこんわ >>632
エマ・ワトソンも普通にあって草
さすがに海外は訴えられる恐れが身近なのか一切そういうのは上がってないが😂 >>591
やっぱwebuiアプデするとPNG INFOとモデルハッシュ変わってるよなあ
override付けてても外しても再現できんわ >>605
拡縮した画像で学習すると細部の表現力が向上するみたいな話がTwitterであってkohyaニキも言及しとったな >>605
生首学習法とか言うマイナーキャラ推しの最後の希望
DreamArtistとは何だったのか 児童ポルノ・著名人ディープフェイク・著作権
地雷原がポコポコ埋まってる現状でAI絵くんが地上波を最初に騒がせるのはどれになるかのチキンレース
根拠はないけど騒がれてから規制までの速度は早そう >>658
lora_train_popup.py(2023/2/12版)を中身を見てみたけど
bucket_no_upscaleを設定する欄が見当たらなかった(最新版にも無さそう?)
コマンドライン版しか使えないかもしれない
bucket_no_upscaleオプションを使えない場合は小さい解像度の画像は引き延ばされちゃうから
お絵描きソフトとかでキャンパスサイズを学習時の解像度と同じサイズにしなければならなくなる >>647
ワイの場合はkohya-sd-scripts-webuiと干渉してたから消したら治ったで
他のextension消して見るとええ 最近 A4000 拾いにくいと思って見てみたら Pro アカウントで使える GPU 全部埋まってて草
時間帯のせいかもしれないけど
https://i.imgur.com/t4z8VQB.png controllNet更新多いね
・preprocessor から openpose_hand 削除
現状 hand 用 の controlnet モデルが無いので機能してないから
hand 用や face 用のモデルができたら復活するはず
・preprocessor に depth_leres 追加
・detectiveMao の保存機能追加
設定でAllow detectmap auto saving チェック(apply忘れずに)でデフォルト sd-webui-controlnet\detected_maps\<preprossesor名> に保存
今は preprocessor が none の場合は none ってフォルダに保存されちゃう ワイはLoraとt2iで戦うNAIの血を継ぎし者や
これ以上凝ったことはできへんわ >>653
loraはnaiで作るに限る派やで
味変に他のモデルを使ったりできるし配布に向くしオススメや
まあこのモデルでこの画風を完コピしてえって勢は指定モデルで学習やろうし使い分けやな 今日一日潰してコントロールネットと格闘するも何の成果も得られずワイ自身の無能っぷりを再認識させられて嫌になるで >>522
わかった!!違うかもしれんけどわかったわ!!
インデックスカラーのpngだとこいつうまく認識しねえ!!白黒のもやっとした画像と判断されるみたいや!!
知らんけど! まだ全然試行できてないけどこんな感じで1色のsegに白の境界線足す方法でも割と形認識してくれるかもしれない
https://i.imgur.com/STjyTWV.png
https://i.imgur.com/pViN18v.jpg
AIが苦手な体重ねる構図だから出したい構図は全く出なかったし大半は奇形化したけど
体重ならない構図ならいけるかもしれない >>665
試しにそのextension外したら本当に解決したわ
助かったで! >>678
本当色々考えとるな
面白そうだから棒人間弄りだけじゃないアプローチを
試したくなったわ >>664
うお、マジか
やっと使いこなせてきたが、コマンドライン版の使い方も憶えないと駄目か 極力1シート内にあおり正面俯瞰で1キャラ顔敷き詰めたけど、controlnet使ってると12GBだと多分これぐらいが限界か……
2シートに分けて出そうとしても、同シード使って参考画像変えてもも全く別キャラなるんよねぇ……
https://i.imgur.com/vNaCBZT.png
あと俯瞰の顔目つき悪すぎ草ぁ~ 過去スレに出てるかもしれないけどこの拡張感動したわ
https://github.com/blue-pen5805/sdweb-easy-prompt-selector
プロンプトのGUI化とでも言うのか
例えば「巨乳」というボタンを押せば「large breasts」と入力されるし
「ネコミミ」を押せば「cat ears」が入力されるみたいな拡張
これを自分好みに鍛えていけばExcelからコピペする作業がやっと終われそう >>681
サンガツ
Colabしか知らんかったけどそんなのもあるんやな ft_repeatsって何やねんと思って調べたら文字通りfinetune用の設定か。LoRA DB使っとる人間にはいらんやつ コマンドライン版はpopup版で聞かれること(+さらに細かいこと)を
あらかじめファイルに書いておくだけやで
全然簡単や 覚えるって程のことない >>678
順番が逆だからアレなんやけど
作った画像を変換器に読み込ませると白線や黒線で輪郭とるから有効やと思うで
部位ごとに色塗り分けてパーツ認識するのもそういうことやろし
https://i.imgur.com/leOMRNB.png
↓
https://i.imgur.com/EwHOd87.png >>685
めちゃ便利そうやさっそく導入してみるわ >>685
これで公共の毛問題も解消されるか……w >>672
みんな違ってみんないいモデルだからモデル間で使いまわしたいならヤパーリnaiに限るか
サンガツ >>685
それで良く使う長文まとめといてしまうのもありだな
標準機能のstyle保存みたいなの、なんか使いにくいしな >>669
生成のモデル変えてみて
・改善されるならモデルとの相性が悪い
・改善されないならLoRAのせい
適当でいいから別のLoRA作ってみて
・それも暗いなら何か環境がおかしい
・それは大丈夫ならそれの学習画像がおかしい
みたいに全部やってくしかないと思うわ デバッグや controlnet更新したらUIから消滅して焦った
フォルダどかして再インストールしたら復活して良かったが
もうcontrolnetがないと生きていけない体にされたんや… ブラウザのアドオンで選択した単語や文を翻訳っての入れとくと便利やで
>>685
エエやん >>685
GUI上でカテゴリ追加と編集とTIとかLoRA読み込めたら最高やな >>697
ワイも消えたわ
入れ直しても直らんからアプデ待ちやね…… >>685
ダイナミックプロンプトとかよく使う衣装とかまとめとくのによさそうやな感あるな >>701
canny並の精度が出れば完全体になりそう >>708
質感も学習できるのか、完成度も高E
スク水の質感すきだから俺もチャレンジするか >>708
白い肩紐のスク水最高や
背中側も開き具合も学習出来てる感じか? ハイレゾで生成してる時にpcがジリジリ言う様になってきたわ1日1000枚ペースで生成してるんだけどそろそろグラボやばいかな?RTX308010gbなんやが >>659
なんならStable diffusionの時点でエマワトソン出てたしな… >>704
他の拡張機能もいったん外して再インストールしたからその辺りも関係してるかもしれない
additionalnetworkと干渉するとか見たから >>714
同姓同名の別人というかミュータントだったからな…
あれ訴えたらエマワトソン側が今のエマあれですって言っちゃうようなもので…
つーかアップデートしたら画風変わってしまったやん・゚・(ノД`)・゚・ LoRAでこれから初めてキャラ学習させようと思うんだけど、学習に使う画像は顔や上半身だけ切り抜いたやつのがいいの?
それとも、全身写ってるやつのがいいの? Stylized 3D モデルから学習した LoRA やで
https://civitai.com/models/10679/stylized-3d-model-lora
キャラのシルエットとか色合い、髪なんかを盛ってくれるのでキャラクターデザインとかに使えんかなと思とる
https://majinai.art/i/75ohl6o.png
https://majinai.art/i/ao08JEb.png
https://majinai.art/i/eMm-dFQ.png
おっきなお帽子かぶせるのもすき
https://majinai.art/i/KWLHld4.png
ただハイポリ LoRA と比べると手足の改善効果はなかったので、併用してみてもいいかもしれん
アニメ系の絵柄を保ちたい場合はハイポリ LoRA の強度は 0.1 とか 0.05 くらいでも効果あるみたいや
https://majinai.art/i/0mczsdA.png
他にいい使い方見つけたらぜひ教えてやぁー >>719
ちなみに、この LoRA の学習解像度 512 なんやけど、768 で学習してみたもんは過学習っぽくなって顔とか崩れやすくなってしもうた
https://i.imgur.com/dfcX543.png
ハイポリ LoRA の場合 512->768 にすることで単純にディテールや手足が改善したんで期待してたんやけど、単純に解像度上げたから結果が良くなるってわけでもないんやな
むずかしー ディープフェイクって特定の個人をターゲットにするのはアウトだろうけど
新垣結衣のモデルに有村架純を混ぜて韓国人風にしたりした場合って似て非なる別人だからセーフになるのかな 10年前のノートpcでcolab版起動できたけどたまに起動しなくなるから戻ってコピペするを繰り返してる
あと何故かリアル寄りの画像ばっか出てくる😭なじぇ >>716
はえ~
現状使ってへんからそっち一回消してみるか ハーマイオニー演じてた頃のエマ・ワトソンのエ○画像が見たい…なんて言ったら二重の意味で消されそう なんか最近のリアル系モデルどいつもこいつも若干の二次絵感入っててアレやわ
やっぱ直球勝負だとヤバいから絵感入れなきゃアカンのか >>724
表に出さないだけでやってる人は多いだろう、賢者の石以外は惰性だもんな…
アニメでいったら押井が出てきて原作どこ行った?みたない作風になってるしな LoRAは素材1枚でも学習可能やで🤗
画像+顔アップの2枚を繰り返し20エポック10とかでやってもええ感じやったで
顔の向き変えるの難しくなるけど >>713
グラボがやばい時は映像が乱れるかブルスクなるからファンに5-56指しとけ GPU届いてなんとか交換したけど接続端子別途買わないといけなかった😭 ワイHDD老人、あまりのロードの遅さにSSDを買う事を決意する
2TBで高耐久のやつならどれ買ったらええんや メモリを水冷するのが良いのだろうが、冷却水そのものが温まるためその対策と、
水冷システムのメンテナンスが面倒やろね 3060だけど、一応GPU以外にもhot spotの温度もみれるのね
70℃と安心してたけど、hot spotはしっかり80℃越えてるのな……
https://i.imgur.com/Nb2QhBU.png
fanが片方0になってるのが気になるけど、まぁ実際動いてるから取得情報の問題か 指定枚数生成したらPCシャットダウンさせることとかできる? loraで使う学習用画像のサイズが320×320、512×512、768×768の3種類の場合
--resolution= --max_bucket_reso= --min_bucket_reso=
この3つの設定値は --resolution=768,768 --max_bucket_reso=768 --min_bucket_reso=320であってますか? >>741
それでも動くけど後者2つの設定はバケツの最大サイズと最小サイズだから学習素材をそれに合わせる必要はないで
学習サイズが768なら全部768になるから少ない画像を縮小で水増ししてるってことならbucket_no_upscaleやで >>740
最悪、極限までダウンクロック&ケース蓋全開で粘れたら良いが…… >>741
3種類のサイズの別々の画像を合計で50枚くらい使おうと思ってるのですが、この場合の設定は—resolution=768,768 と—bucket_no_upscale でやれば320×320や512×512の画像はいい感じに処理されるってことです? 最近の美麗イラストモデルにsketch, watercolor追加したりして、線は神絵師塗りは如何にも雑だけど色っぽいエロ絵風の再現目指してるんだけど難しいな
今思い返すとWebNAIの絵が正にそれだったのかもしれん... Loraの1111の拡張じゃなくて標準でUnetとtxtの重み別々に変更できる方法あるんか・・・?
階層Loraと併用したいんや・・・ >>789
違う画像なら最初から学習解像度までアプスケしといたほうがええと思うけど、no upscaleオプションつければ少なくとも学習時に拡大されてボケたりはしなくなる
とりあえずやってみたらええんやないか? LoRAの素材って背景切り取る意味あるんかな?katanukiあるとはいえ完璧ではないし、1枚ずつチェックするのシンドいンゴ…
あと背景そのままにする場合はタグの数も多くなるから、dim上げる必要があるんやろか? >>750
服と同じく背景も学習して引っ張ってくることになるので使い方次第な
枚数多ければ画風って言いきることもできるが… でも学習メモによればテキトーに背景映りまくった上半身の画像だけで、しっかり画像生成できてるから背景切り取りとかも要らんような気するけど 欲しい画風LoRAが都合よく転がってるわけなかった。色々調べてるがそもそもartistの画像データがwebに少なすぎた
これ漫画から一枚ずつトリミングしないとダメなやつか 早く…早く天才達手指が綺麗に出せる技術を開発してくれ… 疑問なんだがこの顔の5つのポイントは何に対応しているんだ?
雰囲気でやってるけど知見か説明しているサイト教えて欲しい
https://i.imgur.com/2SXeMNk.png >>719
majinaiで見かけて気になってたわ
ニキが作ったんか?ええ感じや >>755
姿勢推定AIに使われるやつと同じなら、
外から耳、目、鼻のはず 先頭2つのタグを固定したい場合ってkeep_tokensは2でいいんですか
カンマ区切りの1ワードが1なのか入力ボックスの1/75とかでワード入れた時に増える分いるのか paperspaceのRTX5000を使ってloraしてるんですが、768×768のサイズでcuda memoryエラー出るのでxformersを入れたいんですが、paperspaceでの導入方法ってwikiかどこかに書いてないですか? >>759
tokenって書いてあるんやから後者や
1単語で複数トークン使う言葉も多いから気をつけるんや >>762
マ?ずっとカンマ区切りだと思っとったわ
そしたら例えばsex from behindを先頭に固定したいなら、カンマも合わせて4tokenに設定しなきゃいかんのか… あー、blenderの操作感にイライラする、これ作った奴は他のwindowsアプリ触ったことないんかい? https://note.com/kohya_ss/n/nbf7ce8d80f29
ここの解説の「--keep_tokens=1」で先頭固定というのと
カンマ区切り内の途中まででトークンが固定されるとどうなるのとか
そもそもカンマも含めて数えるのとかいろいろわからなっちゃって >>764
Blenderはしゃーない バージョンちがいもおおいし慣れるしかないで controlnet入れてopenposeやってみたけど一枚絵プロンプトに従った内容でランダムポーズ(pose無視)で二枚目に謎の黒画像(コマンドプロンプトにエラーなし・保存もされない)なんやけど何がいけないんやこれは…
使ってる棒人間はopenpose editerからのsend to controlnetなんやけど… 漫画の影の表現で///って線描くのあるやん?
人のほっぺにもよく書かれるやつ
あれを身体に書きたいんだがいいプロンプトないかな?
drawn by pencilとかやると鉛筆持つだけなんんよ
何か専門用語ないんかな🤔 AGB_extensionと、katanukiってどう違う?
どっちを使えばいいの? >>759
ソース斜め読みした感じ,でsplitして指定数分シャッフルから除外してるから前者やと思うで Blenderに挑戦してるやつもいるの?!
研究熱心すぎるよ... >>769
katanukiでええで
どっちも同じもの使ってる katanukiは透明と白のどちらを選べばええんや?
なんか違いあるんかこれ
どっちでも学習用につかえる? >>774
なんかNGになってると思ったら前スレで暴れてた人やんけ
手抜きしないでwikiを見ろ >>776
別人やと思うけど…
ワッチョイ被りとか珍しくもないやろ 今のBlenderって割りと他の3Dソフトに寄せた操作設定できるはずやけどそれでもあかんのか? 3Dは六角大王から触ってたからいいんだが
blenderは高さがZで奥行きがYとかこれまでの常識が通じなくておっちゃんの頭が混乱するのよ scribbleとcannyは反応してるからこれ棒人間を認識しとらんのか これからそういう数学的な表記の方が主流になっていきそうじゃない?
ゲームのコントローラも縦軸横軸に合わせるためにxyのボタン配置変えたって聞いたぞ なんで棒人間だけ…ってui再起動させたら棒人間もできたわスレ汚しすまん 座標系の違いはしゃーない
Y-UPとZ-UP、左手系と右手系でどれもバラバラや これまでも3Dソフト乗り換えしようとしたけど使いづらさから断念してたんだけど
エロの力は偉大だわ、blenderでノーマルマップ画像出力とかしちゃってる
なおnomaleでも手指ハチャメチャ気味の模様 もう朝やん!
最近StableDiffusion触ってる時間よりblender触ってる時間の方が多い 今更かもしれんが…
civitaiでいい画像見つけたらcivitaiを別タブ化してPNG infoにドラッグ&ドロップしてたんだが
ドラッグで1111のタブまで持っていってタブが開いたらPNG infoにドロップでいけるんやな
今日一番の発見やわ >>576
ttps://seesaawiki.jp/nai_ch/d/%a5%ea%a5%a2%a5%eb%b7%cf%a5%e2%a5%c7%a5%eb%c8%e6%b3%d3%a1%a6%bb%a8%b4%b6
wikiみて好みのリアル系モデル選ぶか、
片っ端からモデルをDLして二次のモデルとも混ぜてお前好みの子が出るモデルを作るんだ
そしていいモデルが出来たら公開するんだぞ いいな? >>788
表示された生成結果の画像を1111からそのままドラッグアンドドロップでimgurにアップできるのも便利やで 構図が横長になると途端に顔が崩壊して塗りもつまらなくなるのは何なんやろな >>720
log出力してtensorboardで見てみるとええで。
lossが落ちきってから再度上がってたら過学習になっとる。 学習させるサイズは512x512が基本ってことは、4Kサイズのめちゃデカい学習画像持ってきても逆効果ってことよね?
できるだけ512x512に収まるように大きい画像はトリミングしたり、小さい画像なら超解像で拡大したりして512x512で学習画像サイズは統一した方がいいんよね? >>605
マイナーキャラLoRA作成時に、どういった絵をどのサイズで何枚くらいとかと、
オススメ設定があれば教えて欲しい。
wikiの赤ちゃんLoRAしか出来てないんで、そこから踏み込んでやってみたいが、
どっから手をつけていいかさっぱり分らん。 >>795
残らん
imgurの仕様だからしゃーない >>794
それは古いやり方
今は縮小やトリミングは勝手にやってもらえるからせいぜい拡大くらい
今のところメモリ的に1024^2画素が現実的な限界だけど衣装や模様のディテールは大きい方が再現されやすい 3年分のオカズの記録全部loraに打ち込んでみたらどうなるんやろ…
と思って試してみとる
確か2キャラとかで学習したらそれぞれの特徴が交じった出力になるんやっけ? katanukiダメだわ…
正確に切り抜いてくれない…
背景とか残りまくるんだが 二人以上を出すときに構図グチャグチャになりやすいんだがdepthやhedではいかんのか?どの部分がどのプロンプトか指定とかできないから困ってる >>804
打率10割とはいかないけど、コントロールは効くようになったかな? このスレの住人レベル高すぎない?
昨日ローカル環境構築してとりあえずmodel切り替えておーエロいエロい…ってなってるレベルのワイからするとサイヤ人の戦い見てるようなもんだわ 割と使いやすい情報が広まったあたりで参戦すればええんよ
ワイは自分で開拓するところまではいけんわ ポーズだけまねして一緒に戦ってるつもりになってる赤ちゃんやで webui1111単体でinpaintの拡大ってできん?
小さすぎてマスク塗りづらいんや
あと101枚以上バッチ生成も無理? 1つのloraで2キャラ学習させるの難しいンゴ…
単体で呼び出すならそこそこの打率あっても2girlsにして並べると混ざる
やっぱ単体の時点でそこそこじゃなく完全に切り分けられてないと無理か >>812
いつもコントロールキーでブラウザごと拡大してインペイントしてる blenderでopenposeしてたけどこれ棒人間できるならseg用のモデル用意したほうが良さそうね? >>814
ちょっと前のスレでコツ語ってくれてた人おってワイはめっちゃ打率あがったんやがそれは読んでる? うむ
棒人間はあくまで画像から起こすとき用だと思ったほうがええな Loraってやっぱり切りにかないとあかんのか?
サ終のソシャゲの画像そのまま突っ込んだら文字とか背景の額も反映されて出力されてるわ
後単なる着せ替えになる… 棒人間の利点は、大まかなポーズの方向性を真似るだけで体格とか具体的なポーズはランダム性高いから、ガチャ要素が楽しめたり表現が柔軟に出来るのはあると思う 去年の12月くらいからスレ自体は追ってたけどようやく環境整えてloraの起動までは出来るようになった
でもここからが地獄の一丁目みたいなもんやな…
学習とか以前にPCそのものの知識が全く足りてないのを痛感するで ベジータどころかヤムチャやねんけど。
ところでwebuiのダークモードってアドレスにstyle云々しかだめ?
settingとかで出来へんの? >>817
>>271ニキのは参考にしとるが素材が背景わちゃわちゃで自動タグ付けやったからそれが原因かもしれんな 顔だけ学習で後ろ髪が特徴ある形状の場合首を消して髪を描き足さなきゃだめかな
肩あたりを書き足すべきかな? loraのピーキーな適用してるとcontrol netは棒人間以外のやつ使えなくなるな
loraが剥がれてもとのモデルが出て来ちゃう >>820
立ち絵一枚突っ込んだだけやとコピー機にしかならんで
そこで
>>605
生首ニキの方法や >>827
37枚突っ込んだけどあかんのか
切り抜くの大変そうやな…
AIが勝手に切り抜いてくれればええのに🙄 >>828
過学習なだけの可能性もあるで
ほぼ未加工でやってるけど色々出せてるわ >>828
ありゃそんなに枚数あったら逆に何もせんでええはずよ
taggerのタグ付けそのままでもわりといける
面倒ならあんまりごちゃごちゃした素材はもう外す 生首法、切り抜きどんな感じで(ツールで?)やっとんのかな
ワイ通常ケースでの背景抜き後修正でもひぃひぃ言っとるから最低1枚でいいんだろうとは言え気になるで…… >>831
gimpあたりでええと思うけどね
一枚だけがんばって切り抜けばあとは拡大縮小回転のバリエーションだからすぐ慣れるよ
さらに愛があれば、目閉じ口開けあたりパーツを他の似た絵からコピペして水増しすると汎用性上がる気がする気持ち ワイも動画作っとるけど、棒人間ええな
これまで不可能やったシーンが一発で作れた
ちなt2iで200枚ちょっとを1バッチで出力
要らんコマを捨てて動画編集や
https://i.imgur.com/Ucp9Ps3.png
https://i.imgur.com/3efR3ag.mp4 seg法でもなんか顔の向きとかは怪しいなあ
横向き指定しても思いっきり前向いてくる
まあ腕と脚をある程度指定できるだけでも御の字か >>834
横顔とか斜め顔はAI苦手よな
lora作ってるアニキおらんやろか とりあえずワイは黒髪が好きなんやなって事だけは分かった
出力はそんな好みやないなあこういうモンなんかな キャラ学習なんやが後ろ姿の画像ってちゃんと入れたほうがええんかな?
from behindとか後ろ姿がメインのとき服が前向きの背中とかでるんや その生首法ってのはどういうのなんや?
wikiにもないし、元レスのスレ番とかわからんかな >>838
ぶっちゃけ正解はない
もちろん素材はあるに越したことはないけど、後姿の画像のキャプションちゃんと区分けしないと指定してないのに背中が出てきたりするで ここ数週間、寝る前に学習素材用意して学習ぶん回して
職場からリモートで画像を延々と生成するループから抜けられない 3DKX V2 出てるんか…今日リーク NAI の全 checkpoint の違いを調べ始めようとしてたワイの時代遅れ感 >>839
顔面だけ覚えさせたい時に、そのキャラの生首だけ切り取って学習させる方法や 生首をどう生成するか、どういうメリットがあるか、ってことやと思うけど
生成方法はなんか>>477 >>487でええんかな? あー、なるほど
首と髪だけでいいのか
そんで、その画像を左右反転・大小サイズで水増しして学習させると
わかりやすい方法だわ >>545ニキのpmxをBlenderに読み込むのは問題ないんやけど
fbx変換してもblendファイルをそのまま読んでもUnityだと
こんな腕になってまう
https://i.imgur.com/XAorCsK.png
誰か何が問題かわかる人おる?
クリスタもBlenderもポージングは好きじゃないのよなあ 生首切り抜きはツールと根性
メリットは顔以外のあらゆる不要な学習がなくなる
デメリットは顔しか無いから全体のバランスはガチャ
ロングヘアーだと体の下の部分は白い服だと判断されること >>829
マジかー
なんか元絵の模写みたいなのばっかり出てくるわ
>>830
マジで?
でもほぼ100%カードネームと額が入ってくるわ
後背景も
つまりこれは過学習ってことなんか >>846
その方法だけでもlora使用時に強度調整したら、意外と正面顔とかちょっと真横寄りの「それっぽい顔」も出てくれたりするでー 生首学習法未だに信用してない
素材5枚位でやった方が精神的にも楽 >>832
サンガツ、やっぱそうなるかあ。今度ネタ少ない推しでやってみるわ
>>833
ほえー ええやん 後背位の構図出したいんだけど、同じ後背位でもいろんな視点から見たのあるやん?
ポーズをCNで決めて視点をプロンプトで指定しても上手いことでないんや
具体的には後ろに腕引っ張られてる後背位を前から見たやつがほしいんや
後背位に自信ニキおったらワイにテクを教えてくれ >>851
そもそも素材が複数あったら、しなくて良いに越したことないしな controlnetの入力をバッチで回せば捗るんやけどやり方がわからん
>>604は人力で生成したけどしんどかった loraのファインチューン法ってのを調べてるんだけど
どこかに解説ある?やり方がよくわからない >>851
ワイは実際ある程度満足できてるけど
万能とは誰も言ってない気はするで
もともとは「世の中に公式絵が一枚しか存在しないファンアートもない」という限定的な状況での苦肉の策や その辺の説明がWikiに記事としてあるとええんやろな
全身絵がそれなりにある場合も何かしら生首法のほうが
メリットあるんかな と最初ワイも思ったし >>857
これワイも知りたい
今1000枚超自力でやってるけど空いてる時間使って10日弱掛かりそう 最初は20枚~50枚で1枚5エポックで様子を見るのが俺の過学習回避法
大量に長い時間かけて失敗するより少ないのから始めた方が無駄が少ないはず 学習用に画像を自動でカットしたりしてくれる便利なツールらしいけどエラーでつかえない だれか使ってみて
Stable Diffusion WebUI Smart Pre-Processing Extension
https://github.com/d8ahazard/sd_smartprocess LoRA初めて回してみた
1e-4で100epochは過学習になって元絵が出てきてもうた
20でもう学習できてる感じになってたわ
epoch少なくてええんやなこれ っていうかコイカツとかUnityとかの3Dモデル画像からi2iするのと
ControlNetのsegment用モデル使うのとどっちが精度高いのかも
ちゃんと見ていかないといかんな
動画ニキとか出てきているわけやから、とりあえず同一ポーズ出る確率は
やっぱi2iよりControlNetのほうがかなり高いってことでいいんだよな ChatGPTが「女性の膣は男性の性的刺激によって快感を与えるために存在している」とか危険なこと言い出して草
https://i.imgur.com/tROsYZJ.png >>726
インスタに載ってるような加工処理した画像じゃなくてこういう加工前の画像生成するには加工してない画像の追加学習だけでええんやろか >>866
コイカツi2iは元画像に引っ張られすぎてゴチャって微妙だった
コイカツベースにcontrolnetっていうのがむしろありかもしれんな >>869
情報量をスッキリさせるためにやはり有効か
んでキャラ自体の安定はLoRAでとると >>678
コレは逆に絶望してしまったなあ
どう手をつくそうと女に覆いかぶさった男の背中を描写することはできないんや……
畜生……完全に逃げられなくなってしがみつくしかない女の子の姿を俺は見たいのに…… epoch数書いても、1epoch何枚しょりするかでまた変わる気がする さわった感じcontrolnetでt2iするよりcontrolnetでi2iする方が一貫性は保ちそうだった
t2iのが生成早いけど そういえばControlNetでi2iってのもあったな 前々からepochじゃなくてステップ数書けとは言われている >>871
丸呑みで上半身消し飛ばすことはできたんやから
loraなら種付けプレスおっさんのケツはできるんちゃうかな
顔と手足に繋がりなくなるから奇形率は半端ないと思うけど ワイは公式1枚絵でLoRA作るなら蒸留を勧めるで
これで現場猫LoRAつくった ・コイカツやVRoidでキャラモデルを作る
→学習用画像をシコシコ作って選別
→LoRA作成
・キャラモデルにポーズとらせてi2i画像作る
→同じポーズをSegmentation用モデルにさせてポーズ画像作る
→ControlNet+i2i+LoRAで出力
今のところ3Dベースならこれが一番固い? >>876
種付けLoraはあったはずやで、確かかなり初期 >>833
すごい! スカートのなびきはどうやって作ったんや 種付けプレスloraは色んな構図ごった煮にしてるのか構図が安定しないんやけど
controlnetで指定したら安定するかもしれんな controlnetでt2iだとloraでキャラ固定しても服装にばらつき出たわ
これは雷電に腰振りさせた奴
https://imgur.io/OBvppFp ローカルを入れようと思ったんだけどこれがいつも出てきてダウンロードできない。これの解決方法おしえてくれ
File "<string>", line 1, in <module> AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check >>755
この顔の点の配置で顔立ち変えられるってやってた人いた
上に離すと大人っぽくなる epochを誤解してるやつ多いね
掛け算の掛ける部分でしかないあくまで何回繰り返すの指令であって最終的に見るのはステップ数や どこで止めても服装が破綻してなくてバリエーションがあるのがシンプルに凄い
人間にこの数秒の動画を発注したら発狂してしまうな segってPreprocessor:noneにして写真とか絵を突っ込んでも普通に反応するやん
色分けとかいらんかったんや
それともワイのcontrolnetがおかしいだけ?前は違った気がする 一般的なアニメキャラなら5000エポック以内、1e-4 txtlr5e-5でdim64 alpha32がワイの中で最適解や
もちろんうまくいかないキャラ(学習素材)もあるが >>891
唐突なcarはさておき凄いな
絵コンテから一発で漫画かけるやん
絵の練習なんか要らんかったんや
Buildingをキャラ等の画風に合わせたAIの苦労も見える >>879
初期の完全密着ではない種付けloraは多分これやな
concept_matingpress_v2ってやつ
https://i.imgur.com/UqFDIsn.png
https://huggingface.co/yuu314/Lora/tree/main
上の画像生成した時のプロンプトみた感じmating pressがトリガーやね
ElizabethPersona,(mating press:1.0), from behind, hetero, vaginal, testicles, 1boy, 1girl,face focus, >>888
繰り返し10エポック5
と
繰り返し5エポック10の結果は一緒ってこと? ものすっごい今更やけどWikiにあるsegmentationの解説は
背景と人間を描き分けるみたいな奴なんやな
キャラのポーズ指定のsegmentationってどこかに解説あるやろか >>894
裸でもloraで顔固定しないと髪が微妙に変わっていきそう
多分1枚t2iで基本画像として出力して、それを元にcontrolnetでi2iしていけば安定すると思う >>898
segは基本的に領域を指定するモノだから、ポーズに合った人型に塗るくらいしかできんで。
>>701 みたいに輪郭線描くと精度が上がるくらいやと思う >>903
そうだったんか
となると>>545ニキの3D塗りわけモデルとかTwitterで見かける
3D塗りわけモデルベースにした動画とかは何なんや? Paperspace に Hugging Face から aria2 で落とす時に最初の 4 つか 5 つ程度のファイルは爆速で落とせるのにそれ以降はかなりゆっくりになるのなんとかならないかな
ファイル数が多くなると --max-connection-per-server=1 が安定した速度が出るから結局のところ一番早いのよね
http://aria2.github.io/manual/en/html/aria2c.html 切り抜くの面倒だから透明な背景って入れたら出てこないか試したがガラス張りの部屋になったわ 多重アクセス原因でそのIPが規制食らってるんじゃない?
元々huggingfaceくらい速いとこだとrecv側が先にボトルネックになってaria2の恩恵があんまり無くて帯域規制リスクが増すだけな気が 破瓜させようとしたら血まみれになるのpromptで防げないの?
ネガティブにblood stain, Incisionをいれても
服に血が滲みまくるし太ももに切創がつく・・・ >>905
segの人体は特定の色の指定がなくて他の背景やオブジェクトの色と被ってなければそれでいい
ハッキリ違う色で分ければいいだけなのでパーツ毎の形状ハッキリしてれば>>545みたいに色分けでポーズ指示したり
>>701みたいに輪郭線でパーツ区別させたりできる
wikiの複数人混ざらず出す理屈も同じこと
>ADE20Kで人に使える色をrgbで教えてください
ADE20Kデータセットでは、人は「物体」のクラスに属します1。ADE20Kデータセットには、計150種類のクラスがありますが、人はそのうちの1種類です。ADE20Kデータセットでトレーニングされたdeeplabv3+モデルを使用すると、人を含む150種類のオブジェクトでセグメンテーションを実行できます。
人に使える色はRGBで表現できますが、固定された色はありません。一般的には、人と背景とのコントラストを高めるために、背景と異なる色を選ぶことが望ましいです。RGB値を変換するツールもあります こう言うふうに全モデルで出力して並べて出す感じのやつってExtentionか何か?XYZプロットの総当たり出力みたいに、各モデルで出力して1枚にしたのを見比べたい。知ってるニキいたら教えてクレメンス
https://i.imgur.com/bWL3byN.jpg >>812
> あと101枚以上バッチ生成も無理?
数値を直接入力すればいけるで >>899
すげーな
リアル系より精度低いやんけ
これが写真ならAIはとっくに写真を追い抜いてるってことやな >>911
X Check Point Y Seedじゃないの? >>905
それはワイもよう分かっとらん。
以下は何となくの仮説や。
本来は領域の色に意味があってその色に基づいたオブジェクトが(ADE20Kという規則に従って)学習されとる。
なので人に対応する色はある決まった一色のみのはず。
でも、学習の過程で結局、オブジェクトとの対応に加えて「色が違うところでパーツが分かれる」ということも学習される。
やから、体のパーツごとに違う色を塗ってそれを食わせると、例え人と対応してない色だったとしても、
明らかに人形を分割させとるから、AIも「おっこれは人で、パーツがこう分かれとるんやな」と判断して描いてくれる。
こういうことちゃうかな(間違ってたらすまん)。
>>910
segのモデル学習では決まった色分けコードに沿って学習されてるのはほぼ確実やで。 >>908
やっぱそうかなー
もうちょっとオプションの組み合わせ試してみるわありがとう >>880
まず、これが1枚目のpromptやね
https://majinai.art/ja/i/umY8gTe
この、(white simple:1.1)で始まる行に色々とギミックを仕込んどく。で、行末の"0.401"がギミック全体の係数で、効き具合を調整しとるわけやね
この"0.401"をprompt S/Rで細かく調整しながら画像をバッチで出力するんや
設定はこんな感じ
https://i.imgur.com/D99nJqr.png
この設定だと220枚ほど画像ができるから、破綻してたり冗長なコマを削る。後はファイル連番つけて動画にして終了
ただ、Seed選びはけっこう大変や。ワイはサイズ512x512、係数5ステップぐらいで大量にスクリーニングしとる
棒人間使うとキャラのポーズが安定するんで成功率が格段に上がったわ >>915
これか!探し求めてたやつや!
初歩的なのに教えてくれてサンガツ顔射するで! >>916
まずその色分けで必ず優先されて適応されるのが数えられない背景やコンセプト系オブジェクトという前提があるんや
カウントできるオブジェクトの色に関しては色じゃなくて形状から認識してその数に合わせて振り分けられる
色が違っても人型やからこれは人なんやね~とか以前にどこにも属さないグループの色の時点でまず人や車に振り分けられてそこから形状やプロンプトに合わせた生成をする
>ピクセルごとにクラスと物体番号(id)を推定するタスクです。数えられるクラス(車や人)をThing、数えられないクラス(空や道路)をStuffと呼びます。色分けは、Stuffのクラスには固定の色を割り当て、Thingの物体番号にはランダムな色を割り当てる方法が一般的です。例えば、空は青色、道路は灰色で塗りつぶされますが、車や人はそれぞれ異なる色で区別されます。 paperで🤗から落とすときはwgetでええと思うで
今連続でモデルファイル落としてるけど安定して50MB/s以上出てる >>914
近年の加工写真はもうこれ絵じゃんなんて言われてたけど
AIでいいじゃんになったな 某所では他人に対する感謝の表現として勢いよく射精するという、一見奇妙な風習が知られています。その際、感謝の気持ちの大きさが発射される精液の量に比例すると言われています。 結局「右手と左手を違う色にしたから後ろ向きもちゃんと認識するやろ!」
みたいなことはないんやね >>912
generate押した途端に100に戻らん? >>928
ControlNet全般に言えることやけどもともとのモデルデータに少ないものを正確に引き出すのは難しいねん
正面からの絵と後ろからの絵どっちが学習データに多い?って話になると当然前者で
後ろ向きのポーズを正確に表現できる二次元的なシルエットが描けないと少数派を引き出すことができないんや segのmapをもとに既存モデルで生成するのってどういう処理になってるんやろ
プロンプトとは別よなこれ 生首法ってなんで画像サイズ色々用意するん?
理屈教えてくれんか 色分けやらポージングやら手間がすごいからコイカツのスタジオモードにGenerateが付いたようなのが出るまでガチャ楽しむわ >>924
ありがとう
やっぱそんなもんだよね
マージ検証用にいっぱい落とすから 250 MB/s くらい欲しくてさ
最初によく使うのだけ落としてあとは作業中に追加で落とすことにするよ AI画像生成を行うことにおいて必要なこと、それは『ぜんぜんわからないけど雰囲気』だ >>918
参考になるわサンガツ
枚数いるだけに地獄のようなX/Yやな…… supermergerのおかげでpaperspaceでのマージも楽になったもんや
その昔はうっかり永続ストレージの制限超えたまま放置しないように気を使ったものじゃよ 動画化は自撮りをi2iのControlNetで制御した方が遥かに楽だった
棒人間で動画なんて作りたくない >>897
せや
2x1000と1000x2は結果が同じ >>857
実行オプションに--apiつけるとapi機能が使えるようになるで
たしかurlの末尾に/docsいれるとapiの使い方みれる >>732
モデルのロードとかマージの書き込みはシーケンシャルアクセスだから
HDDでもほぼSATAの上限の速度出てると思う
だからSSDでもSATA接続だとあまり改善せんと思う
NVME接続ができるならNVMEが必須
とりあえずcrucialが安パイ
以前ファームウェアにバグ仕込んだことがあるけどそれが気にならなければ autorig使わんとしんどいやろなblenderは >>923
それはタスクがInstance segmentationの場合やろ?
まずそもそも、もともとのADE20Kのデータセット自体には色分けの対応は含まれて無くて、
このデータセットを使ったタスクとしてScene parsingとInstance segmentationの2種類がある。原論文のSection 3参照やな。
https://arxiv.org/pdf/1608.05442.pdf
で150色のやつは、Scene parsingの中から150選んで、色を対応付けたSceneParsing150というやつや。
https://github.com/CSAILVision/semantic-segmentation-pytorch
そこでは150色は固定や(上のサンプルで、instanceで分かれるはずの車が色分けされとらんしな)。
で、おそらくControlNetのモデル学習では、このSceneParsing150を学習させとると思っとる。
ただほんとにControlNetの学習データを見たわけやないし、はっきりした記述も論文にないから、
もしかしたらSceneParsing150じゃない(ニキの言うようにinstanceとsceneを同時に適応した)別の色分けでやっとる可能性もある。
ただ、ControlNetの論文でのsegmentation mapの色分けを見ても、複数人いる人は赤一色になっとるから、scene parsingのやつで学習しとるとは思うんやけどなあ……。 >>855
AIってパースを理解できてないよな
普通に正面向いて座った絵になりがち >>841
理想の作業方法やわ
リモートツール何使ってるん? >>940
そうなんか?正則画像の処理が入る回数が変わらん?
まぁ正則とか雰囲気しかわかってないし透明でやってれば事実上そんなに変わらんだろうけど クリスタの3D人形いじってそのまま生成実行できるようになればなぁ >>949
今じゃブラウザで3Dモデル見るってそこまで珍しくないし
時間の問題という気がするな パーツごとに色の違うマネキンがWEBui上で出せたらマジで敵なしでは? paperspaceで生成した画像をzipして落とすとクソ遅くない?
ワイの回線が細いとかいう話じゃなく他からのDLより圧倒的に遅い iphoneの複眼レンズのカメラなら深度情報とれるはずだから
色分けフィギュア撮影でsegとdepthを両撮りできるはず だれかがアプリ作るやろ 男同士でからんでいるのをiPhoneで自撮りしてdepth取るのか・・・ >>933
あれは素材画像が1枚しかない時に学習用画像を水増しするテクニックでしょ ってかsegmentationにパーツをきっちり塗りわける程度の意味しかないなら
3Dモデルからdepthマップ画像生成して食わせるほうがええんかな? >>959
なんでそれが水増しとして有効なんや? ってことでは wikiの説明にBB先輩あるし淫夢から構図素材が量産できる可能性あるやん >>962
可能性っていうかLoraこそ配布されてないけど、
明らかに野獣先輩の作って画像貼ってるやつおるし可能やろ 淫夢ニキは一番学習熟知してると思ってる
lora来る前から高品質な淫夢画像作ってるし >>959
サイズ変えないと同じ画像として無視されるんか? kohyaのブログの通りやったんやけどエラー出たから
わかる人教えてくださいやで頼む
https://i.imgur.com/x5ZT3jf.jpg >>952
透過画像指定してたが近年はモデル間で使い回す感じなら、正則化使用しない結論に至ったんか? wsl2のが早いみたいな書き込みみて、環境作ってみた。
生成は気持ち早くなったけど、モデル切り替えが遅くなった気がしてうーん。。 >>947
画像生成以外に泥エミュでマクロ回すくらいにしか使ってないから
普通にChromeのリモートデスクトップやで >>847
具体的な修正法やなくてスマンのやけど
blenderでfbxをエクスポートする際の問題や
過去に同じ問題が頻発してblender有償addonのbetter fbxを使って解消するようにした
https://i.imgur.com/0n8qXpo.png
これ使わんでもエクスポートの際にどこかいじったらなんとかなるんかもしれん 生首法で大小のパターン作るのはスタンプ化避けるためやろ?
1つのパターンだけやと学習画像をペタッ!して終わりやけど
大小を与えられると拡大縮小を可変するためのネットワークの構築が始まる
回転や位置を変えるのもこの可変幅を広げさせる話の一貫やな
ここまでできればアングルと表情はいじれんけどもそれっぽく顔を自由に配置することはできるようになる訳や 縮小しただけの画像で学習画像を水増しすると細部の表現力が向上したという話はあるな 理屈はわからない >>945
SceneParsing150の定義そのまんまやとやと複数人塗分けやパーツごと塗分けで明らかに150色ルールで破綻がもっと目立つと思うんよなぁ
最終的にAIが補正かけて人が出てくるのは同じとしても
「全てのオブジェクトは人も含めて色が固定で違う色は処理されないんやけど~」がスタートというのは今までのt2iや他のCNの機能に対してAIの判断が高度過ぎるというか人の願望読み取れ過ぎというか
もっと弾くべき要素が逆に曖昧になるから変なものが混ざってもおかしくないと思うんよな
「規定に無い色はまずカウント可能オブジェクトと判断するから背景系の適用を外すやで、そこからモデルデータに多い対象として~」のほうがしっくり来るんやが
処理の順番の問題であって出るもの出てればどうでもええ話ではあるんやけど >>976
>>977
理論はともかく経験則としてはバリエーション増やしたほうが色んな構図、体位に適応しやすいとは思う
90度横向きや逆さまもあるとどうなるかは試してみたい >>928
そもそもモデルがどっちが右腕とか理解してなさそう
>>929
予めui-config.jsonを書き換えて上限上げとかなあかんよ 結局色分け・パーツ指定に明確なルールがあるわけじゃないなら
手元のモデルを自力で色分けしてみるか そう言えば上下逆さまの顔が変になること多かったけど逆さの学習データが少ないからなのか 生首メソッドは拡大縮小はともかく配置箇所色々弄るの大事だと思った
場所固定だと同じ部分に同じ顔が無理やり出てくるホラーLoRAが生まれたわ >>966
詳しくは知らん
先人が試行錯誤して編み出した一つの答えや >>978
>「全てのオブジェクトは人も含めて色が固定で違う色は処理されないんやけど~」がスタートというのは今までのt2iや他のCNの機能に対してAIの判断が高度過ぎるというか人の願望読み取れ過ぎというか
これは同意やな。学習データに無い色であっても、輪郭線を読み取ってそれ通りに描いてくれるのはあるから、ある意味cannyみたいな方向の学習も含んどる気がする。
ただ「150色にないからカウント系のものとして処理する」っていう高度な判断をしとるかは微妙や。
あくまで学習で渡してるのは(たぶん)単に、元画像とその色分けデータとの組やからな。
やから、今のsegだと形状と色とがある意味どっちも合わさって出力されとるんやないかな。 4070は16GBモデルも出るって話が流れてきているなあ
本当なら価格次第で3060の1つ上のモデルとして選ばれるようになるかもな 10~11万円くらい? >>987
後は単純にモデルデータの中身の多寡の問題かなぁとは思う
結局一番学習しててそのシルエットに適したものが人型ばっかりっていう
これがrobodiffusionとかの人じゃないもの重視したモデルだとまた話が変わってくるんやないかな
あとseg使うとプロンプトめっちゃ省けるけど当然プロンプトも処理されるから
TwitterでsegつかってLoRAのぼっちちゃん踊らせたやつなんかはぼっちちゃん引っ張り出すモデルデータとプロンプトが入ってるんだからもうそれ出すしかないみたいな? >>988
gigabyteのそのやつ、3080 12GBが載ってるからなぁ
本当ならイチオシになりそうだが、出る迄判らんね
期待せずに待ってた方がよさそう 1111更新したらlora層別適用のメニューが消えてしまったんやがおま環? 誰もかつて見たことがない革命的な質問が投下されるだろう このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 5時間 36分 4秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。