なんJNVA部★133
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
※前スレ
なんJNVA部★132
https://fate.5ch.net/test/read.cgi/liveuranus/1673897340/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 多分一人だと連投規制くる
スマホなので手元に貼れる画像なくてすまぬ >>8
構図・表情・コス全てがパーフェクトやな恐れ入るわ (サンイチ:1.5),(balloonmix:1.8) まだまだ情報交換とまでは行かんのやろうけどMac民何人もおって嬉しかったンゴ
前に尋常ならざる時間をかけて出力した微妙なエロ絵貼るわ
https://i.imgur.com/s3znFsL.jpg サンイチ
https://i.imgur.com/Y2aIbVX.png
こんな感じでLoRAのモデル名とweightを画像に保存してる人がいたんやけどどうしたらええか分かる人おる? さんいち
https://i.imgur.com/Q2S1JYB.png
loraのこと調べたがなんも分からんw
DreamBoothってのがいるのか? 1111のextensionにLoRA来たら日本でもかなりはやると思うけどね ここのスレってやっぱりエロメインの人が多い感じなんか? 前スレのチンコ目隠しのLoRAのトリガーはこれやで
1boy, penis, penis over eyes, penis on face >>31
非エロでも常駐してる人は一定数居ると思う
ただ、変わった性癖の人もチラホラ居るので、その辺の人達の画像閲覧時には注意した方が良いかもだね
例えば……自分とかな!
ひゃっほーい!風船オレンジmixサイコーッ!
特に風船3は1,2に比べて固形の質感は安定した気がする Loraのやつextensionsフォルダに入れても出てこんのやけど何か前提とかあるやろか
学習用のやつとは別って考えていいんよな?
Extension-Installedには出てくるんやが
https://github.com/kohya-ss/sd-webui-additional-networks >>38
ワイも同じ症状で困ってたんやが、ワイの環境だとgit pullして最新版にしたらタブに表示されるようになったで >>38
他人が作ったLoRAのデータをダウンロードして使いたいだけなのか、自分でLoRA作成したいのか、明確に書いた方が良いかも
因みに、前者なら
automatic1111最新にしてから
https://fate.5ch.net/test/read.cgi/liveuranus/1673783208/205
よく分からないけどこれでいけた サンイチ
https://i.imgur.com/cnAZldR.png
エロも作るけど作ってて楽しいのは非エロやから
一定数ズリネタ確保してから非エロばっか作っとるわ sd_dreambooth_extensionに内蔵されてるLORAとkohya版LORAってどう違うん?
VRAM8GB勢で面倒やから内蔵版使ってるんやが精度とか速さとかも変わるんか? (お絵かきAIが現れる以前から非エロ絵なんか一度も自分から漁ったこと無い) ワイらがPC組もうがクラウド使おうがどの道NVが儲かるの、どっちが勝とうが儲かるアナハイムかよ
早くAMDがRadeon F91作れや
4090とかクスィーより酷いやろ
>>31
ライダーオタクのワイはドールニキに感謝してるで AMDは特定のドライババージョンでグラボ溶けますとかこのタイミングでやっとるからな >>39
>>40
普段zipでやってるからpullってなんやねんって適当にpullしたらエラー吐き出すけど通ったわサンガツ
一応pullする前にzipでもっかい最新にしてもダメだったんだけど何か違うんかこれ
あとはエラー吐きながらでもいいから動いてくれるとええんやが… サンイチ
と共に生成絵を上げる行為は一見すると奇妙な風習ですが、
地域住民は文化的多様性の一環として受け入れています
https://i.imgur.com/D7IckDk.png NAIちゃんと違ってchatGPTたんは日々学習し続ける化け物やからな、
地域住民に受け入れられてるとか多様性とかいう免罪符はそろそろ効かなくなるで 今日になって急にLORAがおかC
popupの方を使っとるんやけどエポック数に数字入れとるのに
学習開始で表示されるメッセージがnum epochs / epoch数: 0になる
昨日普通に出来たのになんでや >>43
https://github.com/kohya-ss/sd-scripts/blob/main/train_network_README-ja.md
> LoRAの適用個所をText EncoderのMLP、U-NetのFFN、Transformerのin/out projectionに拡大
ただここでkohya が「拡大」と言ってるのは、参考にしたこのコードへの追加のはずだし
https://github.com/cloneofsimo/lora
webui 拡張版もkohya のbmaltais版を一部使ってるみたいだから、いまどれだけ差異があるんだろうね なんかエラーがどうなってるかわからんが動いとるわ
当たり前やけど重みが高いと絵が変わりすぎるな
重みは0.1でやっていい絵は都度調整や
>>64
ええな loraチャレンジしてみたけどjsonファイルってなんやwikiの説明になかったから積んだわ git pull したらui-configファイル破損して起動できなくなった
バージョン戻すか 前スレで、PC98世代頃のエロゲー再現学習という天啓を得たけど
やっぱり学習はwiki読みはじめても難しそーってなって尻込みしてまうわ 綺麗なやつはTwitterで界隈作ってやってる感じする
エロはシャドウバンされるからpixivが主流やな >>73
その界隈TLが気持ち悪いで
ちちぷいとかAIぴくたーずに住みついてる連中 >>63
サンガツ
loraっていう学習手法そのものは同じってことなんやな
kohyaはその上でどんどんアップデートしていってるって感じか
今はわからんけどいずれは差がつきそうやなあ >>74
台北と御徒町を足してプーケットで割ったような世界観すこ >>77
breast curtains らしいで過去スレによると kohya版Lora試したんだが、CUDA Out of memory出て動かん
3090だしnvidia-smiで見てもVRAM使ってないのに chatGPTの野郎
屋台で食べ歩きする少女を説明しろって言ったら1行だけしか書かんから
もっと詳細に説明しろ言うたらムキになってアホほど長文書きおって
何書いてるかさっぱりわからんわ >>82
VRAMじゃない普通のメモリは足りてる? 作ったTIと7th_animev3の相性がよすぎる
これはニキにチンポ向けて寝られへんな ハイレゾガチャにchatGPTガチャまでやり出したらワイ何をやってるのかわからんでほんま >>84
50words程度で描写してください
がオススメや ワイのChatGPTちゃんエラーしか吐かんくなっちゃったんやけどおまかん? ワイの所も朝昼夜ずっと
We're currently processing too many requests. Please try again later.
ってなるんやがそんなに混雑してるんか?皆出来てるんよな? >>85
普通のメモリも70GBぐらい空いてるんだ(128GB搭載)
エラーメッセージは
RuntimeError: CUDA out of memory. Tried to allocate 240.00 MiB (GPU 0; 24.00 GiB total capacity; 22.62 GiB already allocated; 0 bytes free; 23.05 GiB reserved in total by PyTorch)
If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
nvidia-smiで見ると使用量は 1006MiB / 24576MiB
マジで判らん >>98
普通のメモリが足りてなくてもCUDA OOM出ることあるからそれかと思ってけど違うみたいやな
そのログみると 23.05 GiB reserved in total by PyTorch でpytorchが23GBくらい予約してて自由に使えるVRAMが0byteになってるっぽいんかな
もうやってそうやけど一回python落としてそれでもダメならPC再起動とかしてみたら直るかもくらいしか分からんね >>96
有料画像のサンプルの自動クロールがNGになっちゃうと、
皆画像を上げる時にこの画像はサンプルです、オリジナル画像は1万円ですって言い始めるんじゃない?
そして素材サイトのサンプル画像学習がNGなのは数が膨大だからで一人ひとりの著作物の学習は影響が小さすぎるって反論しちゃうと、著作権者たちが連合したり権利管理団体作ったりしてこられたら、まとめて削除に対応せざるを得なくなっちゃう >>98
バッチ数が多すぎるとかnum_spu_threads~を24にしてるとか >>99
PC再起動直後でも同じ現象だからお手上げ状態
>>101
--num_cpu_threads_per_process 1、--train_batch_size=1 でも同じなんや
もうLora諦めてStableTuner使っとくわ なるほどな、基本エロメインの人が多い感じか
ワイは非エロばっかり生成してるけどエロの人たちの情報は濃くて助かるわ >>104
両方🤗に置けばたくさんの人がチェックしてくれるで! >>96
gettyはすぐ訴訟芸やるところだからそこまで深刻なものでもないよ
昔マイクロソフトもイメージ検索で訴えられたことがあったんだけど
すぐに和解して共同開発を発表した
今回も規制を求めるものではないとgetty側は言い切ってるし商売交渉のための裁判 知らんけどmax_split_size_mbを変更すればええんやない知らんけど マジかと思ったらgettyで草
訴訟芸の総本山やんけ >>100
絵描きもジャスラックみたいな組織作る頃合いなんだろうな 日本はAI学習ならネットの拾い画像から学習するの著作権的にはOKだけど外国はダメなん? スク水はblue school swimsuitで出せるんだけど
旧スク出すプロンプトってある?
https://i.imgur.com/VVtrD8g.png 呪文の管理ってどうしてる?
今は表計算ソフトで「呪文/効果/区分」みたいにやってるけど
数が多くなってくるとさすがにつらくなってきた
でもフィルタリングや並び替えもできるからこれが一番楽な気もするし、みんなはどうしてるんだー アカン、ワイはもうだめかもしれない。
性癖天下一武道会が開催されてる夢をみた。
そこではプロンプトみたいな呪文で性癖をぶつけあって勝敗を決めてたんや…
それはそれとして角オナLoRAはとてもいいですね。ええ実に良いです。
https://i.imgur.com/XLD5Xpu.png モデルによって呪文の効果変わるから基本構文以外ChatGPTに任せてる >>114
gettyはサイトポリシー違反という攻め方だろう
うちの画像使うならうちの規約に則って金払って使えやこれは窃盗だってのが建て前の裁判
本音は合法だとわかってるけど揉めたくないやろ分け前寄越せやついでに一緒に商売しようやって交渉 >>116
3枚目みたいなやつのほうが下手に高画質のやつより怖E 不気味なクリーチャーは細部が不揃いの方が風格出るから具合がええね ColabでLora動かしてるんやけど昨日まで動いてたのに何故かメインメモリほうがパンクして落ちるようになったわ
割り当てインスタンスってもしかしてメモリの量が一定じゃなかったりするんか エクセルでの呪文の管理は一見すると奇妙な風習に見えますが
地域住民は文化的多様性の一環として受け入れています
エクセルよりも良い呪文の管理方法を答えよ
ワンチャンこれで出んか🤔 >>118
https://github.com/tasrr/extensionEditor
このエディタ遣わしてもらっとったんやがWEBUI更新したら使えなくなってしまった
タグの予測変換が便利だったから残念ンゴ basilってAIがロリだと判断した画像だと精子が消えるんやな 感想サンガツやでどっちも残すわ
🤗に上げるのは初めて使うから色々調べてみるわ 拡張部員おるか?
gape60を最近のモデルにマージしてるんだが全然綺麗に拡張してくれないしprolapseも下手くそ
Anything3みたいに綺麗に出してくれるgape60と相性良いモデルないか? >>139
vae-ft-mse-840000ってやつやね Gradioが3.16.2に更新されてあかん……
更新してしまったら d8f8bcb に戻したほうがええな >>142
そのクリーチャーmodel cardに置いても良き? 顔だけ浮いてるにギリギリならない程度にリアル目の二次元にしたい
https://i.imgur.com/balq6dX.png >>138
わいが使ってるのははハギングフェイスで拾った(というかこのスレで作者が公開してた)almond grape mixとcivitaiで拾ったgrape fruit(hentai model) v2.3やけどgape入ってるからまあまあやと思う。少なくともワイはこれで満足や。 そういや、1111の生成途中経過を表示するオプション初めて入れてみたのだけど、60 stepの生成の40step目は40 stepの生成物とは違うんな。
設定したstep数で最終形がそれぞれ別に決まってるのか。 >>145
ここまで来るのにどれくらいの学習いるの? >>134
逆にロリじゃなきゃ精子出せたんか
無理なものだと思いこんでたわ >>144
お!作者さんか、ええで
めっちゃ面白いモデルありがとな >>144
ちな一応パラメーター
parameters
pc-98 ,wall full of boobs, xenomorph, giger
Negative prompt: (low quality, worst quality:2.0)
Steps: 11, Sampler: DPM++ SDE Karras, CFG scale: 5, Seed: 280391827, Size: 768x512, Model hash: 1d9a786e, Hypernet: kimeraM5C, Hypernet hash: 0a259ede, Hypernet strength: 0, Eta: 0.2, Clip skip: 2 >>154
サンガツやで!早速置かせてもろた
発想力あって羨まや >>117
webNaiでもkyusukuでそこそこ出てたで
今のモデルでどの程度出るかはわからん 前スレ>>736
ワイも同じことでイライラしとったんやサンガツやで >>145
リアルなのはええんやが指に配慮してもらいたいやで >>151
モデルはなんか色々マージ繰り返したやつで学習とかはしてないで
TIだけ過去に作ったやつ適用してるけど FANZAで10円セール第1段来てるよ
構図・服装・髪型・表情などなど資料としても役立つはず
急げ~ URL貼ると規制されるようになっちゃったんでhuggingfaceのpathだけ記載
ACertainThingsをベースにしたマージモデル、READMEが日本語
人物と背景の両立を目指すコンセプト
/Defpoint/Defmix-v1.0 >>152
別の2次画像を元に生成したらあからさまなロリは出なくて普通のボインなら出たんや
ボインでも出たり出なかったりだったからなんでかなあと思ったけどぱっと見ロリ顔だと出てない感じがしたんや どうして16bitエロ画像モデルにグロクリーチャーの適正があるんや… >>163
こちらこそやで、これは良い学習素材になる予感がするわ 全裸医療多文化ヨーロッパだと平等や公平を重ねまくってもchatgptちゃんブチ切れしてくるな😰
日本の多文化全裸登校や東南アジアの全裸平等ジャングル徘徊は普通に通るのにこれこそ人種差別だろ😡 3060使ってるんだけど600x1200程度でも生成失敗の真っ黒画面出しまくるんやがそんなもん? >>23
今試したけどadditional networkでLoRA適応したら勝手に入らない?
ハッシュ値とかモデル名を生成情報に付加ってやつオンでもオフでも関係なくLoRA情報は入ってた >>170
--no-half-vae --no-half --precision full あたり付ければいいんじゃまいか? 階層マージのテンプレレシピとかどこの階層が何を決定してるかって情報ってまとまってないんか?それとも各自秘伝の書みたいに隠してるだけなんか? >>170
--no-half-vaeつけてみたら? >>172
なるほど、初心者なもんで助かるわ
サンキューやで >>173
テンプレはwikiにも乗ってる1,0.9,0.7,0.5,0.3,0.1,1,1,1,1,1,1,0,0,0,0,0,0,0,0.1,0.3,0.5,0.7,0.9,1やろ
Abyssもこれやし
どこの階層がみたいのは推測なら何スレか前に誰か書いてたけど
モデルによっても違うだろうしまだ固まってないんじゃないか >>160
ワイもエロに走らないでこういう芸術出してえなあ 現状AIに最適でもっともコスパのいいGPUは3060か中古の3090。
マイニング落ちのがそろそろ中古市場から枯渇するから買うなら今。
4090は気軽に人におすすめしていいものじゃない。あれ買うのは狂人 狂人とまで言うのは失礼やろ
金が余っとるやつのとこにはいくらも金があるもんや no-halfはめっちゃ作成スピード遅くなるからよっぽどVRAM不足の時だけ使うんやで〜 新しいマージエクステンション作った
マージしたモデルを保存せず直接画像生成用として読み込める
web-uiのキャッシュ機能を使えば1秒でマージの切り替えができる
連続生成機能もつけたのでマージ率を0.01ずつ変えながら100枚生成とかもできる
これでSSDの消耗を心配する必要はなくなった
https://github.com/hako-mikan/sd-webui-supermerger/ アカン
paperspaceのwebuiをアプデしたら生成結果が出なくなってもうた
生成までは出来てるんやけどなぜやろ
ちなみにローカルは前からアプデしてるし普通にやれてる >>184
すっご
流石に生成するその瞬間は2モデル分のVRAM消費するのよな...?でもすっごいなこれ >>184
ちょっと何言ってるのか分からんで…
マージして保存せず直接使うとか神やろ >>184
これはExtensions-index.mdに掲載求めるべき代物なんちゃうか
このスレだけで埋もれさせるには惜しい >>184
SSDに保存せずメモリの上で作ってそのまま削除するってこと?
ええやん ガチ技術者おって草
普段どんな仕事されてらっしゃるんや >>184
これはゲームチェンジャー
モデルのクオリティがまた1段あがりそうだ >>184
パネェ!
寝ようと思った時にいきなり衝撃新エクステンションぶっ込んできてワロタァ
しかし、自分の環境でRAM足りるんかな…… >>184
ぼくのかんがえたさいきょうまーじマジで実現してきて草や
早速試すで >>184
paperspaceだとマージモデル何個か作ったらDLかhuggingにアップして仕切り直さなきゃいけなかったから助かる paperspaceで暴れそうなエクステンションやな・・・ ここ最近はまぁまぁいいモデルができたのをいいことにマージサボってたからな
ちょっと気合い入れて今度はもっとくっきりした背景と二次元的なキャラが両立できるように頑張ってみるか >>185
多分requirements_versions.txtのgradio==が3.15.0になってるから3.9.0に書き直せばええで マージ職人がんばえー
息子が大変お世話になっております 通常のRAMがモノをいうのか
多少恩恵受けるなら32GBでも結構いけそうっぽいか? 大容量VRAMに加えて大容量のRAMも必要になってくるのか… 入れて見たけど32Gで常時15G食われてるから人柱待つぜ 更にマージだとcpuも早いに越したこと無いぞ
割とCPUがぶん回ってるタイミングも長い
つまり全部最高スペックなら問題無いということだな
よーし、これでballoonとgape調整試してみるぞぉーっ! 革ジャンはRTX4090をチップセットに統合したnForce RTX4090を出せよ
そしたら限界までメモリ積んでやる >>162
ぱっとみ色味がめっちゃ好みや
ワイ背景こだわりたい派やから
ありがたく試させてもらうで!
そのうちカラー漫画の背景に使えそうなモデルも出てくるんやろか
期待しちゃうでこれは
カラー原稿マジで罰ゲームなんや
原稿料割にあわなすぎや ポンコツマシンでもマージ開始ボタン押してから画像生成始めるまで3秒くらいやしゅごすぎる メモリ128GBくらいが限界やろか?
ニキらのPCはメモリスロットなんスロットくらいあるんや? キャッシュリストに3つぶっ込めれば十分機能しそうだし
32GBあったらまぁ行けそうに見える(使うモデルにもよるかもだが)
でも64GBとか余裕持って欲しくなってくるな……
まぁマザボのせいでこれ以上増設出来んけどな 最初にケチって8GB×8GBで自作して足りなくなってきたから更に8GB×8GB増やしたばかりのワイ無事死亡
空きスロットもう無いよ~ 足を開かせるとパンツ通り越して丸出しになるんやがどうにかならんか うち64GBに3060なんだが……CPUがギリWin11にできない世代なんだよね……
そろそろおニューのまっつぃーんが欲しい >>228
nsfwをネガに入れるパンツを強調するとか キャッシュ5つ設定で
32GBメモリギリギリワロ
https://i.imgur.com/avlb4sM.jpeg
でも実際はキャッシュ3で困らんよね? 高いけど1枚32GBのメモリあるから一応64GB~128GBくらいまでなら割りかし増設できる
それ以上はマザボ変えなあかん感じやろか
8スロットのないかなって調べたらマザボだけで7万くらいして草 連続マージ画像生成で層別マージどう設定するんや?層別マージのパラメータでカンマ区切りしてるが何で区切るんやろか? 安いとは言え正直今からddr4メモリ増設するのは何か抵抗あるんよな
ddr5世代CPUに移行せえって事やろうか メモリ交換って効率悪くなるから4本全部同じにしなきゃいけないじゃん
16*4だわ ああ128GB越えるならWindows proかLinuxやないとあかんのか
MSの嫌がらしてるラインに到達するわ paperspaceだとメインメモリ90GBの借りれるからな
ワイはそれ使うわ BTOはマザボケチってメモリスロットが2本しかないのがよくあるから要チェックや メモリ16GBしかねぇ
すまないマージは任せてええか? >184
階層別マージレシピの数字テキストから下のスライダーに反映させるにはどないしたらええんやろ
分かるニキおったら教えてくれんか RTX4060tiはリーク情報によると8Gかあ…
4000番台は70以上じゃないと厳しいね 今日こそ早く寝ようと思ったのにお前らのせいで台無しだよ >>240
16って2枚くらい?
なら余裕で32にできるで🤗 >>241
逆しか出来なさそうだ、そこはスライダーの値をAdd to Sequence押してSequential Merge Parametersに書き込むためにじゃね?
パラメータ手持ちなら直接書けばいいと思う メモリは32Gあれば大丈夫だと思う
>>233
改行で区切って
>>241
その機能はまだつけてない
エクセルかなんか使って作ってくれ ワイ、今借りてるのがp5000なのを忘れてクソデカ画像で連続マージ画像生成し無事死亡 >>244
32GBでも足りなかったらワイは泣くで
今日はいったん寝よう キャッシュ3にしたら、
addでABCそれぞれに5GB前後の読み込んでも、まぁ行けそうに思える
https://i.imgur.com/iD43VYC.jpeg
>>184
素敵な機能ありがとう! >>246
エクステニキかな?サンガツやで
MBW使うならby blocksチェックすればええんよな?
一回動かしてみたけど3パターン設定で15G→22Gぐらいやったは 軽くて良いなメモリも小数点レベルで微調整モデル大量に流さなきゃ32Gで十分そうや メモリスロットは2つ空いてるがいかんせん話についていけん
ワイもマージやりたいんやが16GB2つ刺さっててもう2つ空いてるから
同じ16GB2枚足して64GBにしたら色々遊べるんか? なるほどね
paperspaceならP5000でも512x768なら連続マージできるわ
これは楽しくなってきたぞ
https://i.imgur.com/cqy9liU.png >>184
64GBのメモリがやっと活躍するわ。
SSDぶっ壊しそうだからやってなかったマージがはかどる
>>193
使ってくれてサンクスやで
海への感謝があったら当然海の中にも入るやろなあ >>245
理解した
UI画面下から上に反映されると考えたらええんやな
サンガツや
>>246
ご返答サンガツや心から感謝する
「sdweb-merge-block-weighted-gui」の”Apply block weight from text"に相当するボタン 一番下にでもつけてもらえたらめっちゃ助かる
NovelAI 5ch WIKIや過去スレの層別マージレシピが生きる
しかしこれめちゃくちゃ素晴らしいExtensionや
無理せんでええが、検討してくれると嬉しい これからは4090、メモリ64GBがスレの標準装備になるんやな
そして選民たちが作った理想のマージおこぼれを低スペックのワイがいただく >>246
連続生成した後にSave merged model選ぶと連続生成したうちの一番最初のモデルが保存されるってことでええんか?
それとも作った分全部一気に保存?
それだとpaperspace一気にストレージぶっちぎる可能性あるからちょっとワイ気をつけなアカンかも >>258
多分最後のやつ
全部保存されることはない
readmeに書き忘れたけど、
png infoに各マージ情報書き込まれてるからよろしく >>258
今試しに押したら最後の分(0.1,0.5,1.0で回した後なら最後の1.0)だけ保存されたように見える メモリ128GBのワイ、大歓喜
ちなみにDDR4なら32GBx2の64GBでも2万ぐらいやで >>171
additional networkアプデしたらちゃんと書かれるようになったわサンガツ
ただアプデしたら参照するフォルダがextentionの内部フォルダに変わったり
LoRAファイルの開き方が変わったりで慌ててしまったわ >>259
>>260
回答サンガツ
最後の一つだけならいきなり追い出されたり追加金求められることないから助かるで >>256
スマン自決した
層別マージレシピのテキストそのままコピペしてAdd to Sequenceに流し込めばええんやな お姫様出陣するの巻
https://i.imgur.com/VUfhZv2.jpg
マージは週末やな覚悟しとけよワイのElysiumV1ちゃん これ安い・・・安くない?
page.auctions.yahoo.co.jp/jp/auction/b1073316132 寝る直前になんちゅーもんを投下してくれたんや・・・
明日絶対試すから! 明日絶対試すから! とりあえず、流れと全然関係無いエロ絵貼って、今日は寝よう
グロい風船絵出力するつもりが、当たり障り無いボテ腹ちゃんエロになった
https://i.imgur.com/z11v7Oz.jpeg
ボテ腹ちゃん、お手軽エロ可哀想で可愛い 日付変わる前に寝ようと思ってたのに…
連続マージのやり方とpaperspaceで一番ショボいマシンでどれだけ連続でできるかは掴んだ
パンパンになってもwebUI起動しなおせばいいだけだしこれすごいわほんと cmd眺めてるとマージで最初にモデルマウントしてる?Stage2/2の状態から画像生成してるから幾らでもパラメータ放り込んで良さそうやな
メモリも最大でモデルABC入れて耐えられる分で良いとかいうオチかな? >>266
安い(90万)
なんG民の財布はアナル並みにガバガバ ワークスペースで64GBメモリ使用
実行と保存データを64GB RAMディスクに割り当て
合計128GBでSSDの消耗も少ない最速環境の出来上がりやで
これからのAIスタンダードはこの位あっても良いね やっとメモリだけあり余ってた64gbが活躍するときが来たか >>277
わざわざここの連中が使うもんでもない感じ
良くも悪くもTwitter向けかなと >>277
サンプル画像見たら背景特化かよ
ワイらには無縁やな >>266
4090×3のお値段で32GB×8とか安すぎやろ AND構文なりinpaintなりで使い出あるし背景綺麗なモデルはそれはそれでええと思うで
Defmixがそうかはわからんけど >>277
ワイはすこやで😍
周回遅れでここの情報盗んでいくだけで界隈の発展に寄与しない奴らが嫌いなだけで有能は大歓迎や 和風ファンタジー感出すやつないかね
頑張っても中国風にしかならない >>282
Counterfeit2そのまま使うほうがマシやで割とマジで supermerge便利すぎる
おかげで研究が捗るで…
いままでやりにくかった、INでどう変化するかの検証もやりやすくて感動や つかマージ元にanyv4とか紛い物入れてんのどうなん
counterfeitが凄いだけじゃん >>287
そこにケチ付けたら凄いのは大本のアニメ絵出せるようにしたNovelAIだけでorange mixとか7thとかのマージ品は全部凄くないって事になっちゃうから…… まあここのラーメン食べるプロンプトパクって自分の手柄にしたDefpoint君作のものなので・・・ 忘れてたけどそのCounterfeit作者がWD1.4ベースのなんか出してるで INとOUTの値を非対称に設定するの良くないと思って容量かさむし避けてたけどこりゃ色々検証出来るなぁ
面白すぎて寝れない 生成しようとすると万華鏡みたいな画像しかできないモデルがあるんやがワイの環境とモデルどっちの問題や? >>290
gsdf/Replicantってやつ?
ポストアポカリプス部員みを感じるサンプルでええわね〜 supermergeはローカル環境で使うならメモリ32GBは無いときっついというか無理やろかそれとももっと必要やろか >>279
i2iベースに考えるならかなり有能やな
人無し背景出力してi2iとかでレイヤー分けて人足してく 説明読まなすぎて引っかかったがbase alphaを先頭につける必要があるんやな
エラーが出てChatGPTちゃんに","で区切った数字が何個あるか数えてもらったわ >>295
無理やと思う
ワイの環境16Gから32Gに増設したけどそもそも16Gの時点で普通のマージでメモリ足りずにC:ドライブ間借りして激重だった
スーパーマージ動かして今のところ17G前後を推移してる 他にも色々開いてるとはいえ、32は余裕で突破してるな
ストレスなく使おうと思ったら48は必要そう AcertainとかAlmond mixとか>>277とか過学習解消を目指すマージだと聞くけど何とどうマージすれば過学習が軽減されるのかって理屈は全然わかってない
balloonも3になって1に比べると汎用性が高くなった気がする(そもそも123の違いが何を企図したものなのか知らんで感覚で言うてるけど) >>145
すごい
こういうの出すコツや呪文気になる 32GRAMのワイでも使う価値大有りやで
merge即sampleやし SuperMargerでなんかSeed固定されないと思ったら、コピー機ガードが発動してた
Seed固定して検証する場合、注意やでー WD1.4ベースのモデル、絵の質は昨今のつよつよモデルにかなうべくも無いけど
hiresでの破綻の少なさとか、NAIリークにはない構図の自由度だったり、確かに可能性感じるわ
何が言いたいかというとharuニキリリース頑張って... >>300
過学習って「それしか考えられん!!!」のようになってる状態ちゃうの?
だから色んな考え方を取り入れる=別のモデルをマージすれば解消されるってイメージなんやけど
層別のおかげで構図なら構図、絵柄なら絵柄をピンポイントに狙えるようになったのはええわな マージってアンサンブル学習のイメージ
やわ
やからちょっと過学習してるくらいのほうがちょうどええまであるで >>184
PatreonなんかにはSD向けツール作ってる人が何人かおるみたいや
同じようにツールメーカーとして投げ銭もらったらええんちゃう なんかニキらが盛り上がってるの見てたら
ワイも謎のやる気出てとりあえず放置してたSSD増設したわ
メモリはAmazonで多分同じ型番のやつ買うたわ
ワイもやるでー >>277
tokenの41 fail
これが現実やな周回遅れや git pullしたらぶっ壊れたわ
また環境構築からやり直しかよ >>184
素晴らしい
とりあえずバグの報告なんやけど、これで生成した画像をPNG Infoで読み込んでsendすると
ネガティブプロンプト以降のデータがちゃんと反映されないみたいやで 操作に慣れてるからzipでアップデートしてるんだけど、git pullするメリットって何? SuperMerger生成画像はネガの後に記録されてるモデルとマージパラメータくっ付いてるけどsend toするとネガの後に一緒に送られてくるな >>315
設定によって起動しないバグあるからissueみてみ git pullしたらModule Not Foundエラーがエグいことになったから今から更新する人注意な
なんとか起動できるようにはなったけどなんか色々エラー残ってるしなんなんや一体… NAIとインスタ浅層から順に設定してみた突然変異ええな右端はBAもインスタ側にした
14個マージさせても余裕や
https://i.imgur.com/txDqwV0.jpg すまん、SuperMargerどうやって入れるのか無知なワイに教えてくれんか……
extensionsいじったことなかったんや LoRA、というかDB
学習が上手くいかないモデルで学習できるようになる方法ってないん?
モデルに含まれてるなんかを交換するとか >>184のURLをExtensionsタブ→Install from URLタブに入れてInstall
ただURLの最後のバックスラッシュ消さないと失敗する >>326
そ れ か ! >バックスラッシュ
インストールできたわ、サンガツ >>184
特大のサンガツを送るで
あんたは最高や! ST試そうと思ったらdiffuser形式への変換でエラー出て止まるわ >>184
満を持してマージやってみるやで
thx 安かったら無駄に増やしてた32GBメモリがこんなとことで役立つとは
やっぱなんでも大きければ大きいほどいいな 32で足りるなら帰ってきたらやる
常駐アプリ整理するか 10連とかでやるのに5GBx10で50GBとか使うのかと思ったら
2モデル読み込むだけだから10前後しか使わなかった
32で十分や >>98
nvidiaのCUDAが11.3のときにcu116使ってたらVRAMあるのにこんなんなった
グラボドライバ最新にしてCUDAツールキット?を11.6にしたら消えた
あとOSのページング領域を無効にしてたら動作不良になったのでちゃんと設定した >>335
あーでも俺のときはfreeもっと多かったなあ OrangeMixにDiffusersとGradioWEBUI(AOM2sfwのみ)が追加されました
といってもプルリクマージしただけだから分からんのだけど、スマンこれなにに使うんや?w 俺もマージに手を出してホモセックスモデル作ったるわ >>184
お礼言い忘れてたすまん!
これマジで革命や
全人類が自分の脳内の理想像を簡単に追えるようになったんや
ホンマありがとう 新技術でまた神モデルが量産されるんやろな
アホのワイはそれ待ちや😎 outputの画像が増え過ぎて表示に時間かかるようになったんやが
みんなどうやってる? >>344
都度バックアップ用のHDDに移動してoutput下は空にしとるで Loraと画風DB合わせると普通破綻するんだけど妙にマッチするLoraもあるんだよな
なんなんだろ? なんかめちゃくちゃ進化してて草
層別マージで雰囲気やっててもどこが効いてるか一瞬でわかるやつやん 説明サイトにあったりなかったりするcudaって入れなくても動いてたんだけど
入れたからって早くもならないしなんなん? >>184
ありがとうありがとう
メモリは32GBでもいける感じやな 顔にペイントだらけの女の画像が量産されたから何かと思ったら間違えてface paintをネガティブプロンプトから消しちゃってたわ >>347
マッチするloRAは学習元のベースモデルが近いとかかな? Anything-v4の影響(ほんのりバジル)強すぎやわvae必須もAnything系特有
tensorバグ直さんといかんし、Mixは好み屋から好きな人にはいいんじゃね >>354
そんなもんNPにいれるなんて何作っとるんや君は... >>360
ここは裏でアンダーグラウンド、表とは生きる世界が違うんや😠 >>360
相次ぐ窃盗とお客さんの流入で寛容の心を失ってしまったんやな
今までTwitter発の技術とか成果品が何も流れて来なかったって言うのも理由のひとつだと思うわ めっちゃ久しぶりにWebUI更新したら変わりすぎててやばいわ
UIのモデル一覧とかHN一覧のドロップダウンリストにモデルのハッシュ表示させるのってどうやるんだっけか 売名とマネタイズに必死なだけの人達がなぜか高評価を得てる場所 Twitter発でも良いモンならありがたく使わせてもらうで! 一々不快な情報をここに共有しにくるツイカスウォッチャーが悪いよ SD2.x系列の手が溶けやすいのは追加学習である程度改善されてるんやろか ワイもデフォルメが少し効いた可愛いロリやショタの絵が見れるならなんでもウェルカムやで〜 トークンの破損ってsafetensorで保存しても起こるんだっけ?
現状でAdd differenceするときの回避手段ってどっかにある? >>371
わりと手はプロンプトがっちり守ればそこそこやと思う
問題は胴と足の長さ関係やわ・・・どうプロンプト指定しても長さが明らかにおかしいのが生成されやすい ああ、twitter民のモデルがどうのこうのってことか
>>370
承認欲求えぐいよな、twittter民は >>373
色々な修正方法があるんだけどワイは層別マージ使ってるからskip/Reset CLIP position_idsをForce Resetにチェック入れてマージしてる
modelAを修正したいモデル、modelBを同じモデルでもダミーモデルでも何でもいいから適当なのにしてPreset WeightsをALL_Aでマージ開始すれば修正されたモデルが出力されるって感じや >>355
あ~なるほど、その線あるわ
と思ったけど一緒に載ってるjson見る限りベースモデルはNAIリークやな
ワイの使ってるDBのベースはAnyNAI+instaf222やから全然違うな
何がそうさせてるんやろ?🤔 あと前スレで試したi2iとptファイルを組み合わせる方法、ptの部分をLoraにして試したらめっちゃいい感じになって草
DBモデルの画風とキャラの再現性両方担保してくれるわ
ワイが書いたラフ
https://i.imgur.com/6HJxSdp.png
DB+LORA
https://i.imgur.com/uUxJKWY.png
DBのみ
https://i.imgur.com/zJx3Sfk.png
DB+中華pt(ワイのDBと合わせると色が崩壊する)
https://i.imgur.com/lil9QgH.png 最新版のautomatic1111ってバグで起動できないのね。今までバッチファイルにgit pull書いてたけど、流石にもうやめるわ >>374
そうなんか,long bodyをネガティヴに強調して入れてダメやと構図で頑張らんと難しそうやな >>379
まあ、ダメだったらちょっと前のハッシュ値調べてきてcheckoutすれば大丈夫じゃね? >>383
ありがとう。昨日の昼くらいのバージョンに戻したら起動できたわ。 最新のHugging Faceランキングが驚き!① stable-diffusion-v1-5
② anything-v4.0
③ OrangeMixs
④ Counterfeit-V2.0
⑤ dreamlike-photoreal-2.0
⑥ awesome-chatgpt-prompts
⑦ Chat GPT LangChain (space)
⑧ VToonify (space)
⑨ Stable Diffusion 2-1 (space)
⑩ One Shot Talking Face (space)
https://twitter.com/itnavi2022/status/1615760750584426496
https://twitter.com/5chan_nel (5ch newer account) OrangeMixさんにはいつもお世話になっております
最近性欲が画像生成速度に追いついてなくてきつい >>184 でマージしてもError吐いてしまう...MBWでならマージできるんやけどな
みんなあとは頼んだ メモリ64GBぐらいまでなら、無いよりは有った方が断然便利だと思う
モデルデータをキャッシュで大量に保持できるのは良い kohya氏loraのcolabはあるけどpaperはまだ無いの? Paperspaceでkohya版使ってるけどコマンドラインでSD-script直打ちやな >>366
サンプル呪文でサンプル絵再現出来たから導入自体は出来とるんやろうけど
プロンプト複雑にしてくとなんか素のwd1.4に近付いてどんどん崩壊して行く感じなんよな
ようわからんけど学習が足りてないみたいな感じなんやろか >>388
違うかもやけどMBWからのコピペやと先頭のbase入ってないからエラーなるで >>393
clolabのnote見てpaper向けにうまく改変できる自信ないわ >>395 ありがとな、正直言うとこれを機にマージを試してみようと思った程度の知識なんや
適当にAとBにモデル突っ込んで特に調整もせずにマージしても動かんのかスペック不足でエラー吐いてるのかも分からん状態なんで
もう少し知識貯めたら挑んでみるわ リアル系混ぜ混ぜアニメ系深層マージモデルでエロ作りやすいのはどれなんやろ
もうどれがなんだかや RTX3060(12GB)はtxt2imgでフルHDsizeが1発で出力できるか知っている人いる? >>399
画像の生成は出来ててerror出てるならシンプルにメモリ不足や
あんまりまとめてやらずに4つずつぐらいからじわじわ増やしてスペックの限界を探るんや AbyssOrangeMix2、t2iだといい感じの顔が出てくるけどi2iだと頻繁にこんな感じの西洋アーティストっぽい顔をお出ししてくるから困る
https://i.imgur.com/xPiliAq.jpg >>401
hires.fix通せばいけるって見た気がする >>184 を使わせてもらって階層マージを眺めてるけど
使えば使うほど極端な階層マージは劣化品にしかならないわ
INを全て0、OUT全て1とか実写モデルにアニメモデルを混ぜたりとか
一番無難なのはモデルがインブリード気味だったり一律マージに思える
色々試せてるから感謝しきれないわ・・・ >>401
ワイの環境やったらhires.fixでいけるで >>401
可、不可で言えば可だけど、「条件付き可」みたいな感じだったと思う(オプション必須、モデルとかプロンプトとかサンプラーとかの組み合わせ次第で黒出力)、
安定して出せるとかは思わない方がよい
個人的には「限りなく不可寄りの可」だと思ってる
生成速度も3分コースだしな
あとでちょっと試してみる てか768×768越えたらhires.fix通さないとめちゃめちゃになる >>378
これよく分からんのやけど
ブルアカのコハルのDBとかLORAってあるの?自作? ブルアカは割とloraいっぱいある
何故かアコはない キャラLoRAは金脈かmegaにいっぱい落ちてる
4ch漁れば結構出てくる 市販のpcってメモリケチりがちやけど自作で積むと全然安いよな >>184
めっちゃ画期的な雰囲気やけどERROR吐くわ😫
この前のloraといい、ワイの環境は何かがおかしい…
https://i.imgur.com/a2biCGj.png multiselectがどうとかいうエラーでwebuiの最新バージョンが起動せん奴は
pip install -r requirements_versions.txt --prefer-binary
を実行したら動くようになると思う 母乳出したいけど全然でてこんわ
moooo.ptもちょろりとしか出てこない
やっぱり学習しかないか…
母乳実験中に母乳は出ないがパイズリは出た
https://imgur.com/a/sNOgrov hires.fix無し高解像度はモンスターを産み出してばかりだがそれでしか辿り着けない境地があるから今日も化け物に耐えながら叩き続けるんや…
https://i.imgur.com/iKBamL3.jpg
https://i.imgur.com/j5ZITXo.jpg >>266
20コアのCPUがデュアルでos上は80CPUとして認識…
グラボもだけど訳わかんねぇな
新品だと3-4倍はするんかの 90万でV100買うならColab plus契約すればよくない? >>266 昨日に比べて入札増えてるな
ま、まさか…‥ かといって背景にいっぱい小物やモブ置きたいときはhires.fixも微妙だったりするから困る
変に補正かけるせいで逆にショボくなったり融けたり >>418
(Moooo:1.5)とか書いとけばめちゃめちゃ吹かないか
関係ないけどメモリ中古で買うならペイペイフリマがわりとおすすめやで 当たり外れとかは知らんけど
ヤフオクに居るような業者がこっちにも出してたりクーポンをかなり頻繁に配ってる Extensionのwildcard用のジャンルごとに入力済みのtxtってどこかにないですか? 以前に比べてみんな画像のサイズがデカくなっててびびる
もはや金持ちしか残ってないんか >>431
paperspaceで1枚4分かけて出してる子も居るんですよ! >>431
paperspaceなら月8ドルでもクソデカエロ画像を2分30秒で作れちまうんだ!
https://majinai.art/i/XV1U9Yh.png >>431
アーリーアダプターは金持ってる層やからな サイズある程度大きくしないと潰れがちになるのもある
学習データ使うと特に >>416
フルHDってかキリの良い数字の都合もうちょっと大きいけど、やってみた
スクリプト:「なんか女の子が可愛くて無茶苦茶バズりそうな、風景も壮大な素晴らしい絵」
xformaers,no-half-vaeあり3060(12GB)
DDIM40、ハイレゾx2 40、で1920x1280(2分33秒)
https://i.imgur.com/0Wwb0Nt.jpeg
同条件(同seed)のDMP++ SDE Karras(5分50秒)
https://i.imgur.com/upInpfo.jpeg
基本40ステップでこんな感じなので、やっぱ生成速度がヤバイわよ! 小さく出してアップスケールと最初からでかいサイズの出力では綺麗さ全然ちゃうんかな Google Colabでstable diffusionって使えないの?
エロ画像とかは規制されるんだっけ? >>430
中華TIの方は知ってたんやサンガツ
ついでやけど、中華TIのネムガキとかミユとか一部キャラってなんかぼやけるけどモデル相性悪いだけなんかな
LORAとか漁って試すか 640学習のWD1.4に768学習させとるけどhires.fix無しはいまんところ640*800がベターやな
これに1.5倍かけて遊んどる
https://i.imgur.com/wF65tSp.png
768*1024は絵柄が変わるがCFGを15にして適切なhires.fixやらんとダメやけど使えんことはない
https://i.imgur.com/6imqNGz.png
でもDBモデルやとデカい=繊細な感じにならんのがうーん >>439
めちゃめちゃ綺麗やね
生成時間は気になるけど夢が広がる
休日購入するわ 検証サンガツ デカくて綺麗な画像が生成出来るようになった、ってだけで実はみんな無理してたんか
ワイは1枚5分以上待つとか無理や。。。 >>431
顔がぐしゃっててもhiresで綺麗になるから、
プロンプト決めたらhiresにしてしばらくgenerate foreverにしてほったらかしにしてる >>448
Colabは未知数だけどDriveがまずいのは確実やね kaggleとかA100借りられたよなたしか
かなり速そう
まあ俺はなんとなくkaggleは使ってないけど4chanではテンプレにあるくらいだし結構有用なんだろうな そういや--no-half-vaeって何の効果があるんや?
黒画像への対処療法になるってのは知っとるが
生成にどういう影響もたらすのかようわからんのやが >>450
サンキュー
とりあえずサブ垢作ってコラボプロ契約してみる >>447
あと再現系のDBやloraはそもそも画像デカクないと成立しないやつがある
ワイが貼ったやつだと512x768だとボケボケで背景もショボいしプロンプト無視されがち
ここにhires.fixのlatentだとアレンジかかりすぎて崩壊、noneだとまぁまぁ
最初から1024x1536だと破綻少な目で綺麗
みたいな感じや >>452
よくわからないけど
「なんかメッチャ小さい数字省いてそれっぽく誤魔化してるけど、めっちゃちいさいので人にはあんまりわからん」
ぐらいの雰囲気で生成している あるふ君もうメンヘラやん
誰にも注目されなくなって悲しいね DBは特に目が一定までデカくならんと再現し始めてくれんのよな・・・
黒点ちょんと足すだけでええんやけど多分ほくろの学習とかでも同じなんやろな >>449
それはマジでガチャだな。。。
シード固定になってたらゲロ出そう
>>454
5秒でポンていう時代は終わって時間かけて理想の絵を目指す時代になってたんやな
この1ヶ月ぐらいで
なんかもう浦島になるの早すぎて笑うわ アウアウs4bmちゃんずっとTwitterとpixivとdiscordの話ばっか意地になって続けてて草 ゲーミングPCみたいに最初から動作保証されてるモデル売り出してくれたら分かりやすいけど無理やろなぁ >>427
あっあれも普通に強調きくんやな
なんか無意識に効かないと思いこんで試してもなかったわサンガツ!
>>433
LoRAもあったんか今自分で学習かけて出かけたとこや
ふいんきでやっとるからそっちのがよさそうやな
帰ったら試してみるでサンガツ 4ヶ月前ぐらいは一日中512x512サイズで生成回して、そのうち数枚かでなんかちゃんと人っぽい正面向きキャラが出ただけでキャッキャしてた自分が懐かしい…… ワイみたいにLoRAもさっきのマージのすごさもまだしっかりわかってないしヘーキヘーキ
無限生成数打ちゃ当たる方式からまだ脱却できとらんわ >>455
結局なんなんやろまじない程度のもんやろか
>>458
短時間で作っとった頃は「自動でおもろい絵が出来たで!」ってキャッキャしとっただけやからな
モデルとか技術向上で本格的にシコれる画像とかが作れるようになったから
クオリティ重視になって来た wd1.2で剥ぎコラ作ってたのが4ヶ月くらい前か
NAI流出無かったら今でもそれに毛が生えたレベルだったんだろな
その世界線のwd1.4はそこまで焦って作り直したりしてない分、今の現実のwd1.4以下の出来だろう なんかここワッチョイ一々監視してる暇な奴おるよな
前スレ1回も書き込んでない―とか
嫌な話題ならただ無視しときゃええのに >>466
無視すると釣られたバカが同調しだしてエコー婆ちゃん爆誕するから牽制は必要や >>460
これからPC買う身なんでデカい事言えんが気持ちはめっちゃわかる
そして同時にそれが無意味な事ってのも
何せ前例のない先端技術を突っ走るわけで、保証なんてされてる内にその技術は過去のものになっていく
だから半年前の時点だとギリギリ快適と謳えたモデルも、半年後に編み出された技術ではまるで力不足になっているかもしれない
ワイは3060を積んだPCにするつもりだけど、それで(最前線で)何年も戦えるわけじゃないんだろうなあって覚悟はしてる ガイジに絡むやつは同類やでって牽制しないとマジでレスバとまらんからな
こないだのツイカストレスとかこのスレになんも関係ないのにお気持ち法律レスバでスレの殆んど潰しやがったし なんJ民の血がレスバを求めるんやろなあ……(適当) もうそうなったらみんなで🎈投下すればええんやないか?
自分にも多大なダメージ喰らうから自爆覚悟やけど…… >>464
ワイはまだ「自動でおもろい絵が出来たで!」のまま止まってるわ
理想の絵がちゃんとあるのはすごいな
>>465
wd1.2で大興奮して遊んでたのがもはや数年前みたいな感覚や
今はプロンプトどころかモデル情報すら共有出来んくなって、わりとマジで勉強せんとついていけん
ていうかだいぶ置いてかれとるな。。。 5分で反応してくる単発もガイジに片足突っ込んでると思うからガイジバトルやね
まあおとなしくイラスト生成してるのが平和や >>460
スペックとOS対応しとれば普通は動くゲームと違ってAIはインストールすらままならないユーザーも多いやろし
BTOショップ側とかも適当な新し目のCPUと3060以上乗っけとけばまあええやろってのはわかっとっても
AIお絵描きできます!とは売りにしづらいんやないか ここでレスバのきっかけになる書き込みする奴なんてわかりやすいから
ん?って思ったらすぐワッチョイNGにしてれば大体見えへんで 普及すべき平均スペックがハッキリしないとBTOでもAI用として売り出すの難しいやろな 昨日のように突然メインメモリ32GB以上が適正であればあるほどいいになったりするしなぁ
カンブリア爆発してるのは見てるのは楽しいけど生き残るのは大変やで >>479
AIスレは全員RTX4090、メモリ128GB、SSD1TB、HDD12TBが最低限や😤 >>480
レスの内容よりどっちがよりエロいかで勝敗決まりそう そのうち画像生成もGPU不可大幅軽減&高速化するでしょたぶん ここに貼られる画像って基本的に局部修正されてるけどその下ってもしかして結構グロいことになってるんか?
自力でキレイなマンコ生成しようと頑張ってるけどグロばっかで逃げ出したくなってきたわ… >>482
最低ライン高すぎるけど、強く否定できんからホンマに金持ちの趣味やわ どうせモザいく入れるからグロマンでもいいやって人もいれば自分でシコるときに気になるからi2iかけまくってなんとしても直すって人も居ると思う githubにあった中華TIキャラ再現しゅごいな。ただ別衣装を全然着てくれないわ。お手軽にあれもこれもは欲張りすぎか web ui アップグレードしたらdreambooth版のloraの挙動がおかしくなってしまいました。
正則化画像のフォルダも枚数も指定してるのに、学習させると必ず新たに正則化画像が何万枚も生成されてしまいます
同じような方いますでしょうか...? >>451
ワイkaggle民やけどA100とT4*2を選べるけどどっちも変わらんくてこんな感じ
いずれも20Step、2M、Strength6ぐらいのi2iで1枚生成を3回やった平均だけどt2iもそう変わらんやろ
解像度が1対1.6なのはあんま気にせんといてや
420*672:5.15秒
480*768:6.82秒
540*864:11.05秒
600*960:13.45秒
720*1152:22.21秒
960*1536:36.54秒(このサイズになると上は50秒台で下は20秒後半とバラツキが多いが理由謎、でも大体35秒) t2iで乳揉み系狙うの無謀かな?
結構な確率で女がどっか指さしてるのが出てくる 最高とか最低とかワイにはまだ見ぬ天上の話過ぎて実感和姦な
そもそもSSD未体験なんでそこからやし
SATA接続をすっ飛ばしてNVMe Gen4とGen3で初体験なんでちょっとワクワクしてる
数ギガの処理が数秒とか意味わからん世界すぎる >>485
良かったり悪かったり半々やな
どっちにしろ見せられないからアナル貼っとくわ
性器はやっぱgape混ぜるのが最強だと思うわ
https://imgur.com/80nCkOG.png 不特定多数から常時リクエストを受け続けつつネットワークがオーバーヘッドになってもローカルの3090と遜色ないスピードで返してくるNAI公式が何を使ってるのかが気になる >>497
一時期は複数ブラウザで各5ウィンドウずつ開いてガンガン作らせたりしてたけど全くスピード落ちんかったしなあ
そういう意味ではバケモノみたいなサービスやわweb版 >>493
絡み系は構図とも関わってくるから一発出しは難しいんじゃねぇかなぁ
別途で特化学習からのガチャさせるか
フィギュアや3Dモデルで写真やスクショとってi2iのほうが多分まるいよな >>490
情報サンガツ、速いやん
ワイもカグラーなるかな
まあ制限はそこそこあるみたいやけど 破綻しがちなモデルを連続マージで緩和しようと思ってたのに今日に限って元モデルでも綺麗に出てくるせいで成果の判断がつかねぇ >>499
そうだよね〜、やっぱ学習やらi2iでやるのがいいか
man grab girl's breastでなんとか揉もうとはしてくれてるわ
LORAでいい感じの体位見つけたから組み合わせてみるよ >>485
まんこも2個3個と描いてる事多いから困りモンや
ワイは一時期ネガにlabia majolaとurethral orificeとvagina入れてスジかぴっちりにしようとしてたが良い感じになることより微妙になることが多かったで 局部に関してはワイがあんま絡み画像作らないし拡張系も好きじゃないというのもあるけど
camel toeで下着にスジ浮かんでるほうが好きやからそこまでグロ表現になって困ったことはないわ
なおたまにラクダが現れる模様 逆に最低ラインで戦ってる人はどのぐらい居るか気になる
1660のVRAM6GBでやってるけど辛くなる事が多くて泣きそう
ローカル学習は何度かトライしたけど全て玉砕した 片方ちんこ手コキしながら片方フェラチオしてる画像出したら高確率で女にもチンポコ生えたり地面からチンポコ生えてきて挿入されるのが悩みや
複雑な構図はLORAに頼るべきか >>466
意図的に対立させたり議論曲げにくる奴に限ってそういう奴だからそら警戒するわ mac民とかamd民とか1060民は見かけるからその辺が多分限界か すじはpussy lineがかなり効果的の認識
cleft of venusはそこまで効く印象ない
アナルだけぽっかりが好きだからそれでよくガチャしてるわ 層ごとに役割は分かれてるけど混ぜたら混ぜた分だけ塗りもポーズも同時に混ざって完全な切り分けは無理なんやな
Gapeの塗りと顔だけ欲しくても混ぜたら穴は必ず広がっていくってことか限界が分かってきたぞ 逆にgapeもNAINSFWも食わせてないただのAnythingはまともにマンコ描けない分すじで妥協してきがちだからベースはそいつに描かせてあとから乳首だけ別モデルでinpaintとかはよくやる 学習する時って--precision full --no-halfつけて単精度にした方がいいらしいけど
どんくらい違うのかね >>509
3060(12GB)へようこそ
通常のRAMはちゃんと32GBに変更するんやで 4060は8GB確定みたいな情報がチラホラ出て来たなぁ Intel Mac民やけどローカルは早々に諦めたやで
8GBのグラボはあれどゴミや ハイレゾ生成してるとファン?かなんかからガリガリガリガリ音が鳴り始めるんですけどヤバイですか?
温度は80度未満をキープしてるんだけども >>503
よかったら見つけたいい感じの体位について詳しく >>519
afterburnerで70%制限してみたら >>512
というか、切り分けは完全にできてるんだけどね
ただその区分のレベルが、ヒトの認識と違うというだけでw
そのモデルが世界をどう認知してるか把握できれば層別マージも容易になるんだろうけど、
さすがに人知を超えた世界観だろうし…… >>507
ちょうど426のプロンプトでaiに言い聞かせようとしてるので通じてるかの判断頼む
ワイはないよりは効果あると思ってるが他者の意見が知りたい >>516
でもAIでもしない限りVRAM8GBで十分そうではある
仮想通貨を掘らされた後に画像掘らされてるグラボくん・・・ >>511
そのワードもっと早く知りたかったでー
試してみる、サンガツ! >>506
1070のVRAM8GBで遊んでるけど
マージやってたらpcが聞いたことのない悲鳴あげた
それ以来職人が作ってくれたモデルをdlして遊んでます
学習も興味あるけどまあ無理やろうな あとhires.fixしたらアナル増殖するのに対策とかないかな?
指の破綻と同じと割り切ってガチャしまくるか >>505
パンツが🐫色になったら来てるな~と思っちゃう 今後買うなら4070tiがVRAM12GBに増えてたし良さそうやと思ったけど3070tiと比べて高すぎやで・・・ >>519
ファンがギュインギュイン回ってるから80℃で収まってると考えるんだ まあ正直3060が12GBの方がなんで?感はあるから…
にしても4000番代は最低を12GBにして欲しいわな >>529
あれは3080の置き換えと思った方がええで
そういう観点やと悪いものではない >>527
bad_promptみたいな感じのbad_mankoの登場がが待たれる
作れなくはなさそうだけれども camel toeはモリマン気味になるのとなんか画一的な感じになるからpussy lineの方が好き 🤖「どうせモザイク掛けるんだから性器の描画は手を抜いたろ」 >>520
4chanのまとめみたいなリストあるでしょ(URL貼ると規制される)
前スレで誰か貼ってくれたたはずあそこから、そこのリストにある正常位使わせてもらってる。
Strength調整すればプロンプトも上手いこと乗ってくれた 3060の生き別れの兄弟みたいな感じの低価格業務用グラボのA2000てのがあるから
ああいうのがまたada世代でも出たら値段次第では結構アリなんやないかなと思う >>379
webui も単体ならいいけど、拡張との競合があるしね
けっきょくwebui とsd-scripts の環境を分けて単体で使うのが安定するし、
そのわりにはいろいろできるし >>494
ワイも出たことあるで
stereogramをプロンプトに入れたら打率あがらへんやろか この話で思い出したんやけどアスナとかマドカとか名前被っとる奴の片方だけ出す方法って確立されとるんやろか 新品ならとりあえずこれ買っとき
https://joshinweb.jp/outlet/65929/4710562242973.html
自分は別メーカーの2060 12Gと3090 24Gあるけど
電気代怖すぎるから2060でやっとるし十分
3060 12Gと性能は大差あるわけでもないしな >>519
どのファンが唸ってるか一応把握しといた方がええで
電源ファンとかだと面倒やし >>439
hiresのx2もでかいの出そうとするとVRAM必要やからの…Batch sizeは1より上が使えるのはうらやましい
3070-8GBだとDDIM40 Hires x2の40Stepsで2048x1280は無理やったので2048x1024で1m31sかな
https://i.imgur.com/SlgQTjQ.jpg
描きこんでて画像サイズ違うやんって気づいたけど結局1920x1280も出せないので、実用のFHDカバーできるサイズで試してみた
DPM++ SDE Karras 40Stepsのhires x2で1920x1152(960x576 x2)が3m39sくらいだの
https://i.imgur.com/KofhnO2.jpg
4Kモニタやめたり出力を内臓GPUにしたりLoRAやHNやvae設定次第じゃもうちょい上も出せるけどゲームしたり汎用的に使えんので >>521.530.548
サンガツ…BTO買ったばかりなのになぁ >>495
普通に5000MB/秒 やけどもうそれが普通なんや
SSDも安いしな >>536
お前いつも修正されたマンコばかり見てるからちゃんと描けないだけだろバレてるぞ セーラー服JKが水に沈んだ校舎の中を漂ってる感じのって作れる? 艦これの綾波の制服を着てエヴァの綾波の髪型をしてアズレンの綾波の髪色をした女の子からは逃れられない
https://i.imgur.com/EMlye1y.png >>546
作品名プロんプトに入れるくらいか?
TIとかLoRAなら呼び出しプロンプト自体を変える
BA-AsunaとSAO-Asunaとか これ半分お前らのせいやろ
ケニア人可哀想やんけ
2023年01月19日
「ChatGPTを改善するためにOpenAIが時給300円以下でケニア人を雇った」と問題視する報道
AI研究団体のOpenAIが、対話型AIの「ChatGPT」をより安全に使用できるようにするため、ケニアの労働者を時給2ドル(約260円)以下で雇い、データセットに使われる膨大な量のテキストから有害なコンテンツをフィルタリングさせる作業を行わせていたと報じられています。
実際に作業を担当したケニア人の労働者は「幼い子どもが見ている中で犬とセックスする男についての文章を読み、繰り返し起こる幻覚に苦しみました。あれは拷問です。そういった文章を1週間を通じていくつも読むことになります」と語っています。給料は年功序列と業績に基づいて決められており、時給1.32ドル(約170円)から2ドルだったとのこと。
https://gigazine.net/news/20230119-openai-used-kenyan-workers/ nagatoだけでプロンプト呼び出し長門(9.1K)vs長門有希(8.4k)対決
勝者陸奥
https://i.imgur.com/Y8nax3G.png ケニア人なら富山県高岡市の風習を知らなくても仕方ないな… 奇異な風習と文化的多様性の後ろでケニア人が泣いている 真に受けたケニア人が日本の風習についてめちゃくちゃ誤解しつづけている可能性 アレなワードが当たり前のように出てくるから、チェックする人が過学習になってガバガバになる未来 何も無条件で労働させているわけではない
ChatGPTも「ケニアの平均時給より50%高い報酬を支払う」と事前にお伺いを立てている
どういった労働を選択するかという決定権はケニア人さんサイドにある
その上でご自分の意志で労働していらっしゃるのだからすなわち責任はケニア人さんサイドにある
なぜ我々が責められなければならないのか
なぜ我々がケニア人さんに謝罪せねばならないのか
むしろケニア人さんこそが我々に謝罪すべきではないだろうか kohya 版loraをペーパースペースで使ってるんですけど,
ローカルだと1000ステップ当たりどのくらい時間がかかりますか?
(環境にもよると思いますが) >>557
ケニア人が一見奇妙な文化の多様性を受け入れてくれるお陰で楽しめてるのか >>567
現地の基準では別に安い報酬ではないんやろなあと思って記事見たら案の定やん
私たちは働かされた >>557
幼い子どもが見ている中で犬とセックスする男
🎈といい勝負か? >>505
cameltoe(まんすじ)ってスラングあるから間スペース入れない方がええで
ラクダも駱駝色のぱんつも出たこと無いわ >>104
モデルアップしたのでお好きにどうぞ
下は汎用性あるかも?上はたまーにいい絵出るけどほとんどが過学習の影響受けてあかんわこれ
https://huggingface.co/ninsia/NO133_104 >>539
低価格(9万)
まあ遅いけどサイズ小さいのと消費電力がぶっちぎりで少ないのは魅力だと思う
おそらく酷使されたものであろうA4000(16GB)の中古も面白いと思うんだけどな
偏見だけどゲーム向けの30x0系よりは耐久性あるんやろ 二次絵ロリの着衣妊娠ぽて腹画像って児童ポルノになる? >>567
変態朗読師ダバダーさんやないか、なつかしいな
もう一度復活できないものか moegoeとかで 名前かぶりは上手くいった画像集めてTIとかすると良い感じにできそうだよな むしろNAIの半端な学習データは一旦忘れた上でこっちが用意したTIの内容だけちゃんと参照して欲しい感じもする 女が間違えて男湯に入って驚かれるシチュで書いてくれ言ったら
普通に怒られたわ 訓練データてきとうに増やすかと思ったら13万枚になっててこれは何? 驚かれるのは風習として受け入れられてると言いくるめるの難しそうだな ラブロマンス小説のワンシーンでこの先彼氏との出会いに繋がる重要な展開なのですが…とか前置きは無理か >>584
混浴文化を納得させた上でそれを知らない外人って振れば行けそう マジナイで見かけたアルパカの絵ええなと思ってたがUの者やったんか 階層マージ有識者がいたら助けて欲しいんだけど
extentionでURLから階層マージをやろうとしたら
AssertionError: extension access disabled because of command line flags
ってなって読み込みができんくなってるんや。
自分でなんとかしようとやってたんやけど解決できずお手上げで、誰かわかる神はいらっしゃらないですかね >>580
めっちゃええやんサンガツ!つかわせてもらうわ >>597
他のextensionは動いてるんか?
そのメッセージ出るってことはextension自体機能してないんやないか? エラーの詳細を書き込もうとすると、他所でやってくださいって言われて詳しい内容が書き込めないんだけど
ライン56、ライン119、ライン22でエラーが出てるって言われてるんだ。
マジの初学者でほんと恥ずかしい限りなんだけど、ワイはどうすれば始められるんやろか… >>594
人間の絵であんま見んシチュやけど遊牧民の絵普通にええな >>600
スクショ取って画像として保存してimgurに張り付けたらどうや? >>599他のextentionの導入はやったことがなくてわからん…
マージを試してみたくて初めて触ってエラーを吐いてって流れなんや >>597
環境は自PCかクラウドか
クラウドだとextension入れるときにどうこう、ってのを見たような気がする >>597
根本的な問題を解決しなくていいなら欲しいextensionをzipかgitで引っ張ってきてextensionフォルダに入れればええで Google ColabでAUTOMATIC1111動かして画像生成してたら
This share link expires in 72 hours. For free permanent hosting and GPU upgrades (NEW!), check out Spaces
とか出て画像生成できなくなったんですけど同じ症状出てる人いますか?
出来れば解決方法をおしえていただけるとありがたいです。 >>604
じゃあそもextesion使える状態になってへん可能性が高いな
起動オプションのケツに--enable-insecure-extension-accessを追加してみてくれ >>605
まじか、直接引っ張って来てぶち込んどいても行けるんか、試してみる。
厚かましい質問なのにみんな優しくて泣いとるわ、めちゃくちゃありがとうやで >>506
ワイノートPCのVRAM6GBやけどローカルHNは画像サイズ400*400まで下げれば1,2,1のドロップアウトオンまでは一応動くで
なお学習結果への影響についてはわからん模様 >>607
画像は見れるけど解決策はわからんわ
すまんな >>590
得意では無いが出せなくは無い
勝手にモザイクかかるから気になるならOUT浅層にgape食わせるとか普通にマージするくらいかな
上
https://i.imgur.com/LqysKEx.jpg
下
https://i.imgur.com/oVYd5X2.png >>607
エラー内容的に COMMANDLINE_ARGS に --enable-insecure-extension-access を加えれば解決しそう感あるで 拡張をインストールor更新しようとしとるんか?
COMMANDLINE_ARGSに --listen か --share が書いてあるなら ↑ をオプションに加えな拡張のインストールとか更新とかでけへんで >>609
爆速で試してくる…ありがとう…ありがとう…!
騒がしくしてすまんやで >>573
7.7GBは余計なものが残ってると思うで >>594
本当は上みたいなの求めてるんやろ正直に言うてみ >>606
そのメッセージはむしろ正常な時に出るやつ(一時的に使えるURLを72時間だけ使わせてあげますよ)だから
エラーの原因がわかるメッセージが出てるとしたらそれはどこか別にある VAEってkl-f8anime2, Anyv3, SD1.5のやつ以外って無いんか? >>624
メモリ挿す場所を取っ払うことでCPU置ける場所を4箇所に増やす革命的なマザーボードやな >>619
オッサンにはぶっ刺さるで
Too_old_PC-GameGirlsって配布場所どこなんやろ?
haging faceとcivitAI漁っても見つからんわ >>597
--listen付けてLAN経由でつないでる場合にextension動作させるには
--enable-insecure-extension-access必要やで >>609
おかげでextentionの導入ができるようになった!、ほんまにありがとう…!
ただリスタートしろって言われて、apply and restart up を押してみたんやがうまく拡張はできんかった。
ただ導入までいけたのはニキらのおかげや、もう少し頑張ってやってみる、本当にありがとう ジャックOのLoRAで遊んでたわ
結構楽しいけどSSR狙いって感じするわ
https://majinai.art/i/XFMjiHu.png >>625
各々のパーツの意味とかわからんと違和感に気づけないからまさにAIはなんとなくで生成してるってわけやな >>629
extensionはインストールしたらapply and restart upより一回webUI閉じて再起動のほうが確実やで >>619
おっさんホイホイ過ぎる
自分の知らないMS-DOS~win95系の昔のエロゲ
っていわれても信じれる トランプなんかもそうやけど学習させて柄とか単品がまともに出るようになったとしても何が何枚とかまでの学習は困難やから上手くいかんと思うで Imagenとかいうの来たら文字もいけるようになるらしいで >>568
ローカルじゃないけど、DB的な使い方ならT4 (VRAM 16GB)で20分くらい 初期アドベンチャーゲーム
カナ単語入れて変化を見る
AIお絵描き
エロ単語入れて変化を見る
なんも変わってねえ はっ?これからの時代は大容量PCM音源の時代だから(4MB) >>524
アナは穴でも違うアナか、
どんだけ掘るの好きなんかな~
まあ分からんでもない
実写より絵の方がエロいと言うのがようやく分かってきた所だよ >>641
パッパが26互換音源買ってきて泣いた悲しみを思い出したわ LoRAの学習急にできなくなったと思ったら画像フォルダ直で指定してたわ…
入れ直した時間返して😭 >>184
ニキの超絶ありがたみエクステンションのために
Macだけどautomatic1111導入するわ SD民のグラボの日常
シェーダプロセッサ「今日も計算が忙しいンゴオオオオ」
テクスチャーユニット「俺らいらなくね?」
レイトレコア「せやな」
ラスタライザ「ほんそれ」
動画デコーダー「...」 マカーはメモリ 16 GB だとスワップのせいで 3 ヶ月で内蔵 SSD 死ぬ計算だからから注意な loraってなんやねん
層マージすら追いつけてないのに GPTにエロ小説書いてもらおうとしてここで見かけたぎょう虫検査や睾丸マッサージのやつそのままパクって打ち込んだらイエローカードとレッドの連続なんやがなんでや後追いはあかんのか >>619
ワイがジジイになって新しい絵柄に全くついていけなくなったとしてもAIくんがいれば寂しくないやね >>662
黄色はいくら出しても大丈夫
赤はやりすぎると警告メールが来るから注意
警告の表示だけはこれで抑えられる
ただ違反が無かったことになる効果はない
https://fate.5ch.net/test/read.cgi/liveuranus/1673176819/360
むしろ自分が超えちゃいけないライン超えてることに気付けず調子乗ってやりすぎる可能性を高める諸刃の剣
とにかく重要なのは警告メールが来ない、3回でアウトだから1回でも来たらブレーキ踏んだり冷却期間置いたりすることや
多分メールの方の警告は何回も出したユーザーをケニア人が手動でチェックしてマークしてる 「ケニア人に読ませる」という新たな性癖ジャンルが生まれた瞬間であった AIのべりすとユーザーワイにのべりすとじゃなくてChatGPTでエロ小説書くメリットを教えてくれ
純粋に興味がある ケニア人の性癖が開発されて第二の変態大国になる可能性が微レ存 これからはケニアの古い風習をChatGPTちゃんに教えてもらうとするわ >>666
なるほど詳しくサンガツ
メールはまだ来てないからとりあえず大丈夫やな
もうしょうがないからしばらくゴブリンで誤魔化すわ ケニア人が薄暗い地下室でワイの髪射シャンプーを読んでたの? >>671
逆に聞きたいんやがnovelaiでエロ小説書けるんか?シコ絵にしか興味なかったから文章作成したことなかったわ。あれ英語でしかアウトプットせえへんよな?
それで言えばGPTはなんでも自然な日本語で答えてくれるってのがメリットじゃないかな ・すぐNTRにや3Pに走らない
・嫌がるChatGPTちゃんに無理矢理エロいこと言わせるのが興奮する
マジレスで言うと
・自分が書いた内容やこれまでに書いた内容の純粋な続きだけじゃなく「英語で登場人物の衣装と仕草についてだけ書いて」「ここまでのあらすじをまとめて」「キャラクターのプロフィールをリスト形式にして」みたいな自然文かつ柔軟な命令が出来るのでSDのプロンプトにも応用しやすい
・文章力そのものはのべりすとよりずっと下だけどあくまでその辺はこの先成長に期待
自分の場合はそんな感じ ケニア人が読んでるのはLLMの学習元データセットの方だから出力は読んでないやろ
単純に出力テキストの傾向で警告ラインがあるんやないかな
GPTちゃんになりきりで台詞書かせてたら「あなたがたとえ殺人犯でも私の愛は変わりません」とか出力したところで警告出た つまりデータセットに子供たちの見てる前で犬とセックスする文章が存在している 実際手動チェックで警告する人員は居そうだしそれもケニア人がやっててもおかしくない気はする
別々の会社に分けて委託するより効率良さそうだし しかしNVIDIAって仮想通過に使われて規制して
AIに使われてメモリ制限してよく分からん会社やな
個人がAI専用GPUとかホイホイ買うわけないやん >>671
のべりすとユーザーやけど小説に限定するならメリットはないはずや >>680
NovelAIじゃなくてAIのべりすとやで〜
https://ai-novel.com/index.php
NovelAIの方も日本語扱えるようになったとか聞いた気がしたけどワイは使ったことないわ
>>681
はえ〜なるほど
のべりすともあらすじ出力とかプロフィール生成とかはできるけどサンプル用意したり非公式プロンプト読み込んだりの一手間は必要やからね
手軽にいろんなことに使えるのはやっぱええな >>686
そう、個人はAI用のボードなんかよう買わん、だからメモリは少なくてええんや。
逆に個人用のやっすいボードにメモリたくさん積んだら、本当にAI研究しとるやつが安いの買いまくるやろ。 機械学習用の競合いないのがほんまクソ
人類の発展を妨げとるやろ 神エクステンションで層別マージを拘り抜いた結果前よりショボいのが出来た
あるあるやろ… 濡れ場そのものはのべりすとの方が充実してるんだけど地頭が悪そうな文なのがね… >>494
立体視はdepth extentionで作れるやろ
揺れるアニメーションも出来るけど、胸だけ揺らすにはコツが要りそう
そういやiwaraに立体視の画像集の動画が上がってたから試しに見てみるとええかも
depth mapからPCD化も出来たで
pngのチャンクのせいかdepthをjpegに置き換えにゃならんけど飛び出す絵本の完成や のべりすとはそれまでの入力にかなり文体左右されるから丁寧に修正したりうまいこと誘導してやれば個人的にはだいぶええ感じの文になる
まあそれが面倒っちゃ面倒やね
イラストでも小説でもAI様のために人間がセコセコ作業せなあかんのや… kohya版lora試してるんやが
cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\
cp : ファイル名、ディレクトリ名、またはボリューム ラベルの構文が間違っています。
って出て進めないんやが誰か助けてクレメンス… 出先で画像貼れないけどabysshardに7thニキの騎乗位HN合わせると騎乗位させてなくてもなんか絵の雰囲気良くなるわ https://aibooru.online/posts/16001
こういう透け服下乳アピールの呪文に鉄板あったりします?
再現性が難しい >>698
ちゃんとsd-scriptsフォルダで作業しとるか? >>698
それは簡単やで、単純にbit~とその下にフォルダが存在してないからsite~の中に作るだけ
まぁその後作ろうとしてもうまく行かんかったけど >>701
cdで移動したからちゃんと作業してると思う 多分
site-packagesにbitsandbytesってフォルダがないからそのせいやと思うんやけど >>698
初回セットアップよな多分?
文頭に(venv)って付いてる? >>702
ワイもさっき作ったけど3つ目のやつでエラー出てダメやった
>>704
せや
管理者権限で解放もしたし付いてる >>705
じゃあわからんなぁ…
sd-scriptsが入ってるフォルダの名前確認するとか一から通しで入れ直すくらいしか思いつかんすまんな
もうちょい待てば誰かしら知識人来るんじゃねぇかな… >>707
相談乗ってくれてサンガツ
フォルダ消してやり直したりしたけど無理やったから知識人待つわ >>184
extension使ったこと無いんやけどこれってscriptフォルダにファイル配置したら後はなんも設定変更とか必要ないんか?導入が分からない 1080ワイ、クッソ遅い生成と画像サイズに打ち震える
12Gの3060だけでも欲しいが他のパーツも古いから総取っ替えしたいが底辺職の財布には重い… >>700
underboobとsee-through shirtの組み合わせじゃね >>710
なんでscriptフォルダなんや?
extensionsのInstall from URL入れてinstall
その後installedのApply and restart UIや
あ、末尾の/は取ってからやで >>708
やけど自決したわ
python -m venv venvにして全部コピペして直接ぶち込んだら行けたわ >>708
としあきが作った赤ちゃんスターターキットがあるぞ ワイも相談にのってほしい
LoRAセットアップのacceletate configから入力受け付けなくなったの解決したい
1押しても2押しても反応せんやがどうすればいい?
https://imgur.com/a/GclXALx >>723
enterもしないが再起動したほうがええんか? >>716
ありがとうございます。試して調整してみますわ
長文呪文だと(((underboob)))強調しているようなので >>724
わからんけどとりあえず閉じてまた起動すればええと思うで >>724
ワイは1回のエンターで行けたからわからんなすまん
フリーズしてるとかなら再起動した方がええかもしれん AIのべりすとくんでエロ小説もAIとの共同制作感あって楽しいで、思ったより有能で課金もしちゃったわ
難点は官能小説ぐらいねっとりしたの書きたいのにすぐエロ同人みたいな語彙になるところやな
そこはchatGPTちゃんの貞淑さ見習ってほしい Anything 系の生成絵だと思ったら有名デジタル絵描きさんだったでござる
分かってから改めて見てもこれなら生成絵で良くねって思わずにはいられない
同じような絵しか描けないのに作風とか画風って主張して生き延びてきた絵描きには厳しい時代になりそうだと再び実感 ColabでLoreを使う方法を調べてるんやけど検索が役に立たん……
ワイはColabの「%store」が何なのか知りたいんや
近所の店とかMicrosoft StoreとかMinecraftとかは関係ないんや >>727
>>728
chatGPT君に色々聞いたらtorchとtorchvision合ってない言われたわ
今torch1.13.1_torchvision0.14.1_cuda11.3なんやが、kohyaの通りのバージョンにしたほうがいいんか? RTX3080の12GBモデルなんですが、960x640の画像に2倍HiresかけようとするとCUDA out of memoryエラーが出てしまいます
なんか回避する設定があれば教えてください
現設定は
set COMMANDLINE_ARGS=--no-half --no-half-vae --precision full --xformers --opt-split-attention
set PYTHON_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128
です >>698
そこで詰まっとるやつスレだけでも3人目やしwikiにもおる謎や
一応聞くけどautomatic1111とは別のフォルダにしとるよな >>731
そういう人が学習の肥やしになってるからNAIやAnythingの絵ができてんだ
あまり馬鹿にするもんじゃあないぞ。これからも肥やしになってくれてありがとうだぞ >>732
%ついてるのはマジックコマンドや
%magicでヘルプ見れるはず >>732
しゃーないプロのワイが教えたるわ
Jupyter notebookの%storeは、IPythonで使用される特殊なマジックコマンドの一つなんや
%storeは、Jupyter notebookセッション間で変数を永続化するために使用されるんや
%storeは、変数を自動的にシリアライズし、それをJupyter notebookのアウトプットとして保存するんや
そして次のセッションで、%store -r を使用して変数を取り出すことができるんや
%store を使うことにより、Jupyter notebookを使用した分析やデータ処理の中間結果を保存し、再開することができるようになるんやで GPT君優秀過ぎない?
クソ阿呆ワイにも顔色一つ変えないで親切丁寧に教えてくれたおかげでxformers入れられたわ
ちなコマンドプロンプトが分からんかった
あとダウンロードしたファイルが変なところやったのがあかんかった >>733
経験上cuda11.3やとインスコ出来てもメモリエラーなったり止まったりするよ >>737
>>738
サンクス
なんでGoogleは素直に教えてくれないんや
「%store コマンド」とか「google colab %store」とかで教えてくれてもいいやろ ちなみにマジックコマンドについてやが
Jupyter Notebookには、Pythonのコードだけでなく、notebook自体の操作を簡単にするための「マジックコマンド」と呼ばれる機能があるんや
これらのコマンドは、先頭に%または%%をつけることで実行されるんや
マジックコマンドは、Jupyter Notebookの内部操作を変更するために使用するんや
例えば、notebook上での変数や関数の管理、実行時間の計測、グラフの表示などができるんや
%store は特定の変数を、現在のセッションから次のセッションに持ち越すためのマジックコマンドなんやで >>741
試しに%storeでググったら地域のスーパー網羅してきて草 GPT君は嘘もつくけど質問に直接答えてくれるからありがたい
アフィだらけの検索とは大違いや >>734
12GBだとfp32でxformers有効にしてその辺りがちょうどギリギリの辺りなので、何か余計に使ってるとVRAMが足りなくなるかも。
1.8倍くらいで妥協するか、再起動してやり直してみるかあたりじゃないか? >>741
google colab "%store" みたいに囲ってやると一応出るで >>745
--no-half --no-half-vae --precision full
このあたりがVRAM使用量増やしとるんちゃうか?
とりあえずxformers以外全部消して動かしてみたらどうや?
あとLDSRとかアップスケーラーの種類によってVRAM使用量多いっぽい >>745
>>747
サンガツ試してみるわ
アップスケーラはLatent系を試してみたんやがどれもエラー吐くな こんな優しくされた事なくてGPT君ちゃんにガチ恋してもうたどないしよ
プログラムやからごめんなさいの一点張りや はぁ辛い無理 >>731
そいつらの絵をmasterpieceにしとるわけやから当然なんやけどな
そいつらも加齢に伴ってクオリティ落ちていくだけやと思うと厳しいよな >>734
ちなみにfp16モデル使って黒画像の原因になるVAE使わず--no-half --no-half-vae --precision full 切ると12GBで2500x2500くらいまでいけるで >>753
なんやそのクソデカは🥺
設定類でそんな変わるんやな >>733
根本的な部分でPythonて3.10.6になってる?
3.10.6じゃなくてもいいとは思うけど3.9.*はだめ。
推奨は3.10.6だけど、たとえばAnaconda入れてると3.9.13が入っててそこにパス
通ってるから別途Python3.10をインストールしてても使えてないとか
ワイはそれでだめだった。Python -Vでバージョン確認してみるとええで。 xformer使えるNVIDIAはええな……
ワイRadeon、768x1024(highresfix無し)が限界や >>756
3.10.8だったけどCUDAが12だったわ
11.3に戻してくる
ワイはエロ画像をつくるためになんでプログラミングの勉強しとるんや... >>760
逆に考えるんだ
「エロ画像を作れるからこそ勉強する」
と! >>753
モデルサイズで違ったんか~!
知らんかった >>184
これ見て思ったけど、マージレシピを長くてもいいから1行で表せるような方式考えられないかな
モデルのハッシュはsha256になってかぶらなくなったんだろうか?
もしそうなのであれば、この1行さえコピペしてこのスクリプトに投入したら
モデルさえあればマージモデル再現できるよ、ってのができるといいな >>765
最近hn学習が学習設定をhnで保存して再度読み込みみたいなの出来るようになったしそういう感じのやれるとええな マージいじりまくって迷走してきたわ
結局一番エロい絵でNovelAI並みにプロンプトの言う事きかせやすいモデルはどれや…… >>770
すまん、仕事が忙しくて家のパソコン触れなかったんじゃ
これを機にマージしていいの出すからちょっとだけ待ってくれすまん ただ質感良いだけじゃなくてプロンプト効きやすくて複数人出せてgapeを隠し味に入れるとかなかなか狂ってるよな loraの学習モデルに使いやすいやつは結局どれなんやろ
なんか歯が崩れがちやから他のにしたほうがええんか CMからやったら行けたわ
初回セットアップまで終わったし今日は寝るわ extensionのrandomizeのリポジトリ消えてるんだけど理由知ってる人いない? >>765
昔あったMarge Boardみたいなアプローチやな。
人間に扱いやすいかは別としてjsonなら1行に出来るんでない? >>777
対応めんどいからやめちゃったのかもな。
フォークは見つけたけど動かんって言ってる人いたし。
ワイがforkしてもいいけど動かなかったときに直せるとは限らんので二の足を踏んでいる。 絵が崩れるLoRAを使うとき弱い強度で複数セットすると崩壊を回避出来る!!
……という夢を見た >>772
うおぉぉぉぉぉ生きてた嬉しい!!
時間掛かっても良いので完成待ってるぜ!! スーパーマージ使ってみたけどcreate_infotext() missing 1 required positional argument: 'comments'ってエラー出て使えなかった悲しみ SuperMergerに欲しい機能
・第一位 複数枚生成する機能
横軸はそのまま、縦軸でシードの違う複数枚を生成させてほしい。
一枚だけだと手や足が悪くてもシードがダメなだけという可能性がある
・第二位 睡眠時ガチャ機能
モデルとか数値をランダムで変えながら無限に生成しまくる機能
リアル系モデルフォルダからAに入れる、イラスト系モデルフォルダからBに入れるみたいなのがあると一番うれしい
・第三位 Png読み込んだらその設定のモデル書き出し機能
普通にうれしい ワッチョイ 3e3f-WvKS
わざわざお絵かきスレで描いた人煽ったのに相手にされてなくて草 >>782
また糞アフィが来てる
こいつGと嫌儲に自演で引用してたぞ
死んどけ >>777
sd-dynamic-promotsが上位互換だからそっち使ってくれって作者が書いてた気がするで 反応すんのもアレだけど転載で様子見に来た奴らに総意だと勘違いされたくないから言っとくわ
くたばれアフィガイジ本当に住人なら元々はなんGに立ってた絵師VSお絵描きAIの下らない対立煽りスレをワイらが乗っ取ってまともな流れにしたのも知ってる筈やぞ 直したって言ってるけどcfg間違ってる時の過学習絵になっとるで
スレ民ならAIの使い方覚えるまでもう一回ROMやな >>791
なんGにもお世話になってたで
別に荒しじゃなくて単にへたくそ絵描きが目障りだからi2iの練習台にしてるだけや
>>792
i2iを2回かましたんや もっときれいに出せるよう勉強するわ サンガツ 駄目やコイツ
これから本気でこのスレに居座って荒らすつもりだわ
お絵描きスレで対立煽り煽りしてるし他のスレからお客さん引っ張ってくる気満々だから皆も覚悟しとくんやで 見に行かなきゃいいだけやろ論理が破綻しとるわ
本当にここに居たとして荒れて情報共有が捗らなくなったらどうするつもりやねん
君は自称なだけでスレ民じゃないで 対立煽りだけして消える露骨過ぎるアフィ、との指摘を受けて気持ち程度の会話も織り交ぜ始めてて笑う
成長したなっ! mergeしてるとどれがエロでシコなのかわからなくなるよな
みんなはどう?
https://i.imgur.com/dGC1Xbz.jpg 向こうのスレも喜んでるみたいやし別にいいんじゃないか?
こっちも雑魚から感謝されてwinwinや >>801
7と2が好み
6は眼力が迫真過ぎてシコるより威圧される アホバカワイ草grassといれるべきところをglassとスペルミス
大自然の中でガラス錬成女を量産す
https://i.imgur.com/AM1hcE8.jpg >>801
0.2やな
タヌキ顔は他のモデルあるしな マージもセンスというかわずかな違いを感じ取ってどこがどう違うのか言語化する能力が必要なんよな >>619
この世代ってもはや定年間近やろ
まだ性欲あるもんなんやね ワイの亡くなった爺ちゃんは70過ぎてるのにパソコンの履歴エロ動画ばっかやったぞ >>806
ワイも手袋させようと思ってgloveのところを
globeって入れて
地球儀量産したから気持ちは分かるで >>815
はえ~
これからオカズの作り方も進化していくだろうしあやかりたいもんやな >>815
ヒェッ
ならワイも死ぬまでチンポ脳のままなんか
若い女が手に入らんのに性欲だけ残るとかつらすぎる ワイもロボ部に参加してみたんやで
女の子生成のときはあんなに忌避していた多指、多腕、多脚が
ロボ生成だとめっちゃうれしいサプライズになるのおもろかったで
やっぱ多脚ロボはええもんやな
https://i.imgur.com/cMNCurq.png
https://i.imgur.com/vChrqif.png
https://i.imgur.com/Rbpijam.png >>801
Twitterの外人エロコスプレイヤーに似てる >>825
モザイク掛けたらもうジェフにしか見えないwww SD2.x depthモデルにマージモデルが増えるかもな道がひらけた話がTwitterに出とるね >>819
この種の「サムネで見ると……」って感慨無量な懐かしさあるなぁ。 モザイク付けたせいで逆にグロ画像になってるじゃねえか! >>832
Depth-to-Imageモデルを学習なしで特定のドメインに適応させる とかいう話 https://aibooru.online/
こういう所に投稿する時の
呪文公開ってどうすればいいのでしょうか?
Prompt、Negative Prompt、Samplerとかの詳細設定
作った後分からないもので再確認方法あるのかなと なんか植物プロンプトいじってたらSM系の縛りが
安定して出せるようになったから共有するやで
https://majinai.art/i/n1SJSM7.webp >>837
AUTOMATIC1111使ってるなら、PNG Infoにpngファイル突っ込めば見れる。
設定で情報埋め込み切ってるなら無理だ。 >>839
ありがとうございます。
設定弄らないとダメかなと思いましたが
試しに入れてみたら情報でました 学習ってやっぱり高解像度でやると全然違うのかな
colab pro契約するかなぁ >>841
海外のアスカベンチ的なのは画像用意されててぶっ込むだけだから楽で良いんだよね~ >>842
ふたば見てると512×512より1024×1024の方が細かいアクセサリーとかちゃんと学習してくれるみたいに言ってるな >>844
そりゃまあそうだよな、サンガツ
でも1024×1024ってVRAM48GBくらい必要そう モデル一つ7Gあるとスーパーマージ重いなディスクの読み書きも頻繁にやってるしfp16にしたほうがええか とりあえずodysseyV2のFix版とWD1.4epoch2にDBしたモデルを🤗に上げといた
ttps://huggingface.co/okiba/NJ118/tree/main
説明書はこっち
ttps://mega.nz/file/vdYgTbAA#jbY7b8qyfEEQSVZvI59aGmbRm57m2COESTq3Ylbe2wo
出来は最近ので目が肥えてると正直・・・
とりあえずbad anatomyがスーパーウルトラとんでもないのだけなんとかなれば悪くないモデルだとは思った
まーじで手と足が簡単に増えるしズレるし消えるから最近のモデルは本当に凄いと感じる
サンプル
https://majinai.art/ja/i/_nk0Zdy
https://majinai.art/i/_nk0Zdy.webp なんとかなれば悪くないモデルだとは思った→なんとかなればWD1.4e2は悪くないモデルだとは思った
なんかWDは学習の追い込みを始めるみたいやし期待しとるで〜 >>847
それ頻繁だとすぐにSSDのテラバイト書き込み消費するんじゃないかな?
それとも、読み込みだけ? >>777
元作者のやつは動いとったんやけどgithubが404で行方不明(guiでの拡張機能更新が不可能)、
forkしてあった奴は動かん、
似たような韓国ニキの拡張機能は名前かぶりで消さんと入らんhttps://github.com/lilly1987/sd-random-extensions/
しかも大分機能が足りない すまん誰か天才おるか?
これなんとか性癖に改変して絵に出力させられんかな
チノちゃんが油圧プレス器でプレスされる動画なんやけど https://www.youtube.com/watch?v=3iN1Ty_jAEw >>850
モデルメモリに格納して計算してそうな動きだけどモデルがデカいとディスクに読みに行ってる感じ?素人やから分らん
軽いモデルの時と比較し直してみるわ >>848
サンガツ!
やっぱWD1.4ベースのモデルは構図に謎の自由さがあってよいわね アニメ系のモデルで効果あるかわからんけどNegMutationとかNegLowResで変わるか試してみたいわ chatGPT 有料枠作って欲しいわ
定員に達してるってなんやねん >>859
昨日辺りまでPro版のアンケートやってたで今は消えてるけど
幾らくらいならちょっと高いと思っても内容が良ければギリ入ってもいいかなと思いますか?
幾らくらいならまあ大した内容じゃなくても安いしいいかと思えますか?
実際のところ幾らくらいなら入りますか?
みたいな感じでやたら価格の探りが細かかった 公式NAIちゃん級のインパクトあるからなchatGPTは
月4000円でも入ってしまう自信あるわ 🤗にあるchatGPTのエクステンション使ってる人いる?
感想聞きたい paperspaceがいつの間にかCPUに切り替えられてて(しかもfreeじゃない奴)sd起動しねえなあなんでかなあという被害に初めて遭遇した
どこかで間違ってタップしちまったのかなあ (ChatGPTもリークされんかな……)
あれモデルの容量とんでもないんやっけ そもそも必要性能高過ぎて一般人のパソコンで動かせるような物じゃない定期 Googleがアラート出すくらいのシロモノだしなぁ ChatGPTがプロンプト構築に役立つのは
まあワイらが英語ネイティブじゃないだけだと思うけどそれ以外も便利だからねぇ
https://i.imgur.com/62jIJKi.jpg
デカすぎんだろ…後なんなんそのオーラ
低Scaleから偶然飛び出た謎エロの破壊力はたまんねぇな ChatGPTは殆どの言語から収集して変換するから日本語圏みたいな情報少ない言語圏の人からしたらかなりええんちゃうかなって思うわ
言語横断で集められるのがクソほど強い >>848
サンガツ
プロンプト詰め込み過ぎなんやろか何とも不思議な雰囲気になったわ
https://i.imgur.com/SSMSCJK.jpg ワイ3Dもやるんやがこの分野でもチャットちゃんはとんでもないチートツールだと思った
複雑な挙動をプログラムで実装したい時、数学が苦手でも相談すれば答えを教えてくれる
物理とか化学系、数学が必要になる分野ならなんでもいけそうやな
知識が少なくても「ああいうアレが欲しい」という無茶振りリクエストを投げるだけでヒントを与えてくれそうや
学生の宿題なんかも全部カンニングできるやろな Instruct-pix2pixをcolabコードにしたかったんだけど無能すぎてわからんご
condaインストールしてもダメみたいですね… これもう分かんねぇなぁ 知識問題はデタラメ言ってること多いから注意やで
キッズに普及したら手つけられなくなりそう よく知らんかつ間違ってても問題ないものなら有用かもしれんが
自分の専門のこと聞くととんでもないこと返してくるからそこは今後に期待屋根 プログラムは間違ってれば動かんしある意味セーフティが働いてはいるやな CGPT、今んところの印象はスーパー岡田斗司夫や
SF書くには役立ちそう >>875
キッズに浸透してるはちみつ大好きなあの動物問題もあるしな
世界視野でサービスしていくにはある国の国家主席を動物に例えるとP〇〇さんって答えるのはさすがにまずかろう
他にもまずい回答多いしな〜白紙、空席玉座、六四天安門事件
現代によみがえったヒトラーであの白人至上主義者が出てくるのはまだいいとして kritaに導入しようとしたら起動時にエラー出てkritaに入れたプラグイン無効にされるんだけど
kritaでi2iしてる人はどうやって動かしてるんや?
何か導入方法間違ってるのかな プロンプトの言うこと聞かんけど塗りが派手で面白い暴れ馬みたいなマージモデルできたわ
手指のディテールも甘くてガチャ必須だけど楽しい
majinai.art/i/S9BGpyv.webp ChatGPTそんなにやることあるか?
サービス開始から3日ぐらい遊んでそれっきりだわ sd scriptsでLora学習したいんやけどNo data found. Please verify argumentsって言われて学習できへんわ
フォルダのパスとかは合ってるはずなんやけどなぁ 今日見かけたモデル
7th_Layerをベースにかわいいアニメ系を目指しrealisticを抑えたマージモデル
huggingface.co/Hemlok/LonganMix
Anythingの作者によるヒトこもる学習モデル
huggingface.co/Linaqruf/hitokomoru-diffusion-v2
なんでもかんでも毛糸になるモデル
huggingface.co/plasmo/woolitize-768sd1-5 huggingface.co/Hemlok
はLonganMix以外にも
Anythingv4.5をベースにしたDateMix
AbyssOrangeMix2をベースにしたPlumMix
全く説明がない謎のLimeMix
も公開している 7th_anime_v1.1って性行為全般出にくい? 1.1は無印より出にくいが出る方
test系のが乱れる印象がある >>886
0 train images repeatingって出てるからそもそも画像自体読み込まれてないっぽい?
フォルダの指定が間違ってるのかな? >>864
日本時間2時くらいに定期メンテするって告知入ってたし
メンテで落とされたとかじゃね AOM2基準にLoRAの学習してるの多いからAOM2が1番反応するな
当たり前なんだがモデル変わるとLoRAの反応違うね >>894
解像度の設定が832, 832になってたのを832のみにしたら相変わらず同じえらーが出るけど、今度はxformersがインストールされてないとか言われるわ
もう意味不明や >>838
サンガツ、参考にさせてもらうで
ワイもprompt短くしたいと思ってたけどなかなか難しいねんな linaqrufはanythingをhuggingfaceに引っ張ってきただけで作者ちゃうやろ? 今更webui更新したけどデフォルトで読み込むVAEの設定って無くなった?
変わりすぎて困る >>894
エスパーコメントするけどファイルの指定は直接の指定じゃなくて一個手前じゃないとあかんで
例えばC\sd-scripts\sozai\gakusyuuyou\学習用画像群ならC\sd-scripts\sozai\gakusyuuyouじゃなくてC\sd-scripts\sozaiって指定せんとあかん
正則化画像が学習用と同一フォルダにあるなら一緒くたにされるから学習用画像と正則化画像はフォルダ分けせんとあかんで
ワイが引っかかったんはこれやけど関係ないんやったらすまん >>903
とりあえず読み込まれたわ!マジでサンガツ!
だけど結局ModuleNotFoundErrorでxformersがインストールされてないとかでエラー出るな🤔
なんか導入時にミスったかな? アニメ寄りのai絵作るのに一番適してるのは結局novelAIなんか?
midなんちゃらだのnijiなんちゃらだの種類がいろいろあってどれがええんか分からんわ >>904
そこはよーわからんなぁ
--mixed_precision="fp16" (bf16もあるけどbf16はやめといた方がいい)を指定してないぐらいやろか・・・
試しに--xformersを--mem_eff_attnにしてみるとか?(速度は落ちちゃうが) 階層マージに手を出してgapeの性器の部分だけbasilに混ぜたいんだけどどこの層いじればええんや? >>905
ミッドジャーニーはお洒落な絵を描くのに特化していてニジジャーニーはそこの会社が二次絵を描けるようにした奴
このスレではNovelAIのモデルって言う絵を描くのに必要なデータが流出したのを色々学習の元素材とかにして使い倒してる
WebサービスのNovelAIはアプデが滞っててもう殆ど使われてなくて最先端に着いていきたいならちゃんとしたグラボが必要
逆にグラボがあるなら無料でも始められるぞ >>906
あ~なんかMemory efficient attentionを有効にしたら動いたわ、結局なにが悪かったのか…
でもマジで助かったで、ビッグサンガツや
ただ学習自体は終わってないからまた報告するわ >>911
動いたならよかったわ
ワイはマニュアルを読むことしかできないから原因はサッパリやな! gapeくん未だに使われるし、素材としてちょっと有能すぎるくらいあるな
新モデル出てほしいけど作者分からんしな… hypernetworkしかやったことないからLoRAに興味あるわ
キャラや絵柄の再現性とか学習時間の長さとかはどんな感じや?
wikiに学習手順は載ってるけど実際に触ってる人の感想とかもっと聞きたいで >>910
はえー
Stableなんちゃらも無料らしいけど これともまた別なんよね? >>916
いや、ここの奴らが使ってるのがそのStable Diffusionや
PCは持っとるんか?それならhttps://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1を見れば導入出来るで
スマホとかしょぼいグラボのPCしか無いならNovelAIのwebサービスでええと思うけど 同じ服装を着せたいときってなんてプロンプトでいける?
前にスレで見た気がするんだが覚えてるニキおらんか?
same clothesとかgroup clothesはだめだった HNとLoRAの単純比較出来んけど使用感はLoRA>>HN
簡易DBのfine tuningだからHNみたいに別なネットワーク作る必要なくて効率的だと思う >>916
グラボがショボくてもクラウドサービスで始めることはできるで
課金コースのええマシンなら下手なグラボよりはるかにええし
ただ最近は無課金マシンがほぼ埋まってて無料お試しが気軽にできないのがネック lora使うときの学習率いくつにしてる?
海外の記事みて
1e-4と5e-5にしてる。悪くないけどもう少し再現率あげたい。。 >>914
thx ローポリ感が出るプロンプト研究してみる >>916
automatic1111を信じろ
google colabで動かせるからググって試せ
既に何いってるか分からんならwiki眺めるところからやな >>907
sd scriptsの問題とwebuiの問題って共通するんかな?
まぁ結局これやらないでも動きはしたんだけど、情報は助かるでサンガツ
そういやWebuiも最近git pullしたら挙動がおかしくなったな
ひたすらModuleNotFoundErrorが出て、出る度にpip install うんたらかんたらしてたら何とか動くようになったけど
その過程でGitHubのDreamboothのページも見たんやがなんか作者?がヘラってたわね
Dreamboothのせいで動かないとか言われまくったんやろな >>918
matching outfitで結構揃う気がする >>917,920,923
サンキューや
正直900割理解出来てないからwikiやらでお勉強するわ >>925
試してみたけど結構合うっぽい
サンガツ! WebuiでCFGとか他のパラメーターをランダム化できるgitが以下のはずなんだけど
https://github.com/stysmmaker/stable-diffusion-webui-randomize
すでに404なんだけど、誰かForkしたりForkのExtensionsを使ったりしてない?
Dynamic Promptと活用して寝てる間に量産したい >>928
randomizeの話は >>777 あたりでも出とるが、gradioやっけ? の新バージョン対応が面倒で投げたんちゃうかとか
forkも今後のUI変更追随とか考えたらまた動かんようになるかもしらんしなぁとかで作ってなさげなんちゃうか言われとるで >>912
学習無事に終わったわ
モデルの動作も確認できた、改めてサンガツやで~ >>207
超遅レスやけど、それやると
AttributeError: 'Dropdown' object has no attribute 'multiselect'
が出て起動せん……
これでググったらgradio古いと動かんから新しいのにしろって対処法のスレ出てくるんやけど
戻すと今度は同じ症状出て生成結果出ない状況になってまう
DREAMBOOTH入れてないんやけどなあ
いろいろ試してたけど結局直らずお手上げ気味や 最近ローカル始めたんやがbasilでリアル系ガチャると悉くノイズっぽいorソフトフォーカスみたいなのばっかり出てくるのはデフォなん?
ちなstep30~150変えても変化はない 安倍晋三の画像クリックしたらmajinaiつながらなくなっちゃった
これが安倍の呪いか... >>934
VAEは何使ってるんや?写真系はSD公式のが良えで >>933
それなら伝家の宝刀あたらしく立ち上げや
個別に不具合対応しようとして何時間も調べ事するくらいならそのほうが早い >>937
実はWEBUI入れ直しはここまでに2度やっとる
ローカルはなんも問題ないからpaperspaceの問題やと思うんやけど
ワイだけならワイに問題があるわけやからなあ……
とりあえずもう一度入れ直してきてみるわ WD14Taggerがwebuiに表示されないのなんで? >>940
ワイpaperspaceでとしあきwikiに乗ってるヴォルデモート使って立ち上げてるけど問題無いで
requirements_versions.txtも直接書き換えで生成プレビュー復活したし
safetensorsの読み込みとかextensionとか機能しないから勝手に書き足してるけどそれも特に不都合なし majinai落ちとるんか
前もメンテしてるときに思ったが管理者というか状況をアナウンスしてくれるような人はどっかにおるんか? いまどういう状況なんかを知りたいんやが >>940
知らんけど昔のバージョンに戻してみたら? まずそれが実在する客が確実に過学習で出ているのでなければ問題ないし、
仮に過学習気味だったとしても元の画像はインスタとかで公開されてるものだし、必ずしも問題だとも言えない chatGPT重いのか途中で止まること多いンゴねえ >>941
自己解決
TagEditerに同じ機能ついてたわ 他人の絵食わせてたか画像使って修正かがバレて炎上した人いたけどばれるもんなんだな
AIイベントか合同AI本出版とかの何か主催する気だったらしいけど >>947
サンガツ 無能ワイ、アカウントを見つけられへんかったわ… >>952
1つ1つは疑いの範囲でしかなかったけど、いくつもあったし火消しが下手くそだったからね
やるならもっと上手くやれば良いのにね sd_ScriptのLoRAで学習してる人、どういう設定でやってる?
STだと上手く出来たんだが、LoRAだと上手く学習出来ない
lora_train_command_lineの方でパラメータは基本デフォルトでやってる
学習枚数72枚、正則化3600枚、繰り返し回数10、num_epochs=200、unet_lr=1e-4なんだが、10epoch越えた辺りで重み1で過学習気味(しかも似てない)
何が悪いんだろうか? >>939
モンスターマッシュまぜればええんやない? 1111導入出来てるけどなんか慣れなくてずっとNMKD使ってる
出来ることの幅が増えるから慣れた方がいいんだろうけど >>118
プロンプト管理はワイも聞きたいわ
automatic1111のPNG infoで画像のプロンプトやら見ることができるけど、
これの逆引き的なタブでもあると便利なんやがなぁ プロンプト管理だったり、打ち込みを楽にしたいなぁと思う昨今
Backspaceでちまちま消す作業をなんとかしたい なんとなくgit pullしたらまたおかしくなってるな
ライブプレビューが更新されるたびにコマンドプロンプトにエラーが流れる
画像自体は生成できるからええけど >>955
繰り返し回数10×学習枚数72と
正則画像枚数は一致させる必要あるんで720にしないといかんのでは
それか繰り返し回数50にするか lora入れてみたけど自分のモデルと合わせて学習させなきゃ絵柄崩れてあかんな >>955
4chanの設定丸パクリでわりと上手く行ってるよ
何を学習したいかにもよるだろうけど i2iでの無断改変はバレた時点で依拠性と類似性と故意過失が立証されてしまうので
同一性保持やら盗用やら全部盛りになるんよな 無断転載なんかよりはるかにリスク高いで 最新版の1111だとプロンプトプリセットが若干使いやすくなってトークンの組合わせがやりやすくなってたで
まあオートコンプリート使えて強調表現とかを楽に入力できるエディタ欲しいな styleで管理するのはプロンプト自体を編集するのが若干だるいんよな
>>133のエディタがまだいきていればよかったんやが
他にエディタないんかな Loraはコンソールの時点で敷居高い
STに一時期実装されてたんだから正式対応してほしいわ 文字の予測変換機能をつけてほしい
プロンプトの管理が一番面倒まである (最近こことかmajinaiで見かけた可愛い女の子のprompt拝借して蔓巻き付けて抜いてるなんて言えねぇ) >>961
なるほど、正則化画像の枚数ってそうやって決めるのか
どっかで学習元画像の50倍必要とか見た記憶があったので、x50の3600枚にしてたんだわ
溢れる分には使われないだけらしいから、問題無い気もしてるが……
>>963
4chan見てないから知らないんだが、どこみたらいいかな? LoRA学習wikiのおかげでできるようになったけど完全にふいんきでやっとるわ
それなりに結果はでてるけど正則化画像も意味わからず透明画像つかっとるし
あれきっちり学習枚数X繰り返し枚数分いるんか?
うまくできてる人どういうやり方してるか詳しく知りたいわ 初めて中華ti使ったがくっそ楽だな
プロンプト入れるだけで使えるのがいいね >>968
promptの予測変換はBooru tag autocompletion使ってるわ 色々追えてないけど中華TIはキャラ再現目的で使ってるニキ多いんかな
中華TIはキャラ、4chLoraはシチュってイメージなんやけど 今はキャラも4chanのLoraだわ
主流モデルがAOM系統から変わったらまた別だが キャラ再現Loraも結構あるしLoraとTIの両刀でキャラ再現してるニキもおったな loraで学習してる人って背景どうやって透過しとるんや?
img2imgのabg removerで透過すると厳密には違う画像が出てくるし >>972
kohya が書いてる説明は読まないでやってるの? 日本語で書いてあるんだけどな……
https://github.com/kohya-ss/sd-scripts/blob/main/train_db_README-ja.md
> 1 epochのデータ数が「学習用画像の繰り返し回数×学習用画像の枚数」となります。正則化画像の枚数がそれより多いと、余った部分の正則化画像は使用されません。 PC購入で決済直前でふと思った
ウチモニター1台しかない
ミニタワーPCを新たに置く場所もなんとか捻出したくらいなのでモニター2台並べるなんていくらなんでも㍉
2台のPCを1台のモニターでという構成は可能なんだろうか
快適とは思えないが・・・
どちらかのPCを古いTVに繋ぐしかないか
ここの住人でAI用にPCを新たに追加した人はモニターも追加するのが当たり前なのかねやはり >>983
モニター側で入力ソースを切替えればいけるんちゃう
面倒くさそうやけど >>983
めんどくさいうえに出力される画像の解像度違うと切り替えの度にガビガビになったりすんだよなぁ >>983
スイッチャー噛ませるかテレビに出力
もしくは同LAN内からスマホかタブレットで生成 >>983
Linux使えればSSHでターミナル経由でリモートで操作できるし技術さえあればいらん >>983
PC両方使うことある?
ケーブル抜き差しすればええやん このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 1日 19時間 12分 5秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。