なんJNVA部★193
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
よくある質問・呪文集: https://seesaawiki.jp/nai_ch/d/
danbooru謹製タグ辞典: https://danbooru.donmai.us/posts?tags=tag_groups
ここの画像を勝手に転載するのは無能のやることやで
スレ立てのときは上の!extend::vvvvv:1000:512を3行ぐらいに増やしてな
避難所 なんJNVA部★防弾U
http://sannan.nl/test/read.cgi/liveuranus/1679606639/
※前スレ
なんJNVA部★192
https://fate.5ch.net/test/read.cgi/liveuranus/1682266762/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured >>951
設定詰めるしかないな
省メモリとか解像度とか色々すればvram6GB以下に出来たはず
拡張機能でなくsd-scripts単体だけで動かせば行ける >>951
AdamW8bit
gradient checkpoint
batchsize=1 or 2
あたりは? >>943
寸法169mmのTDP70W……? 値段次第ではケース狭い民の救いになりそうやが >>951
もし本当に解決したいのなら学習のオプションをスクショなりテキストなりで丸ごと載せるしかないで
探り合いしても時間が無駄になるだけや ケース狭い民じゃないなら4080・4090・3090中古でいいってことになりそうだなあ 4090で快適なAI生成したいと思ってBTO覗いてみたけどカスタマイズ込みで見積90万超えてしまった
欲しいけど高いよ
分割で買うか迷う所だわ >>943
確か処理速度は3070並みとかいう話だったとおもうし、それで20万越えなら4080で良いかな感は否定出来ない
まぁ夏場には優しいワッパなのはすてきだが 業務用やから下手したら20万とかするかもわからん
そもそもTGP70Wとかじゃ演算速度遅くてしゃーないやろ
70WじゃAdaとはいえほぼ間違いなく3060より遅い データセンターには良いんだろうが個人なら4090の方がいい >>959
自作抵抗無いなら4090を26万から計算してみたらどうや >>959
カスタマイズするなら自作でいいよ
旧ryzen5000クラスでGPU以外10万以内+4090の24万でええやろ 正直AI画像生成特化だけなら、50万ベースで十分組めそうには思えるけどな
よく4090はcpuボトルネックとは聞くけど、逆を言えばcpuのボトルネックさえクリアできたら、あとは適当にRAM64GBぐらい積んでストレージ気にするぐらいに思える 40~45万くらいでいけるんじゃね?
ただその金額を払えるかは別問題
自分は3060を5万で買うかどうか決断するのに半年かけたからな >>940
どっちでもいいけど、pythonとgitくらいインスコしても罰は当たらないぞ、めちゃ簡単だし
俺は最初不要版で入れたけど、なんかエラーや変なことがあるたびにこれのせいじゃないかと思ったり(多分違う)、今後もAI業界に触れていきたいという思いからインスコし直した >>969
顔だけ勝手にディティール修正してくれるってことか 俺が今買おうかと悩んでるのは色々いじって4090のCPU13700kでm2の1TB(Cドライブ)と2TB2個積んでメモリDDR5の64GBで55万円だなー ワイも最初仮想環境最強でしょwとか思いながらdocker版入れたけど結局生環境に入れ直したわ
やっぱ"生"が一番やぞ AI目的ならCPUはいくらでも削れるでしょ
逆に90万の構成が気になるわ 学習あんまやらんからわからんけど推論では確かにCPU全然使ってねーな AIしかやらんわけでもないだろうからある程度のもん載せるに超したことはないやろけど
ミドルレンジのでええとは思う わかる
やっぱり"生"がいい
まあwslじゃなくlinuxホストのdockerなら生でも包まれてても体感的な差は無いとは思うけど ミドル~ミドルハイくらい積んでおけばゲームでも苦労せんしね radeonなら24GBが16万やで
AI方面に対応してくれたらなぁ… モデルマージとかやりまくるのであればSuperMergerでメモリ上にモデル置いたりしたいから
16GBじゃ心もとないから32GBくらいほしいなとか、
モデル読み書きを早く終わらせるためにSSDはNVME必須とか
CPUよりもそっちのが重要な気がする しかしLinuxにしちゃうとゲームやりたくなったらいちいちデュアルブートですか?ってのがダルい…
H100とかより手軽に手出し出来る民間用のai特化が欲しい
レイトレ様チップとか全く無くてcudaコアとvramだけに全特化したやつ >>982
対応してないから安い、という見方もあるかもしれなくもなくはない 今もメモリ安いし最初から64GB積んでもいいかもね
CPUは3万くらいのでいいよ GWの為に自分の出来る限りのローカル環境は準備した
あとはひたすら生成するのみ……‥っ! 4090は自分には高すぎるから3090使ってるけど、loraとかモリモリするとやっぱ生成に時間かかるけど、割り切ってるわ
問題はアツアツになりすぎる事だ
TDP70%にしてるけど、それでもあつあつ
4090とかは50度もいかないって聞いた 自作やった事ないから自作不安なんですよね
後で拡張とかを少なくする為に盛りに盛ったからかもしれない 自作でマザボの差し込み口が、物理的に外れたときの「ざわざわっ」感はスリリングで楽しいぞ!(なお、もう二度と体感したくない模様 ワイもBTOで頼んでメモリぐらいは変えた事があっただけだけど、SDにハマってもうケース以外は変えた
以外と雑にやっても壊れないよ、動かない時はあるけど メモリはかなり食ってるよね
グラボのメモリパンパンにするぐらいなんだから当然なんだけど
グラボの2倍はメモリ用意したいところ >>983
NVMeにモデル置くのは切り替え頻繁にするときはホント効果実感するわ
ほとんど10秒以内、大体は数秒で読めて快適すぎる
>>988
買うなら早めにやな 言われてみるとメモリ32GBだと不安になってきたなあ
フォトショとかも他に起動しているし >>990
パワリミ70%だと生成途中エラー出ない?
自分は75~80%にしてる >>997
すまん、分かってる風に書いたけど、TDPじゃなくてパワーリミットってのを70にしてる
これがTDPかはしらない・・・
結構真っ黒でるのはこのせいなんかな このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 2日 5時間 23分 35秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。