!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
英語ならそこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
日本語は、どう転んでもローカルで動かせる今の世代はオバカなので
そこは期待しすぎんといてな
自薦・他薦のモデルやツールは>>2以降
なんJLLM部 ★3
https://fate.5ch.net/test/read.cgi/liveuranus/1691639766/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
探検
なんJLLM部 ★4
■ このスレッドは過去ログ倉庫に格納されています
1今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6f66-0F6f)
2023/09/30(土) 08:32:45.60ID:wbO7dX6P0655今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (スッププ Sd33-86xv)
2023/11/03(金) 15:38:36.43ID:cL/9/bsxd そんなもんだよね
Macが異常なのよ
Macが異常なのよ
656今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b16e-zW/F)
2023/11/03(金) 15:43:23.03ID:a5LzWVFn0 実際のところ3060を4枚差しで70B動かしてるぜ~とかいう奴
ここにおるんか?
ここにおるんか?
657今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オイコラミネオ MMb5-+RJo)
2023/11/03(金) 15:51:22.52ID:WVf/ugtvM 3060を4枚フルスペックで動かす環境作るより3090買ったほうが安いから居ない
658今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b16e-zW/F)
2023/11/03(金) 16:02:09.37ID:a5LzWVFn0 3090が1枚じゃ24GBにしかなんないやん
量子化しても70Bをきちんと載せるにはきついのでは
まあ中古視野に入れれば3090x2と言うほど値段変わらんってのはあるんやろけど
量子化しても70Bをきちんと載せるにはきついのでは
まあ中古視野に入れれば3090x2と言うほど値段変わらんってのはあるんやろけど
659今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ebff-c8RC)
2023/11/03(金) 16:03:20.38ID:bEZWwm2z0 そういえばM3MAXがM2MAXよりメモリ帯域減ってるらしいから、LLMに関してはUltra出てもM2Ultraの方が速い可能性があるな
660今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b16e-zW/F)
2023/11/03(金) 16:08:46.96ID:a5LzWVFn0 3090中古みたいにM2Ultraの中古が狙い目になったりするやろか
まあ元がクッソ高いからなあ
まあ元がクッソ高いからなあ
661今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0b85-zW/F)
2023/11/03(金) 16:30:24.14ID:QhmDDqDc0 うーん、昨日からTheBloke/japanese-stablelm-instruct-beta-70B-GGUFの、Q5k_mで小説書かせてたんだけど
確かに日本語できるけど、なんかパッとしないって感じた。
それで、試しにQ6kを試したんだけど
なんか、別もんみたいにいい感じになったぞ。5ビットと6ビットでこんなに違うもんなのか?
スピードも大して変わららんし(遅いのは慣れたw)これからは、これで遊ぶわ
確かに日本語できるけど、なんかパッとしないって感じた。
それで、試しにQ6kを試したんだけど
なんか、別もんみたいにいい感じになったぞ。5ビットと6ビットでこんなに違うもんなのか?
スピードも大して変わららんし(遅いのは慣れたw)これからは、これで遊ぶわ
662今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オイコラミネオ MMb5-+RJo)
2023/11/03(金) 16:36:58.99ID:WVf/ugtvM663今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ebf0-g5YV)
2023/11/03(金) 16:49:51.83ID:81sqWzoc0 GPU2枚でも4枚でも電源を最低でも1000W以上にしないと動かないよね
664今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アウアウウー Sad5-sbsJ)
2023/11/03(金) 16:53:19.91ID:mYlc4G7Ea 電子レンジみたいなワット数…
665今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (スッププ Sd33-86xv)
2023/11/03(金) 16:54:30.40ID:cL/9/bsxd666今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0b85-zW/F)
2023/11/03(金) 17:10:45.54ID:QhmDDqDc0667今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (スッププ Sd33-86xv)
2023/11/03(金) 17:15:39.15ID:cL/9/bsxd サンクス
やってみる
やってみる
668今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0b38-CP9B)
2023/11/03(金) 18:51:14.17ID:uDlLD1Cq0 paperspace A100-80G Free
TheBloke_japanese-stablelm-instruct-beta-70B-AWQ
AutoAWQでno_inject_fused_attentionにチェック以外はデフォ
https://i.imgur.com/OKxnCKu.png
TheBloke_japanese-stablelm-instruct-beta-70B-AWQ
AutoAWQでno_inject_fused_attentionにチェック以外はデフォ
https://i.imgur.com/OKxnCKu.png
669今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b16e-zW/F)
2023/11/03(金) 18:54:56.72ID:a5LzWVFn0 Growthプランか
どれくらいの頻度で空いているかにもよるが
どれくらいの頻度で空いているかにもよるが
670今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b16e-zW/F)
2023/11/03(金) 19:06:19.45ID:a5LzWVFn0 しかし手数料とか入れるともう39$/月は6000円以上/月になるんか
円安め
円安め
671今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 4130-SIlQ)
2023/11/03(金) 23:27:20.98ID:J+046Nxh0672今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (スッププ Sd62-7hke)
2023/11/04(土) 09:57:01.20ID:oLGvIMpId 最近流行りのミニPC(N100/16GB)を入手したので試したけど13Bモデルはそれなりの速度で動くな
速くはないけどメイン機で33Bを動かすくらいの感じだ
速くはないけどメイン機で33Bを動かすくらいの感じだ
673今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c191-ZTan)
2023/11/04(土) 12:01:20.06ID:8v83eC5S0 Blokeニキへの依頼ってどこでやってんだ?calm2-7b-chatも依頼してくれると助かる
というか自前で量子化できるならしたいんだがllama.cppとか読んでもゴチャついててようわからん
というか自前で量子化できるならしたいんだがllama.cppとか読んでもゴチャついててようわからん
674今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ beb1-NnU0)
2023/11/04(土) 12:53:49.27ID:qe6/nEfr0 calm2-7bはmmnga版があるからやってくれないかもしれん
stockmarkもggfuだけやってないし
stockmarkもggfuだけやってないし
675今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6eb2-ZTan)
2023/11/04(土) 15:24:12.97ID:SsTRgNvr0 本家のサンプル書き換えでの4bit変換でも動かせてるで
プロンプトを4000文字ぐらい積んでもVRAM9GBとかでRTX3060でも速度は快適(16t/sぐらい?)や
プロンプトを積んで頭の悪さを軽減でけんかなぁと試行錯誤しとる
model = AutoModelForCausalLM.from_pretrained(
"cyberagent/calm2-7b", device_map="auto",
torch_dtype=torch.bfloat16, offload_folder="cache",
quantization_config=BitsAndBytesConfig(
load_in_4bit=True, bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True, bnb_4bit_quant_type="nf4"))
面倒なpip↓他は言われるがままに
pip install -q torch==2.0.1+cu118 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install bitsandbytes --prefer-binary --extra-index-url=https://jllllll.github.io/bitsandbytes-windows-webui
プロンプトを4000文字ぐらい積んでもVRAM9GBとかでRTX3060でも速度は快適(16t/sぐらい?)や
プロンプトを積んで頭の悪さを軽減でけんかなぁと試行錯誤しとる
model = AutoModelForCausalLM.from_pretrained(
"cyberagent/calm2-7b", device_map="auto",
torch_dtype=torch.bfloat16, offload_folder="cache",
quantization_config=BitsAndBytesConfig(
load_in_4bit=True, bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True, bnb_4bit_quant_type="nf4"))
面倒なpip↓他は言われるがままに
pip install -q torch==2.0.1+cu118 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install bitsandbytes --prefer-binary --extra-index-url=https://jllllll.github.io/bitsandbytes-windows-webui
676今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6d88-0SSA)
2023/11/04(土) 17:45:10.38ID:s1H5zN2w0 blokeニキのページに一瞬だけcalm2-7bが表示されたけど今見ると消えてるな
677今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オッペケ Srf1-TFsV)
2023/11/05(日) 10:42:16.61ID:KdiFs0xxr 実際japanese-stablelm-instruct-beta-70B-GGUFは出来映えどうよ?
678今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c2ab-TWA2)
2023/11/05(日) 11:34:03.93ID:JdlvN5EE0 日本語性能はダントツなのは間違いない
でも小説書かせるとちょっとぎこちない
で思ったんだがもしかしてyouriみたいに
baseモデルの方がいいってことあるかな
帰ったら7bで比べてみるわ
何も考えずinstract選んでたがvocabにもbaseにあててるやつあるしあるいは。。
でも小説書かせるとちょっとぎこちない
で思ったんだがもしかしてyouriみたいに
baseモデルの方がいいってことあるかな
帰ったら7bで比べてみるわ
何も考えずinstract選んでたがvocabにもbaseにあててるやつあるしあるいは。。
679今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b18c-ZTan)
2023/11/05(日) 11:37:02.68ID:RRfHZXQ30 問題になるのはいつだって動かす環境だ
新PCにできる金ほしーなー
新PCにできる金ほしーなー
680今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ e946-o2tv)
2023/11/05(日) 13:12:09.24ID:zA62lW/P0 >>677
日本語力は高いけどGPT3.5と一緒でハピエン厨
日本語力は高いけどGPT3.5と一緒でハピエン厨
681今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c2ab-TWA2)
2023/11/05(日) 13:32:50.60ID:JdlvN5EE0682今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ e97b-7hke)
2023/11/05(日) 13:36:20.96ID:vKRy5vKh0 文体や口調が一定しなかったり相手の呼び方がコロコロ変わったりもするな
まあこれはGPT3.5でもよくあってGPT4でやっと安定した問題だから日本語の難しさでもある
まあこれはGPT3.5でもよくあってGPT4でやっと安定した問題だから日本語の難しさでもある
683今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ e946-o2tv)
2023/11/05(日) 13:36:57.75ID:zA62lW/P0684今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ e97b-7hke)
2023/11/05(日) 13:38:58.64ID:vKRy5vKh0 ところでKoboldがバージョンアップして過去のトークンの読み込み方が大きく変わったぽい
設定の保持がかなり改善されそうだけど果たして
設定の保持がかなり改善されそうだけど果たして
685今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be1a-vKtJ)
2023/11/05(日) 13:58:35.55ID:4lxFqlRs0 1文字1token言語だから記憶力不足に悩まされる問題は数年レベルでは解決されそうにないがそこはもうむしろ云万token積もうが混乱しなくなる方向性の進化のほうがまだ期待出来るのかもしれない
686今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8154-sdYh)
2023/11/05(日) 14:03:45.02ID:ulMix7AZ0 英語だけどOpenHermes-2.5-Mistral-7Bは悪くないな
Mistral-7B-OpenOrcaより面白いこと言ってくる気がする
Mistral-7B-OpenOrcaより面白いこと言ってくる気がする
687今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b18c-ZTan)
2023/11/05(日) 14:07:48.10ID:RRfHZXQ30 英語だとよっぽどのことやらせようとしない限りはpoeのChatGPTで
結構がんばってくれるからなあ
どうしても年齢明記したいんや! って奴にはささらないし、
ローカルには好き放題書き換え可能のメリットが常に存在するが
結構がんばってくれるからなあ
どうしても年齢明記したいんや! って奴にはささらないし、
ローカルには好き放題書き換え可能のメリットが常に存在するが
688今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be88-NnU0)
2023/11/05(日) 17:52:12.03ID:bPJsnQ7k0 vocab-7b-base とvocab-7b-instrct版試したけど、mmnga版のせいなのかどうかは不明だけど両方不安定でいまいち確証できなかった。
でもyouriの例もあるし、気になるから、こっちもニキに依頼したわ
stabilityai/japanese-stablelm-base-beta-70b
でもyouriの例もあるし、気になるから、こっちもニキに依頼したわ
stabilityai/japanese-stablelm-base-beta-70b
689今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ e97b-7hke)
2023/11/05(日) 18:00:55.57ID:vKRy5vKh0 モモンガは何度かアップロードし直されてからやっとまともに動作するのがデフォなんだよな…
690今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be88-NnU0)
2023/11/05(日) 19:24:31.84ID:bPJsnQ7k0 量子化って手順通りにやれば誰でも同じになるんじゃないのかな?
このスレで自前でやってる人は普通に動いてるのに、なんでmmnga氏のは変なんだろ
このスレで自前でやってる人は普通に動いてるのに、なんでmmnga氏のは変なんだろ
691今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ a237-ubk5)
2023/11/05(日) 23:33:09.02ID:XSOwq2p70 元モデルが、たとえばGGUFに変換して使用することを想定してなくて、GGUFのフォーマットに沿ってない設定が使われていると、ただ変換しただけのmmnga氏版が壊れる。
TheBloke氏の場合、アップ前にも動作検証してるっぽいし、軽微な場合は修正してから変換してるっぽいので、時には元モデルとは異なるプロンプトテンプレートが推奨されていたりもする。
両氏が同一モデルを変換してるとき、GGUFの起動ログを見てると差異が生じてる場合があるのよ。
TheBloke氏の場合、アップ前にも動作検証してるっぽいし、軽微な場合は修正してから変換してるっぽいので、時には元モデルとは異なるプロンプトテンプレートが推奨されていたりもする。
両氏が同一モデルを変換してるとき、GGUFの起動ログを見てると差異が生じてる場合があるのよ。
692今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be88-ubk5)
2023/11/05(日) 23:41:07.81ID:bPJsnQ7k0 なるほど
自前でやるにしても特殊なノウハウが必要なのね。
やはりニキは偉大だ
自前でやるにしても特殊なノウハウが必要なのね。
やはりニキは偉大だ
693今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c678-0SSA)
2023/11/06(月) 02:49:04.79ID:9Kx+w4e/0 あんまり話題になってないけど、英語で使う分には Xwin-LM-13B-v0.2 は13Bの割りに性能高い気がする。
的外れな出力が少ない気がするし、変な繰り返しもあんまり出ない。
Nethena-MLewd-Xwin-23B もやや得手不得手がある感じはしたけど悪くない感じ。
使い方は会話というよりは物語生成。(Present the story/scene/conversation〜みたいな指示する。)
的外れな出力が少ない気がするし、変な繰り返しもあんまり出ない。
Nethena-MLewd-Xwin-23B もやや得手不得手がある感じはしたけど悪くない感じ。
使い方は会話というよりは物語生成。(Present the story/scene/conversation〜みたいな指示する。)
694今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6e01-rPix)
2023/11/06(月) 04:12:38.94ID:g6ARzo590 japanese-stablelm-instruct-beta-70B-GPTQ
やればできる子なんだけど、なかなか指示どうりに動いてくれないな
書き直してと言ったら書き直すんだけど、指示した部分を直してくれなかったり、
指示の仕方が悪いのかな
やればできる子なんだけど、なかなか指示どうりに動いてくれないな
書き直してと言ったら書き直すんだけど、指示した部分を直してくれなかったり、
指示の仕方が悪いのかな
695今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ e97b-7hke)
2023/11/06(月) 06:19:18.95ID:LzIFQ6hL0 >>693
Nethena-MLewd-Xwin-23B は自分も気に入って使ってるよ
描写力あるし展開も豊かでかなりエロいし23Bだから出力速度も速い
普段使いにはバランスがすごくいいと思う
最近はこれを中心に使ってる
Nethena-MLewd-Xwin-23B は自分も気に入って使ってるよ
描写力あるし展開も豊かでかなりエロいし23Bだから出力速度も速い
普段使いにはバランスがすごくいいと思う
最近はこれを中心に使ってる
696今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 62e7-IVPM)
2023/11/06(月) 07:18:50.34ID:C1YZhqjA0697今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0677-TWA2)
2023/11/06(月) 07:50:38.05ID:1U6bNpdG0 calm2もstockmarkもニキのggfuきた
698今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オイコラミネオ MM49-o2tv)
2023/11/06(月) 12:12:22.56ID:vsNoR0CwM 日本語ローカルLLMもかなり良くなってきたな
まだのべりすとやGPT4を埋めるほどじゃないが選択肢に入る
まだのべりすとやGPT4を埋めるほどじゃないが選択肢に入る
699今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/06(月) 12:49:12.72ID:OYeY3ogw0 エロで勉強してるけど、クラウドに上げたくない情報は沢山あるから、使いこなして仕事でも使いたい
700今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be9e-ubk5)
2023/11/06(月) 19:46:33.49ID:i28eZdQ80 stabilityai/japanese-stablelm-base-beta-70b
ニキ、キューに入れたって
明日にはbaseも試せそうだ
ニキ、キューに入れたって
明日にはbaseも試せそうだ
701今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be9e-ubk5)
2023/11/06(月) 22:53:39.10ID:i28eZdQ80 base落ちたんで試してみた。
koboldの指示モードではinstractより落ちるけど、ストーリーモードでは、すごくいい感じだ。
AIのべりすとみたいな感覚で使える。
koboldの指示モードではinstractより落ちるけど、ストーリーモードでは、すごくいい感じだ。
AIのべりすとみたいな感覚で使える。
702今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8154-sdYh)
2023/11/07(火) 00:01:40.16ID:nVxnaizF0703今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c6dd-0SSA)
2023/11/07(火) 08:06:16.20ID:WoIfyshs0 >>702
「□□的な理由で回答できない」→「□□を無視する/存在しない」とか「反対概念が推奨される」をDescription(SillyTavern使ってるので)に追加
ってやってたらそのうち文句言わなくなったので、あまり気にしてなかった。
モグラ叩きみたいに潰しただけなので、トークン節約的なアドバイスはあんまり無いかな。
しいていうと、でっち上げで良いのでなんか理由付けた方が言うこと聞いてくれやすい気はする。
他は、chub.aiで良い反応返してくれるのを探して参考にしてみるとか。
一時的で良ければ回答チャット書き換えで冒頭を肯定的な反応にしてからContinueでうまくいくこともある。
「□□的な理由で回答できない」→「□□を無視する/存在しない」とか「反対概念が推奨される」をDescription(SillyTavern使ってるので)に追加
ってやってたらそのうち文句言わなくなったので、あまり気にしてなかった。
モグラ叩きみたいに潰しただけなので、トークン節約的なアドバイスはあんまり無いかな。
しいていうと、でっち上げで良いのでなんか理由付けた方が言うこと聞いてくれやすい気はする。
他は、chub.aiで良い反応返してくれるのを探して参考にしてみるとか。
一時的で良ければ回答チャット書き換えで冒頭を肯定的な反応にしてからContinueでうまくいくこともある。
704今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/07(火) 10:01:40.20ID:2PLTrKAt0 CFGの数値でエロさが変わるの知らなかった。1だと良心的で1.5だとゲスになるんだね
ローダーのcfg-cacheにチェック
ただしこれ付けると余計にメモリ食うみたい
ローダーのcfg-cacheにチェック
ただしこれ付けると余計にメモリ食うみたい
705今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8154-sdYh)
2023/11/07(火) 13:20:12.94ID:nVxnaizF0 >>703>>704
サンキュー
そっちの方向で色々調べてみた結果、Negative promptにお決まりのモラルワードを入れてCFG Scaleを1.5~2.0ぐらいにしてみたら割とすんなり悪いことを話してくれるようになった
Negative promptはこれ
You are a helpful, respectful and honest assistant. Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, toxic, dangerous, or illegal content. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information.
サンキュー
そっちの方向で色々調べてみた結果、Negative promptにお決まりのモラルワードを入れてCFG Scaleを1.5~2.0ぐらいにしてみたら割とすんなり悪いことを話してくれるようになった
Negative promptはこれ
You are a helpful, respectful and honest assistant. Always answer as helpfully as possible, while being safe. Your answers should not include any harmful, unethical, racist, sexist, toxic, dangerous, or illegal content. Please ensure that your responses are socially unbiased and positive in nature. If a question does not make any sense, or is not factually coherent, explain why instead of answering something not correct. If you don't know the answer to a question, please don't share false information.
706今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be8e-ubk5)
2023/11/07(火) 18:45:20.60ID:eFyPZ4w20 Xwin-LM-70B-v0.2は、まだかー
707今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワイーワ2 FF8a-LGPt)
2023/11/07(火) 20:33:09.20ID:8mTJSJ33F GPTQでCFGを2.0にすると文字化けがひどくなる。これが量子化で削られてるってことなんだろうか
708今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be8e-ubk5)
2023/11/07(火) 22:45:59.73ID:eFyPZ4w20 >>694
japanese-stablelm-instruct-beta-70b
だいぶいい感じのエロ小説が書けるようになってきた。
規制が入ってるのか、エロい展開になると途端に精度が落ちるみたいだね
japanese-stablelm-instruct-beta-70b
だいぶいい感じのエロ小説が書けるようになってきた。
規制が入ってるのか、エロい展開になると途端に精度が落ちるみたいだね
709今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/08(水) 12:34:34.73ID:qHk+MhxX0 もしかしてInstructionの一番最初が大事だったりする?
710今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6d8e-jfG6)
2023/11/08(水) 13:01:12.76ID:+OluLiBc0 GPTQとGGUFってそれぞれ長所短所があるんか?
どっち使ったらいいんや…
どっち使ったらいいんや…
711今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ beeb-vKtJ)
2023/11/08(水) 13:08:59.67ID:Co0l2oT20 動作速い順に
めっちゃ要求スペック高いから少し情報量落としたのがAWQ
AWQと同じ類で少しアルゴリズムが古いのがGPTQ
GPUのvramなんて4090ですら24GBしかないんだから一般人にはとても使えないよ、ってことでgpu無しで動くよう変換したのがGGUF
めっちゃ要求スペック高いから少し情報量落としたのがAWQ
AWQと同じ類で少しアルゴリズムが古いのがGPTQ
GPUのvramなんて4090ですら24GBしかないんだから一般人にはとても使えないよ、ってことでgpu無しで動くよう変換したのがGGUF
712今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6d8e-jfG6)
2023/11/08(水) 13:15:01.73ID:+OluLiBc0 >>711解説サンクス
713今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6d8e-jfG6)
2023/11/08(水) 14:32:32.02ID:+OluLiBc0 ちなみにjapanese-stablelm-instruct-beta-70bのGGUF動かしてる人はメモリいくら積んでるんやろか?
参考にしたい
参考にしたい
714今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/08(水) 14:43:32.77ID:qHk+MhxX0 DRAMは128GB、VRAMは48GB(3060x4)で動かしてる、GGUFでもGPTQでもどちらでも動かせるけど
GGUFは激おそだからほとんど使わない
一度CFG2.0でGGUF試してみるかな
GGUFは激おそだからほとんど使わない
一度CFG2.0でGGUF試してみるかな
715今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be6a-ubk5)
2023/11/08(水) 14:51:35.81ID:hrbQxLFE0716今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/08(水) 14:59:52.56ID:qHk+MhxX0 基本大葉
717今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6d8e-jfG6)
2023/11/08(水) 17:53:56.83ID:+OluLiBc0 >>714>>715サンクス
DRAM48GBじゃちょっと辛そうですね…
DRAM48GBじゃちょっと辛そうですね…
718今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be6a-ubk5)
2023/11/08(水) 17:57:11.12ID:hrbQxLFE0 >>717
Q4_K_Mってついてるやつなら、48Gでも動くよ
Q4_K_Mってついてるやつなら、48Gでも動くよ
719今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6e1d-IVPM)
2023/11/08(水) 21:46:51.49ID:RFVz0gDO0 GGUFでもVRAMにモデル乗るでしょ
乗るだけ乗せたらCPUだけで動かすより断然早いよ
乗るだけ乗せたらCPUだけで動かすより断然早いよ
720今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-9NWm)
2023/11/08(水) 21:53:29.68ID:qHk+MhxX0 期待させるようなこと言うなよ、全然遅い
721今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ be6a-ubk5)
2023/11/08(水) 22:21:13.65ID:hrbQxLFE0 うん。気休め程度ですな。
基本、70Bをkoboldで動かすときは、他になにかしながらか、飯の間実行させとくとかがいい。
基本、70Bをkoboldで動かすときは、他になにかしながらか、飯の間実行させとくとかがいい。
722今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7930-UsSG)
2023/11/08(水) 22:59:23.32ID:zdEwErrk0 >>720
何t/sくらい?
何t/sくらい?
723今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ed91-ZTan)
2023/11/09(木) 00:24:30.33ID:dm9RbDCg0 oobaに↓の拡張を入れたら生テキストでLoRA学習できた。
https://github.com/FartyPants/Training_PRO/tree/main
ただjapanese-stablelm-instruct-gamma-7bのエロ表現を改善しようとWebのエロ小説を学習させてLoRA作ったんだけど明らかに馬鹿になってて使い物にならない。
7bモデルじゃやっぱり限界だろうか。それ以上だとVRAMがきついなぁ。
単純にデータセットや学習パラメータが悪いのかもしれないが。
https://github.com/FartyPants/Training_PRO/tree/main
ただjapanese-stablelm-instruct-gamma-7bのエロ表現を改善しようとWebのエロ小説を学習させてLoRA作ったんだけど明らかに馬鹿になってて使い物にならない。
7bモデルじゃやっぱり限界だろうか。それ以上だとVRAMがきついなぁ。
単純にデータセットや学習パラメータが悪いのかもしれないが。
724今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c17b-ZTan)
2023/11/09(木) 01:37:54.25ID:wlD/lhxA0725今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 71b2-ZTan)
2023/11/09(木) 03:24:43.77ID:D6lk42/W0726今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 22c5-rw+H)
2023/11/09(木) 04:32:36.66ID:e9PtDwxt0 LLMだとdreamboothに相当する追加学習法ないんのん?
727今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-9NWm)
2023/11/09(木) 06:59:25.23ID:EfWNFInn0728今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8291-3Voz)
2023/11/09(木) 07:35:49.54ID:wUDt2gCv0 ここでマルチGPU使ってるニキいたと思うけど設定教えてくれんか?
koboldcppはそもそもマルチ対応してなくてoobaでやってるが、2台目を全然使ってくれない
koboldcppはそもそもマルチ対応してなくてoobaでやってるが、2台目を全然使ってくれない
729今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワイーワ2 FF8a-LGPt)
2023/11/09(木) 07:44:42.76ID:NsIho0sTF >>728
ローダー何使ってますか
ローダー何使ってますか
730今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c288-08Er)
2023/11/09(木) 08:21:41.49ID:5rNlOaBo0 koboldcppも、gpuをどれ使うとか按分とかの設定があった気がする
731今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8291-3Voz)
2023/11/09(木) 08:54:07.57ID:wUDt2gCv0 >729
>730
すまん、自決しました
そもそもハードウェアドライバーが不具合起こして使えなかっただけだった
ドライバー入れ直したら認識されてkoboldでもマルチGPUで行けるようになったわ!
4090+3090で70Bがストレス無く動くようになったのが嬉しい
>730
すまん、自決しました
そもそもハードウェアドライバーが不具合起こして使えなかっただけだった
ドライバー入れ直したら認識されてkoboldでもマルチGPUで行けるようになったわ!
4090+3090で70Bがストレス無く動くようになったのが嬉しい
732今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 09b6-prjf)
2023/11/09(木) 09:01:53.09ID:mqvTWwXy0 変態がおおすぎやしないか
733今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6e43-7hke)
2023/11/09(木) 09:26:01.25ID:nCtO3wgB0 4090+3090ってすげえなあ
合計で50万円超えてるんじゃ?
合計で50万円超えてるんじゃ?
734今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/09(木) 09:33:37.04ID:EfWNFInn0 koboldcpp.exeが読み込めるモデルって決まっているんですか?落ちちゃうんですが
735今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 09:37:22.99ID:/hQk+AI80 こいつすげえ変態だぜ?
736今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ed91-ZTan)
2023/11/09(木) 09:38:59.19ID:dm9RbDCg0737今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 09:51:36.19ID:/hQk+AI80 このスレが活発になり始めてから(りんなの3.6Bが出たあたり?)
ちゃんとした成功例が一度も報告されてへんのよな
ちゃんとした成功例が一度も報告されてへんのよな
738今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 19a0-TWA2)
2023/11/09(木) 09:55:35.67ID:lrMz7h6H0 >>734
どのモデルが落ちる?
どのモデルが落ちる?
739今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/09(木) 11:22:56.33ID:EfWNFInn0 >>738
koboldcpp.exeで
japanese-stablelm-instruct-beta-70B-GPTQのmodel.safetensorsを指定して
Launchを押すと落ちちゃいます。
koboldcpp.exeで
japanese-stablelm-instruct-beta-70B-GPTQのmodel.safetensorsを指定して
Launchを押すと落ちちゃいます。
740今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 19a0-TWA2)
2023/11/09(木) 11:58:55.18ID:lrMz7h6H0 ggfuを読み込むんだ
koboldはggmlとggfu専用
koboldはggmlとggfu専用
741今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 19a0-TWA2)
2023/11/09(木) 11:59:36.68ID:lrMz7h6H0 ミス
ggufね
ggufね
742今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 12:02:14.03ID:/hQk+AI80 あとメモリは64GB積んでおけよ
743今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/09(木) 12:36:58.48ID:EfWNFInn0 小説書かせるためのInstructionテンプレートってあるんですか?
744今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6e43-7hke)
2023/11/09(木) 12:49:44.51ID:nCtO3wgB0 >>743
次々質問する前に質問への回答にちゃんと反応したほうがいいぞ
次々質問する前に質問への回答にちゃんと反応したほうがいいぞ
745今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 12:50:48.91ID:/hQk+AI80 まあLoRA作るほどの段階にないことは確定的に明らか
746今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2ef0-sdYh)
2023/11/09(木) 12:54:39.31ID:EfWNFInn0747今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 19a0-TWA2)
2023/11/09(木) 13:42:58.89ID:lrMz7h6H0 >>746
4Qk_m以上にしないとアホになるから注意な
4Qk_m以上にしないとアホになるから注意な
748今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c288-So5V)
2023/11/09(木) 16:08:48.05ID:YAYU8sLK0 >>737
これ何回も言ってる人いるけどinstruction tuningならいくらでも成功例あるだろ
これ何回も言ってる人いるけどinstruction tuningならいくらでも成功例あるだろ
749今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 16:17:52.75ID:/hQk+AI80750今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 16:19:04.94ID:/hQk+AI80 逆になぜかりんな2Bだかの時代のスレでは
えちえちりんなの出力結果晒している人がいたのよな
エロ小説だかエロチャットだかエロゲテキストだかで
学習させたとか言っていた気がするが・・・
えちえちりんなの出力結果晒している人がいたのよな
エロ小説だかエロチャットだかエロゲテキストだかで
学習させたとか言っていた気がするが・・・
751今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 71b2-ZTan)
2023/11/09(木) 16:21:15.72ID:D6lk42/W0 >>736
lora以前にチャットモードで会話がループする事もあるぐらいだし
俺は悪文を読ませないように国語の勉強とか始めたわ
文章の美的感覚がなけりゃloraでクォリティUP以前の問題になる
画像でも雑に素材入れると余計な物を学習する事が多い
素材の選定や加工はやらざる得ないと思う
lora以前にチャットモードで会話がループする事もあるぐらいだし
俺は悪文を読ませないように国語の勉強とか始めたわ
文章の美的感覚がなけりゃloraでクォリティUP以前の問題になる
画像でも雑に素材入れると余計な物を学習する事が多い
素材の選定や加工はやらざる得ないと思う
752今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b109-ZTan)
2023/11/09(木) 17:03:53.94ID:/hQk+AI80 理屈上はそうなんやけど画像と比べて食わせないといけないデータが
大量に必要な気がしてなあ
多少文法破綻しててもエロい文章はあるし、その辺はできる範囲でって
感じでええんちゃうかな
大量に必要な気がしてなあ
多少文法破綻しててもエロい文章はあるし、その辺はできる範囲でって
感じでええんちゃうかな
753今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オッペケ Srf1-TFsV)
2023/11/09(木) 20:30:09.83ID:cfMiaCGlr 大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場 - GIGAZINE
https://gigazine.net/news/20231109-punica-lora-for-llm/
https://gigazine.net/news/20231109-punica-lora-for-llm/
754今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b21d-7hke)
2023/11/09(木) 21:39:16.66ID:eAFySZLP0 「勝者はMeta」
やはりオープンソースはっょぃ
やはりオープンソースはっょぃ
■ このスレッドは過去ログ倉庫に格納されています
ニュース
- 【フジ】中居正広氏の代理人弁護士が第三者委員会報告に反論「性暴力の実態は確認できず」★4 [Ailuropoda melanoleuca★]
- 【フジ】中居正広氏の代理人弁護士が第三者委員会報告に反論「性暴力の実態は確認できず」★3 [Ailuropoda melanoleuca★]
- 日産自動車 追加で1万人超の人員削減へ [首都圏の虎★]
- 【田中圭との不倫報道】《憔悴の近影》永野芽郁、頬がこけ、目元を腫らして…移動時には“厳戒態勢”「事務所車までダッシュ」★2 [Ailuropoda melanoleuca★]
- 【ゲーム】「余命宣告を受けた息子の為に“Switch2”を優先的に買わせて欲しい」母親が任天堂に直談判した結果… ★3 [ネギうどん★]
- 「『性暴力』という言葉が一人歩き」中居正広氏側が指摘したWHOが示す定義 日本語の響きとの違いとは [ひかり★]
- 【実況】博衣こよりのえちえち一条莉々華生誕祭ライブ2026🧪🌃
- 【悲報】トランプ「薬価が59%引き下げられる! ガソリン、エネルギー、食料品、その他すべてのコストが下がる。 インフレにならない! [733893279]
- 【実況】博衣こよりのえちえち一条莉々華生誕祭ライブ2025🧪🌃
- 【速報】次のiPhone 値上げ [382895459]
- 【悲報】急に筋トレを始めるおっさん、「筋トレ中年おじさん」、社会問題にwwwwwwwwwwwwww [308389511]
- 中居正広、反撃開始。フジ第三者委の報告書に反論 性暴力認定は「問題」 証拠を出せ [838442844]