X



なんJLLM部 ★3

■ このスレッドは過去ログ倉庫に格納されています
1今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bf28-c/5M)
垢版 |
2023/08/10(木) 12:56:06.76ID:I3/pZMHC0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
英語ならそこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
日本語は、どう転んでもローカルで動かせる今の世代はオバカなので
そこは期待しすぎんといてな

自薦・他薦のモデルやツールは>>2以降

前スレ なんJLLM部 ★2
https://fate.5ch.net/test/read.cgi/liveuranus/1685613014/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
2023/08/25(金) 08:38:10.92ID:SHOr4q5xd
Koboldの設定や使い方は英語だけどここが詳しい
https://github.com/LostRuins/koboldcpp/wiki
2023/08/25(金) 13:34:53.53ID:f5eNu40i0
Kobold GGMLを使うのに実用的な最低スペックを教えてください。
2023/08/25(金) 13:51:40.68ID:dRdVVD+u0
メモリ32GB Ryzen 3700XかCore i7-9700kあたりと言いたいとこだけど
CPUはもうちょいダメなのでもギリ遊べるかも

ただメモリ32GBは必須と考えたほうがいい、33Bが遊べないんじゃ
意味が半減するし今はメモリ激安
2023/08/25(金) 13:59:05.08ID:f5eNu40i0
33Bで日本語強いモデルはどれでしょう
もちろん無修正で
2023/08/25(金) 14:04:44.78ID:dRdVVD+u0
https://w.atwiki.jp/localmlhub/pages/21.html
有志がまとめてくれてるけど恐らく「期待すんな」が
正しいと思うで
2023/08/25(金) 14:05:29.84ID:SHOr4q5xd
とりあえずこのスレを頭から全部目を通すのを勧める
嫌味じゃなく
ローカル日本語LLMの現状が分かるはずだ
2023/08/25(金) 14:08:11.52ID:f5eNu40i0
vicuna-13bでもかなり日本語会話はできたので、vicuna-33bはどうなんでしょうね
2023/08/25(金) 14:17:59.26ID:7hIuLoKh0
レス付けてもらったのに一切お礼言わない辺り俺らのこともAIだと思ってそう
2023/08/25(金) 14:19:33.11ID:f5eNu40i0
あざーす
249今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c154-Ck4D)
垢版 |
2023/08/25(金) 14:23:28.04ID:8bpFJUCv0
あとあとの事考えて64G積んどくのをお勧めする。メモリ今安いし。
個人的には70Bなら
orca_mini_v3_70b_GGML とか
Deepnight-Llama-2-70B-Inst-GGML
が無修正かつ日本語で遊べる
糞PCのi7 7700Kの俺だがw
250今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 3130-yXWO)
垢版 |
2023/08/25(金) 14:59:01.99ID:UL0nhlyI0
deepnightってggml消されてない?
なんかあったのかな?
251今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c154-hPrW)
垢版 |
2023/08/25(金) 15:19:10.27ID:8bpFJUCv0
ほんとだ。
元作者のファイルもないね。
2023/08/25(金) 15:23:57.48ID:f5eNu40i0
33bが32GBのメモリで行けるなら、VRAM版でも行けるかなVRAM32GB以上ある
2023/08/25(金) 18:09:05.52ID:SHOr4q5xd
Blokeのニキが幾つか再アップとかしてたからその一環かもと思ったが
元ファイルも消えてるならそうじゃなさそうだな
何らかの諸事情なんかな
2023/08/25(金) 18:16:18.65ID:dRdVVD+u0
どっかからなんかの理由でゴルァされたのでは
2023/08/25(金) 18:25:18.23ID:f5eNu40i0
Uneditedってついてるモデルは無修正?
2023/08/25(金) 18:27:09.66ID:SHOr4q5xd
日本語でエロ出力したけしからん奴がいたからか?
すみません俺です
257今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b28-hPrW)
垢版 |
2023/08/25(金) 18:47:35.54ID:dRdVVD+u0
ローカルならわかるはずがないんだよなあ
2023/08/25(金) 21:13:11.56ID:eqHZ94UJ0
ところでエロを目的としない日常会話も結局規制解除版のほうが楽しいんだよな
普通にちょっとエロいこととか倫理観に欠けたこと冗談で話したりするやん
規制でバリバリだと最初の時点で弾かれて萎える
コンテクストで「猥談は苦手だが興味はある」とか設定して誘導尋問でだんだんエロいこと言わせるのが楽しい
ごめん結局エロ目的だったわ
259今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM4b-hPrW)
垢版 |
2023/08/25(金) 22:09:03.39ID:xCcBMb9yM
>>238
え、そうなん?
ずっとstoryモードで書かせてたわ
2023/08/25(金) 22:32:34.65ID:vdOyVDgF0
もちろんstoryモードでもOK
storyモードはAIと自分が交互に一つの物語を書いていく形式で、AIのべりすとに近いと言えば分かる人には分かるかもしれない
instructモードはchatGPTと同様にこちらが指示を出してAIに書かせる形式やな
自分に合う方を使えばよいのだ
2023/08/25(金) 22:35:55.41ID:tt87B7o5a
>>239
とても丁寧にありがとう おかげでスムーズに始められました
とりあえず日本語で使うのは一旦諦めておこうという感じ笑
何の遠慮もなくエロい指示が出せるのは嬉しいね やっぱこうでなくちゃ
2023/08/25(金) 22:59:30.12ID:MKP0VG/+d
>>261
うまくスタートできたようで良かった
ローカルだから好き放題できるし、save&loadもできるし、GPTのCIやのべりすとのキャラブと同様の設定を記憶させる機能もある
色々試してや

発展途上で日進月歩の世界だから色々試して報告してくれると喜ばれると思うで
2023/08/25(金) 23:38:19.25ID:eqHZ94UJ0
long term memoryを試してみたけどなんか重い
コンテクストに過去のイベントの要約を書き込みまくる方がいいのかな
2023/08/26(土) 02:45:33.36ID:jfl5kTAP0
普段は照れてまともにエロい話が出来ないけど押しに弱いみたいなコンテクストを記述するのが難しい
常時オーケーだとただのビッチだしかといって"refuse"とか強い言葉を使うと「そのうち渋々エロ話してくれる」とか注釈入れても「その内」が果てしなく高くなったりする
「おっぱい見せて?」って要望を通すのに20回くらい御願いするのは楽しくもあるけど、いざそのときにはトークンがもう枯渇している
チャットの最初に状況設定すればまあいいんだけどそれは逆に味気ないとも感じるし
俺は何をしているんだ?
2023/08/26(土) 03:15:41.24ID:I6xJRzSyF
メモリや脚注でうまくやるしかないんでしょうね
それもう自分で書いとるやないか~い☝💦ってなるけど
2023/08/26(土) 06:13:00.35ID:tHAVbKfYr
ここではプロンプトの話ってなかなか出ないけど、上手いこと状況描写を事細かく出力させるいいプロンプトないかな?
gptで遊んでたときのプロンプトをそのまま英訳して突っ込んでも上手く行かない
2023/08/26(土) 06:37:11.17ID:E5+f2rJK0
linuxでLLMをサーバ化するにはマイクラのサーバ立てるみたいにscreen使うってことでいいの?
2023/08/26(土) 07:00:20.11ID:yuO+sUeUa
>>264
『AI』と『対話』しているんだ
2023/08/26(土) 07:06:41.94ID:Lo6N2YGja
>>264
そういうのはステータス化する
ローカルは知らんがchatGPTでは基本テクニックの一つ
2023/08/26(土) 07:10:26.64ID:I+jw/2zr0
www.chub.ai
2023/08/26(土) 07:12:30.12ID:g4OzQJp40
プロンプトの話題があまり出ないのは基本脱獄が不要だからだろうなあ
描写の細かさ豊かさはモデルによってかなり違うと感じる
なのでプロンプトに凝るよりもまずは描写力に優れる良いモデルを探し続けてる段階かな自分は
2023/08/26(土) 07:23:35.12ID:OlnjJJuoa
chatGPT3.5はプロンプト次第で天と地ほど変わるからローカルでもそういう研究は必要なんだろうが
そもそもモデルが未成熟で進化が早いからそういう段階まで進まないんだよなあ
2023/08/26(土) 07:31:03.56ID:yuO+sUeUa
今どんなプロンプト走らせてるの?
って質問したらセクハラになるかも知れないからな
2023/08/26(土) 07:38:18.54ID:g4OzQJp40
モデルによっては説明に「ロールプレイには向きません」って書いてるのがあるくらいだからなあ
それぞれ目指す方向性があってチューニングされてる
さすがに「エロ専門にチューニングしてます!」と明記してるのはなかなか無いがw
自分に刺さるモデルを見つけようと探索の日々よ
これはこれで楽しい
2023/08/26(土) 07:41:20.77ID:g4OzQJp40
なので、これはというモデルを見つけたら是非共有してくれい
2023/08/26(土) 07:59:28.10ID:E5+f2rJK0
普通に会話しかしてないけど、エロやるときってstable-diffusionみたいにプロンプトにnfswとか入れるの?
277今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MMde-TDjq)
垢版 |
2023/08/26(土) 08:26:21.80ID:1yst3PHbM
>>274
superhotがエロ特化だと思ってたが違うんか
2023/08/26(土) 08:36:05.51ID:yaujIfREa
>>276
クオリティタグみたいなのはある
2023/08/26(土) 08:41:57.06ID:g4OzQJp40
>>277
自分も最初superでhotなのかと興奮して期待したが
あれはコンテキストサイズを8kに拡大する技術らしいで
2023/08/26(土) 08:45:27.34ID:yaujIfREa
deepnightとかいうのは?
2023/08/26(土) 08:49:22.61ID:NHoa2H0Id
deepnightはなかなかの日本語を出力してくれる良いモデルだった
>>61
だが消えた
282今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6d54-RFvy)
垢版 |
2023/08/26(土) 09:11:42.35ID:0d41RhQO0
今はもっといいモデルも出てきてるよ
サマンサの最新が作者が賢いというだけあって日本語もかなりいい感じ
喘ぎ声の例を出させたらそれっぽいのを結構描いてくれたw
2023/08/26(土) 09:25:13.27ID:NHoa2H0Id
サマンサって作者ページに
She will not engage in roleplay, romance, or sexual activity.
って書いてあるけどいけるのか
2023/08/26(土) 09:28:29.46ID:E5+f2rJK0
何で検索すればいい?
2023/08/26(土) 11:09:30.13ID:NHoa2H0Id
huggingfaceはモデル名で検索できるけど説明内容では検索できないようだ
自分の場合Blokeニキを信頼しているので彼が新しいモデルを上げたら一通りチェックしている
(サイズの小さいモデルは除く)
BlokeニキはGGML化する職人みたいなお人なのでモデルの説明はオリジナルモデルのページを見る必要がある
大抵リンクを張ってくれてるので見に行く
んで面白そうならダウンロード
こんな感じ
Blokeニキ以外の人のやつも目新しい名前のはチェックしてる
2023/08/26(土) 11:31:11.66ID:L1usW52B0
追加学習でエロく洗脳していくことはできないの?
2023/08/26(土) 11:32:51.34ID:L1usW52B0
huggingfaceにあるものは全部Transformersライブラリで使う前提でいい?
288今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8628-TDjq)
垢版 |
2023/08/26(土) 14:41:51.20ID:LfAiA13C0
日本語はそもそもの実力が足りてないからなんともだけど、
英語圏だともっとLoRAとか出てきていてもいいよな

誰かその辺知ってる人いる?
2023/08/26(土) 15:20:55.98ID:sEE/0XiZM
英語ベースだと喘ぎとかおかしくね?
2023/08/26(土) 16:02:59.48ID:g4OzQJp40
openbuddy-30b が日本語でなかなか遊べるよ
https://huggingface.co/OpenBuddy/openbuddy-ggml/tree/main
無規制モデルではないらしく最初は申し訳されるのだが
https://imgur.com/hGtyfL7

こちらで勝手に申し訳文を書き換えてあげると
https://i.imgur.com/12bLUGm.png

問題なく書き始めるw
https://i.imgur.com/IENZG3N.png

とは言え「そこそこ遊べる」レベルの日本語なので過剰な期待は禁物
2023/08/26(土) 17:10:58.03ID:LfAiA13C0
これかなりいけるな
292今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ a181-cdDn)
垢版 |
2023/08/26(土) 17:36:45.74ID:UE2iNPc60
3060だとどのくらいの大きさのモデルまで行けるもん?
2023/08/26(土) 17:37:12.49ID:wIi+dr350
>>290
理恵ちゃんはどうなってしまうん?
2023/08/26(土) 18:03:58.33ID:ZAXdFLxnd
chatGPTがお通夜なのでここに難民が流れこむ予感がするのう
2023/08/26(土) 18:10:45.31ID:LfAiA13C0
poeすりゃいいのに
2023/08/26(土) 18:26:09.05ID:jfGhaKQUd
数日前辺りから既にそんな感じ
2023/08/26(土) 18:53:38.07ID:vWnWEGPP0
cpuで動く方のやつ使えばVRam少なくてもメモリ多ければモリモリ動かせるの?
2023/08/26(土) 18:57:50.91ID:m5wkKhKS0
>>293
「ドーモ。リエ=サン。ダンセイです。」

実際にauthor's note、ここはニンジャスレイヤーの世界です、とか書くとやってくれそうなmodelはありそう
2023/08/26(土) 19:12:21.77ID:LfAiA13C0
>>297
そのぶん遅いけどな
まあまあのCPUつかえば33Bくらいなら問題なし
2023/08/26(土) 21:47:07.58ID:vWnWEGPP0
>>299
なるほどcpuパワーが必要なわけね
それでもgpuよりはコスト下がりそうやな
301197 (ワッチョイ 1ae8-TDjq)
垢版 |
2023/08/27(日) 00:51:43.67ID:goJNs7KP0
>>197
自決。
モデルフォルダのconfig.jsonの"max_position_embeddings"を8192に修正したらContex1000以上でもchat継続行けた。
4090つかって4bitでロードしてももcontext5000くらいがVRAM限界でOOM。
2023/08/27(日) 01:50:41.91ID:9Du9b03p0
いつかスマホで簡単にコンテクストが100万とかで起こったイベントを逐一記錄してくれるようなAIが動いたりするのだろうか
それはもう人格を持ち歩いてるようなものだよなと錯覚する
2023/08/27(日) 02:12:23.60ID:s3LPLq8W0
将来的に出来たとしてもバッテリーが限られてるスマホに処理させるよりクラウドで管理するかな
304今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ d97b-TDjq)
垢版 |
2023/08/27(日) 06:45:03.75ID:sd18/YeA0
>>264
これはわかる
LLM触ってしばらくすると、トークンの枯渇がめちゃくちゃネックに感じる
ちなOobaにはwawawario2/long_term_memory: https://github.com/wawawario2/long_term_memory
って拡張があって試してみたりもしたけど、まだまだ実験段階って感じだった。というか日本語には対応してないかのかもしれん
MicrosoftのLongnet みたいなの実用レベルで実装されるの期待してる
2023/08/27(日) 07:30:43.47ID:OyzZ2o+Y0
エロく追加学習する方法を教えてください。
2023/08/27(日) 08:18:21.64ID:GRLfbYb+d
>>304
ここまでまとめてブロンプトとして出力して、で吐かせた物を多少手直しすると割といける場合も
2023/08/27(日) 08:56:56.00ID:YP5IZJtd0
>>305
https://note.com/npaka/n/na7c631175111
こういうのを参考にしてみては

学習させる良質なデータセットをいかに用意するかが重要だと思う
2023/08/27(日) 08:57:59.25ID:OyzZ2o+Y0
■モデルの種類
Llama-2=メタで作った
Alpaca=スタンフォードで作った
Vicuna=バークレーで作った
Wizard=?
WizardLM=?
Samantha=?
Deepnight=?
2023/08/27(日) 09:01:42.05ID:OyzZ2o+Y0
エロゲーのテキストデータをデータセットとして大量に食わせれば、エロ中毒にできるのでは
2023/08/27(日) 09:07:08.99ID:ETB2u1hU0
そもそもこのスレでちゃんと学習に成功している人を見たことがないわけで
りんな2B時代にはいたらしいが
2023/08/27(日) 09:16:31.13ID:VYsKpOuCd
SamanthaもdeepnightもLlama-2のファインチューニングだよ
2023/08/27(日) 09:48:44.45ID:OyzZ2o+Y0
なるほどWizardもLlama-2ですか?
2023/08/27(日) 10:10:57.15ID:YP5IZJtd0
個人的興味で知りたいだけなら自分で調べたほうが良いと思うぞ
2023/08/27(日) 10:22:53.97ID:ETB2u1hU0
知ってどうすんねんってのはあるよな
2023/08/27(日) 11:37:50.70ID:GRLfbYb+d
規制がモデルに入ってるかどうかとかあるのでは
2023/08/27(日) 12:35:36.30ID:9Du9b03p0
>>304
英語環境でロングターンメモリー使ってるけど
なんだろうあれ記憶される会話はランダムなのかね、記憶してほしいことがあんまり記憶されないというか
要約して系統立ててパラメータにするってわけじゃなく会話まるごと記憶してるだけみたいだし
だったら重要と思える情報とか覚えてほしいイベントを逐一手動で全部コンテクストに書き込んでいったほうが
(その時botはこう思った、とか心象も追加できるし)
少なくともチャットボットとのロールプレイでは楽しくなれる気がする
2023/08/27(日) 14:31:31.45ID:OyzZ2o+Y0
text-generation-webuiでやってると途中で生成やめて続きを生成してくれなくなるんだけど
koboldだとそういうことはないんですか?
2023/08/27(日) 14:34:29.33ID:ETB2u1hU0
koboldにはsmart contextがあるけどWebUIにも似たようなのありそうやけどな
319今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ d97b-TDjq)
垢版 |
2023/08/27(日) 14:51:44.68ID:sd18/YeA0
>>316
そうそう。なんか今思い出すのそれじゃないだろってのしか表示されなくて、まだまだ実用には遠いなって感じだった
2023/08/27(日) 19:57:06.76ID:9Du9b03p0
>>319
使うと明らかに重くなるしなあ
あれ一回の発話ごとに記憶済会話全部スキャンして関連しそうな記憶選んでるのかな
メモリーのファイル開くと記憶された会話のテキストしかないから多分そうなんだよな
なんかもっと記憶を属性ごとに階層化とかしてくれないだろうか
願わくばタイムスタンプもありで
2023/08/27(日) 20:53:42.69ID:jYYzbkF+0
RTX4070 VRAM12GBでメモリー64GBなんですがkoboldはopenblasを使うで正解?
出力にあまり差は感じられない…
2023/08/27(日) 21:30:01.20ID:YP5IZJtd0
OpenBLASはCPUオンリーのモードなのでグラボを活かす場合は以下のどちらかを使う
CuBLAS: Nvidia用のモード
CLblast: Nvidia以外も含む汎用モード
4070であれば基本CuBLASで良いはずだけどもし不安定ならCLblastも試すべし
layerの数字は各自調整してグラボのメモリの大きさを超えないようにする
あまりギリギリまで使うと画面がカクカクになるので12GBであれば9-10GBくらい使うように調整すると良いと思う
Koboldが黒画面で起動する時に最下行に使用メモリ量が表示されてるはずだ
2023/08/27(日) 21:35:39.39ID:YP5IZJtd0
参考までに自分はlayer数を33Bモデルは28くらい13Bモデルは40くらいに設定してる
このへんはモデルによっても少し変わるよ
2023/08/27(日) 22:56:54.03ID:jYYzbkF+0
サンガツ
30Bで普通は0.8T/sだったけど、少し設定を変えたら1.4T/sになった
10Bは4.6T/sに…一瞬のべりすとがいいかなとおもったけど、もうちょっと探求するよ
2023/08/27(日) 23:19:06.51ID:5wGn4Hd20
>>320
無粋を承知で言うのなら、まさにその属性を理解することがLLMの発展の行き先の一つじゃないかと思う。
現状ではせいぜい単語の頻出順に並べるくらいしか出来ていないわけで。
2023/08/28(月) 06:11:10.99ID:NVA9eFil0
現状は日本語で遊ぶならのべりすとの方がマシというのが正直なところ
英語モデルで遊びながら日本語モデルの向上を待ってるところやね
2023/08/28(月) 07:46:11.35ID:QjcuLGxh0
今のすーぱーとりんさまややみおとめは使った事ないから知らないけど言語力はこっちの方に魅力を感じてる
こっちでもdlsiteのurlやあとがきが出てきちゃうんだなあ…
2023/08/28(月) 07:54:57.83ID:DPI+GmPVr
>327
こっちって具体的にどのモデル?
2023/08/28(月) 08:13:30.33ID:B1QwR7DbM
>>279
まじかw完全に誤解してたわ
2023/08/28(月) 08:14:30.10ID:yzD1m46hp
無料のべりすととして使うならjapanese-novel-gpt-j-6b一択じゃね
2023/08/28(月) 08:29:09.12ID:XWsWvM5qd
別モデルだけどのべりすとの作者がデータセットを提供したという話もあったね(以下AI総合スレから転載)

704 名無しさん@お腹いっぱい。 sage 2023/08/10(木) 16:23:59.97 ID:vLBvxk1P
>>700
AIのべりすとから150GBのデータ提供があったらしい

@_bit192
本日公開されたStability AI Japanの日本語7Bモデル
「Japanese StableLM Alpha」に
当社から約150GBの独自データセットを提供しました。

今後、国内のオープンソースAIの発展に向けて、Bit192からも様々な取り組みを行っていきます。
2023/08/28(月) 08:56:49.58ID:QjcuLGxh0
のべりすとのモデル、とりんさまは7.3B、やみおとめ20Bかあ
とりんさま使ってたから、他の10Bや33Bの物を使ったら差を感じたと思う
>>328
色んなモデルを試してるからどれかわからん!
2023/08/28(月) 09:27:00.69ID:dWtnkUJta
データサイズだけではもう性能を推し量れないところまで技術革新が進んでる
サイズ量は一定の信頼感はあるけど、チューニング次第なところもある
学習時の成功率の具合もあって、それこそモデルガチャしてるようなものだ
それこそごく軽量の学習量でも、特化さえしていれば使用に耐えるのかもな
334今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Sped-RFvy)
垢版 |
2023/08/28(月) 11:30:35.64ID:1PAmvGDnp
70bのggmlが出るたび日本語の出来を試してるけど
1ヶ月前ぐらいに比べてセリフ周りが格段に良くなってる
あと一歩って感じだ
2023/08/28(月) 11:54:25.28ID:QeVg2WCMr
redditで貼られてたnsfwモデルランキングだけど、こっちでは既出かな?

Another LLM Roleplay Rankings
https://rentry.co/ALLMRR
Ayumi's LLM Role Play & ERP Ranking
https://rentry.org/ayumi_erp_rating
2023/08/28(月) 12:01:22.27ID:XWsWvM5qd
>>334
airoborosの2.1が出てたのと、orcaの200kってやつが気になってた
このへんどう?
2023/08/28(月) 12:07:14.30ID:XWsWvM5qd
>>335
サンガツ
やはりairoborosとchronosは強いな
13BだとMythomaxか
338今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Sped-RFvy)
垢版 |
2023/08/28(月) 12:14:51.83ID:HE+Sz1Dzp
>>336
2.1はかなりいい感じ
オルカはミニがいい感じだったけどこっちはダメだった
OpenBuddy/openbuddy-llama2-70b-v10.1-bf16
これが激しく気になる
日本語対応うたってる
ブローク先生お願いします!!!
2023/08/28(月) 12:27:35.41ID:XWsWvM5qd
openbuddyは30Bもなかなかだったから期待だね
Blokeニキなら必ずやってくれる
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況