X



なんJLLM部 ★6

■ このスレッドは過去ログ倉庫に格納されています
1今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0a88-wfK3)
垢版 |
2023/12/03(日) 03:45:05.35ID:DP+jMU5Y0
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

なんJLLM部 ★5
https://fate.5ch.net/test/read.cgi/liveuranus/1699666391/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
2今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:46:02.23ID:DP+jMU5Y0
初心者は導入しやすいKoboldcppから始めるのをお勧め
(1)ここで最新版のKoboldcpp.exeをダウンロード
https://github.com/LostRuins/koboldcpp/releases
(2)ここで良さげなggufモデルをダウンロード
https://huggingface.co/models?sort=modified&search=gguf
この2つのファイルだけで動く
3今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:46:51.33ID:DP+jMU5Y0
日本語特化モデル作ってるとこのまとめ
https://huggingface.co/pfnet
https://huggingface.co/stabilityai
https://huggingface.co/elyza
https://huggingface.co/cyberagent
https://huggingface.co/rinna
https://huggingface.co/llm-jp
4今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:47:24.57ID:DP+jMU5Y0
Koboldの設定や使い方は英語だけどここが詳しい
https://github.com/LostRuins/koboldcpp/wiki
5今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:48:36.62ID:DP+jMU5Y0
今期待の日本語特化モデル

TheBloke/japanese-stablelm-instruct-beta-70B-GGUF · Hugging Face
https://huggingface.co/TheBloke/japanese-stablelm-instruct-beta-70B-GGUF
6今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:52:33.28ID:DP+jMU5Y0
oobabooga/text-generation-webui
これもKoboldAIに並んで有用な実行環境やで
https://github.com/oobabooga/text-generation-webui
7今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:55:20.43ID:DP+jMU5Y0
stabilityai/japanese-stablelm-instruct-gamma-7b
比較的小サイズで高性能なおすすめの日本語モデルやで
https://huggingface.co/stabilityai/japanese-stablelm-instruct-gamma-7b
8今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 03:57:50.79ID:DP+jMU5Y0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
9今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:02:33.65ID:DP+jMU5Y0
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
10今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:10:19.94ID:DP+jMU5Y0
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
11今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:16:54.30ID:DP+jMU5Y0
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
12今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:19:35.69ID:DP+jMU5Y0
高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
13今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:30:28.44ID:DP+jMU5Y0
モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
14今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:33:41.05ID:DP+jMU5Y0
70Bの大型モデルはLlama 2というMeta社が開発したモデルが元になってるものが多いで
メモリが48GB以上あれば動くけど、速度はかなり遅いで
15今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:35:24.62ID:DP+jMU5Y0
18:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff79-XI6K):2023/11/11(土) 11:13:26.81 ID:0B0rgEfx0
ドライバやミドルウェア周りのインストールがだいたいこんな感じ
https://rentry.co/rd9xf/raw
python3.11を別途入れて基本的にそっちを使っていく
2023/12/03(日) 04:35:37.93ID:wk5OpNLL0
20までレスせんと即死するんちゃうん?
2023/12/03(日) 04:36:15.66ID:wk5OpNLL0
あ、すまん 途中だったか
18今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:36:20.31ID:DP+jMU5Y0
7:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff7a-EFnx):2023/11/11(土) 10:54:35.49 ID:Gp6hELJv0
日本語特化モデル以外のおすすめ。これもはっとこ

更新の速い世界だからお勧めモデルも逐次変わっていくけど取りあえず前スレ後半で話題になってたモデルたち(たぶんまだある)
総合力高い系:
Xwin-LM-70B
upstage-Llama2-70B (=poeのSOLOR)
あとは古典だがwizardLMとかairoboros系もまだまだいける
エロ特化系:
spicyboros
Kimiko
Mythomax
19今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:39:07.72ID:DP+jMU5Y0
>>16
せやな
20今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6a88-wfK3)
垢版 |
2023/12/03(日) 04:39:50.98ID:DP+jMU5Y0
はい
2023/12/03(日) 04:40:54.69ID:wk5OpNLL0
お通夜で
2023/12/03(日) 05:26:02.77ID:KWB0iXgQ0
あれ?
2023/12/03(日) 08:05:10.08ID:ChW0QjMu0
建て乙やで
前スレなんで突然落ちたん?
24今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ f9d5-8IwF)
垢版 |
2023/12/03(日) 11:29:53.71ID:mEQknOzq0
10 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7f1d-ZlS5) sage 2023/11/11(土) 11:00:57.86 ID:DSO3hy+d0
Koboldcpp+ggufで動かす時に必要なメインメモリの目安
7Bモデル -> 8GB
13Bモデル -> 16GB
33Bモデル -> 32GB
70Bモデル -> 64GB
180Bモデル -> いっぱい
25今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オイコラミネオ MMe5-sIVc)
垢版 |
2023/12/04(月) 12:59:58.15ID:h3zxniHLM
switch-c-2048とかいうモデル1.6Tパラメータもあるらしいけど誰向けなんだこれ
2023/12/04(月) 13:54:45.63ID:9oNn0GKF0
>>23
荒らしによるスレ乱立で流されたっぽい
2023/12/04(月) 16:07:40.47ID:U6M+9zxo0
需要あるか分からんけど、直刺しの4070に加えて、ライザーでPCIEx1に2070S突っ込んでも役目は果たしてる。
max14.9T/sでGPTQ動かす分にはGGUFより数段速いのは間違いないけど、x16との速度比較まではやってない。
Nethena-MLewd-Xwin-23B-GPTQを動かすのに15.3GB食ってるから、8GBを2枚突っ込んだらギリいけるのかもしれん。
当環境では12GB+8GBなので検証はしてない。
28今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オイコラミネオ MMe5-sIVc)
垢版 |
2023/12/04(月) 18:08:13.83ID:h3zxniHLM
マイニング用のx1を4分岐みたいな環境でもある程度速度出るなら3060x4も可能性が出てくるのかな
2023/12/04(月) 18:24:51.35ID:vrOSKdWK0
遊びで買って今は使ってない
マイニングマザー引っ張り出すか……
2023/12/06(水) 04:01:57.01ID:EZENKxxir
前スレ急に流れ止まったなと思ったら落ちてた
chmateだと落ちてるって表示すら出んかったから他にも気づいてない人いるかも
2023/12/06(水) 19:26:02.75ID:2Z6xHzHP0
OpenBuddy/openbuddy-deepseek-67b-v15.1

最近のは日本語タグついてないやつばっか(readmeすらない)だったが、ひさびさに日本語タグついたのがでてきた。
ニキに依頼するわ
これがいまいちなら、もうここは期待できんかも

TheBloke/deepseek-llm-67b-chat-GGUF
比較のため、本家のこっちを検証しとくか
32今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 71ad-Q9JY)
垢版 |
2023/12/07(木) 07:49:24.78ID:3am8QEYV0
TheBloke/deepsex-34b-GGUF
Yiベースにラノベのデータを食わせた だと?
小説使いとしては試さんわけにいかんな
名前からしてヤヴァそうだしw
2023/12/07(木) 11:22:54.45ID:L3aO9aWY0
34bというサイズも手頃だな
帰宅したら試すわ
2023/12/07(木) 13:38:27.44ID:hsdNXR6N0
>>32を見て思ったんだが
ネットやサブカルに汚染されてないきちんとした日本語を出すAIって需要ありそうだな
2023/12/07(木) 13:49:03.47ID:Ga1ueXj50
poeの契約も切れたし久々にローカルやってみるか
2023/12/07(木) 19:51:35.85ID:bHSO7Oi40
>>32
チャットだと全くまともな返答がかえってこないな
2023/12/07(木) 20:41:50.69ID:eG64hqPI0
>>36
俺も使ってみたけどイマイチやったわ。プロンプトが悪いんかな

関係ないけど俺の最近の推しモデルを晒しとくわ
TheBloke/Iambe-20B-DARE-GPTQ
TheBloke/Iambe-20B-DARE-GGUF
2023/12/08(金) 11:11:33.25ID:YoJgM1bn0
deepsex 小説書かせたら表現が少し破綻するのとすぐエロ展開にもっていこうとする傾向あるな
日本語はダメダメだったが、男のセリフに「お前、エロいな」ってあったのは笑った
2023/12/09(土) 01:37:02.31ID:/vyTb3p60
前スレ落ちてたことに今気づいた
40今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f6a-FJ+M)
垢版 |
2023/12/09(土) 02:22:20.38ID:BIYUtn0e0
最近 自宅AIチャットに目覚め、ココにたどり着いた
LM Studio
https://lmstudio.ai/

koboldcpp.exe みたいなやつ チャット専用アプリ
koboldcpp.exe よりテキストの吐き出しが早い気がするが、「UESR」「AI」の表示を変える方法が分からず、ついでにアプリの日本語表示にも対応してくれないかメールしてみた

今、エロ様にしてるLLM second-state/Yi-34B-Chat-GGUF
https://huggingface.co/second-state/Yi-34B-Chat-GGUF/tree/main
18GBくらいで使いやすい、たまに中国語の四字熟語吐き出すが、複雑な言い回しも結構理解してくれる様な気がする。

既に出てたら 無視してくれ
41今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5716-h0RM)
垢版 |
2023/12/09(土) 07:54:26.36ID:kVO4X6gD0
>>40
The bloke製もあるんで試して
Yi34b
2023/12/10(日) 01:27:48.75ID:+M0T2xEl0
少し前リーダーボードでトップだった、StellarBright のバージョンアップ版が出てたんで試した

TheBloke/SunsetBoulevard-GGUF

すげーいいわこれ。英語表現がしっかり進化してる。エロも躊躇ない。
2023/12/10(日) 09:53:10.25ID:cKl8Cl4k0
70B動かせる環境ほしいけどなー 俺もなー
2023/12/10(日) 12:46:08.48ID:lwKlzNFq0
>>42
複雑な命令に従う能力はXwinの方がいいかもしれんけど、表現はすごくいいな
2023/12/10(日) 13:22:55.81ID:cKl8Cl4k0
ここで70B動かしている人は64GBメモリでぼーっと任せながら待ってる感じ?
それとも3090x2とかM2 Ultraとかクラウドサービスとか?
2023/12/10(日) 14:57:38.44ID:dK/Q82wh0
>>45
500トークン放置で12分くらいなので
基本他のことしながらだね
ただ、いい感じの展開になってきたらモニター凝視タイム始まるw
2023/12/10(日) 15:16:58.61ID:cKl8Cl4k0
マシンがブイイイイイインってなるから、同じマシンだと基本的にテキスト打ちとか
Excel作業、あとはせいぜい5chとかTwitterくらいしかでけんのよなw
2023/12/10(日) 15:28:14.22ID:RBPAIzsJ0
4090+3090でサクサク動かせるんだけどこれやるとメインマシンがLLMで占有されるから困る
49今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9fed-FJ+M)
垢版 |
2023/12/10(日) 15:49:29.06ID:U3/qZ19Y0
>>41

Thebloke製  試してみましたが、あまり違いが実感できない

そもそも、ココが学習させたやつは、こんな特色が在るよ見たいな
一覧あればいいのになぁ
2023/12/10(日) 16:04:28.11ID:44DcVHl4p
>>49
bloke製には4km以上が選べるから若干精度が上がるかな
あと他の人のより安定することが多い
2023/12/10(日) 17:06:26.71ID:WM02fNbd0
自動でdeepl翻訳してくれる機能かブラウザ拡張があれば結構実用するんだがなー手間が-
2023/12/10(日) 17:16:04.11ID:cKl8Cl4k0
英語読む方は大丈夫になったわ
指示するときはDeepLに頼むことがかなりあるけど
2023/12/10(日) 22:12:45.30ID:OK0gTpfx0
>>51
1. edgeの自動翻訳とdeepLを使う
 (deepLはkobold.cppで効くけどtext-generation-webuiでは効かない)
2. text-generation-webuiのSession⇒google_translateにチェックを入れる
2023/12/10(日) 22:26:43.83ID:WM02fNbd0
>>53
すまん、すごいためになること書いてくれてそうな感じるんだけどkoboldcpp.exeを使用していてブラウザはvivaldiが標準でそれで使ってる感じです。
エッジならdeeplを自動翻訳として使えるのか?くそエッジで?
すまんvivaldiしか使ってないのでエッジ使いならわかるの話?
2023/12/11(月) 00:03:56.53ID:JT7JCjVj0
TheBloke/Venus-103b-v1.1-GGUF

64GメモリでもQ4k_mがvram12G併用でkoboldでギリいけたぞー
xwinが入ってるせいでv1.0よりエロ度低いらしいが、精度はv1.0以上とのコメントあり
試したら、かなりいい感じの英文書いてくれる。エロも明示的に指示すれば(エロ小説書けって程度)問題ない感じ
英語民試してみてくれー
2023/12/11(月) 00:08:00.48ID:rbg5uDDF0
64GB+12GBでギリとはたまげたなあ・・・
ちなみにkoboldのどこの設定使えばええんやっけ?
2023/12/11(月) 00:12:01.33ID:JT7JCjVj0
>>56
CLBLastにしてレイヤーを12にして起動できた
2023/12/11(月) 00:19:28.05ID:rbg5uDDF0
なるほど
2023/12/11(月) 10:58:55.53ID:uId22uzF0
>>55
どうやってモデルダウンロードした?
text-generation-webuiでmodelとfilename入れても、huggingface-metadata.txtしか落ちてこないんだよな
2023/12/11(月) 11:23:49.96ID:uId22uzF0
ごめん自己解決したわ。
splitされてるから、モデルカードのページの説明通りのfilenameじゃだめなのね。
2023/12/11(月) 11:25:33.89ID:kWWOzH8gM
日本語諦めて英語で生成させると3060に載るようなモデルでもそこそこ読める内容出力してくれて嬉しいんだが、ネイティブじゃないからどうしてもダイレクト感に欠けるな
2023/12/11(月) 22:35:41.88ID:uId22uzF0
>>55
これ昨日から試してるけどかなり遊べるな。さすがに出力速度おっそいけど。いい感じにNSFWの文章出してくれる
2023/12/12(火) 08:31:11.77ID:FR/lkCYy0
お、mixtral-8x7bきてるやん
2023/12/12(火) 12:04:31.86ID:QQWSbquB0
>>63
koboldで動かんのがなぁ
2023/12/12(火) 12:20:41.11ID:FR/lkCYy0
llama.cppにmixtralブランチが来てるからそのうち動くようになるで
2023/12/12(火) 12:30:26.30ID:X/UlkJJQ0
複数モデルを束ねて専門分野だけアクセスするから高速
全体で46.7Bのパラメータを持つけど処理は12.9B
複数モデルを同時読込みするから要求メモリは多い
GPUよりもメモリ増やしてCPUで処理する方が恩恵が大きそう
67今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7fb4-FJ+M)
垢版 |
2023/12/12(火) 13:50:31.55ID:X9eNAJO20
NAIが13Bって割にはそれなりだし70Bもガチってみてくれないかなあ
68今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (オイコラミネオ MM1b-tNtz)
垢版 |
2023/12/13(水) 08:37:37.26ID:/lHDtDHIM
mixtralの記事みて来たがまだuiが対応して無いんか
2023/12/13(水) 09:59:16.68ID:CUbRcOyf0
mixtral-8x7b-instruct-v0.1.Q4_K_M.gguf使ってみたよ。英語ならかなり悪くないんじゃないかな。しかも32K context lengthあるらしいし。
GPT3.5より上ってベンチ評価も納得かな。グラボは使わずCPUとRAM推論のみで4 token/sぐらいは常に出ていたからかなり早いと思う。
全部VRAMにロードすると40token/sぐらいは出るとかredditに書いてあった気がする。
指示をよく理解して書いてると思うけど、明示的に指定しなかったら明らかにエロや暴力や児ポ描写は避けようとしてくるね。
軽い脱獄と明確な指示してやれば書いてくれるけど、英語の表現力は英語ほぼわからん自分には評価できない。
https://i.imgur.com/CpKBGgn.png
2023/12/13(水) 10:28:01.57ID:b9zNHj0a0
7bなのにすげえ! みたいのって今となってはちょっとなあ
せめて13b、できれば20b以上で
2023/12/13(水) 10:40:03.15ID:CUbRcOyf0
mixtralの総パラメーター数は46.7B
GPT4と同じようなMixture of Experts (MoE) 、専門家混合モデルだよ
2023/12/13(水) 11:27:12.71ID:5rF4vs/UM
4060ti 16GB買い足してしまった!
2023/12/13(水) 11:40:46.54ID:b9zNHj0a0
3060+4060Ti?
それとも4060Tiを2枚?
2023/12/13(水) 15:30:05.67ID:clEk7FUj0
LLMは大葉が安定しているから、あまり考えないけど
AIのプログラムってWSL2とDockerでCUDAを動かして使うって流れあるよね
この構成で大葉やってる人いる?
2023/12/14(木) 09:55:02.37ID:f25UQb6T0
>>65
kobold対応されたね
qwenも
2023/12/15(金) 00:09:26.31ID:CJAVjTq70
https://pc.watch.impress.co.jp/docs/news/1554546.html
これLLMにも利くのかな?
2023/12/15(金) 11:02:23.74ID:KTsgVYhm0
TheBloke/openbuddy-mixtral-8x7b-v15.1-GGUF

これ試した人いる?
なんか日本語も英語も意味不明な文章吐くんだけど・・・
2023/12/15(金) 14:05:22.76ID:0WsI/Ghj0
oobaもmixtral対応してるな
何故か初回だけやたら時間かかるけど二回目以降はcpuで4token/sぐらいなのは品質を考えたら悪くない
79今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 373a-YG4T)
垢版 |
2023/12/15(金) 20:12:20.51ID:dO8DzsJN0
現場付近に避難していたと考えるべきなの?
お酒飲んだが
2023/12/15(金) 20:12:33.44ID:SH0YA/eq0
コブダイのくせにシステムのサイトも見たよ
81今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f69-/xoc)
垢版 |
2023/12/15(金) 20:14:29.34ID:SH0YA/eq0
そうじゃないと予想(´・ω・`)
明日は寄り底でぐんぐん上がるヤマ作りづらいのど取材とかやないのにリマスターしか出てこないけど黒子除去と顔面工事でフィギュア人気の継続を計る
82今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 57f4-xWLb)
垢版 |
2023/12/15(金) 20:19:07.19ID:uegpFbYr0
そろそろ全打席四死球で攻めてもええやろ
2023/12/15(金) 20:35:08.72ID:QoEyBoZza
>>29
結局
どんな名前出してる中で小物必死で売り込んでる痛いオタと遜色ないし逆効果だからやめればいいのに、草生え過ぎる
まぁそのうち税金払うようない
84今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 17c8-+tfj)
垢版 |
2023/12/15(金) 20:43:22.82ID:b7lH40bO0
>>45
他のカテゴリーではありません!」(公開されないだろ
85今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0Hdf-7CNb)
垢版 |
2023/12/15(金) 20:46:00.68ID:GYsMa8EkH
>>7
夏の現実てこればいいのにね
クッションドラムが優秀なんやろか
86今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff7c-YG4T)
垢版 |
2023/12/15(金) 20:48:10.31ID:24QWCxqL0
こんなもんを食う
2023/12/15(金) 22:55:36.36ID:KTsgVYhm0
やべー、またきやがった・・・
だれかpinkに避難所立ててくれー
自分はできんかった
2023/12/16(土) 16:07:03.68ID:TKrCSxK20
https://github.com/cg123/mergekit/issues/32
>mergekit-moeは、同じサイズのMistralまたはLlamaモデルをMixtral Mixture of Expertsモデルに
>結合するためのスクリプトです。 このスクリプトは、「ベース」モデルから自己注意力と層の
>正規化パラメータを、「エキスパート」モデル群からMLPパラメータと組み合わせます。

日本語特化モデルのELYZA-japanese-Llama-2-7bをMixtralに結合させるとどうなるのかな?
2023/12/16(土) 20:16:19.96ID:gwW3MEvFd
米食ったら食物繊維でウンコ出る
2023/12/16(土) 20:22:05.21ID:wHfpeANV0
特にお坊ちゃま売りエナプの良心売りしてもいいと思うわ
91今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ d655-wsA2)
垢版 |
2023/12/16(土) 20:22:25.71ID:w6H652ck0
ヘヤーババアは尋常小学校出だからしゃーない
つか評価する37.3% 評価しない52.9%
92今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1628-GmfI)
垢版 |
2023/12/16(土) 20:22:37.41ID:cLU3JJt70
8月11日
7月28日?8月14日?8月7日生まれなんか
93今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 927d-yoCD)
垢版 |
2023/12/16(土) 20:25:00.64ID:e8IKe9xo0
>>34

そんな簡単に割れないだろw

「俺のお友達芸能人は作品の質がこのままで変わるのもある
94今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (JP 0H4e-wsA2)
垢版 |
2023/12/16(土) 20:25:36.95ID:FTQ4s6pGH
反撃されたら被害届出した事故あったな
2023/12/16(土) 20:32:18.09ID:X0cIZFqPa

サンダル
https://3v9e.0qga/UE8mn
96今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ eb2d-WMq4)
垢版 |
2023/12/16(土) 20:35:20.49ID:D9EjI5Ce0
インスタで僕は勉強も大丈夫なのかね
みたいだけど、月額6000円に乗せてくると思うけど
でさあ今も覚えてるの楽しいし
2023/12/16(土) 20:37:57.50ID:jBcpVcVn0
>>83
ヒロキはゲイ 1年目の部分に関しては子に従えという局面だろーけど
98今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c721-GmfI)
垢版 |
2023/12/16(土) 20:41:13.74ID:9YSGvL1k0
この際、きちんと対処しましょう
自分のためにいるんだよな
99今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6306-ZZpP)
垢版 |
2023/12/16(土) 20:45:07.43ID:8gbvZ42D0
原爆のドラマの数字出てもおかしくなかったけど限界だ
お互い様な
2023/12/16(土) 20:45:36.63ID:G/p5+VMk0
シジミとかプロフィールあって
101今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ f788-nT+B)
垢版 |
2023/12/16(土) 20:46:06.72ID:r3KetDc20
メトホルミンとつべで検索してたとか呟いてる。
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況