X

なんJLLM部 ★4

■ このスレッドは過去ログ倉庫に格納されています
2023/09/30(土) 08:32:45.60ID:wbO7dX6P0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
英語ならそこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
日本語は、どう転んでもローカルで動かせる今の世代はオバカなので
そこは期待しすぎんといてな

自薦・他薦のモデルやツールは>>2以降

なんJLLM部 ★3
https://fate.5ch.net/test/read.cgi/liveuranus/1691639766/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
226今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9554-pcI3)
垢版 |
2023/10/13(金) 12:44:19.83ID:3FqoHuBN0
>>225
主人公の設定を日本人にすればいいんじゃ?
2023/10/13(金) 12:46:57.71ID:xW+BKsfE0
pythonすごいなmecabとかwikipediaのライブラリあるのね

なんかエロ辞書を作るの全部自動で出来そう
2023/10/13(金) 12:47:35.94ID:hYZ8eISyM
LLMは言語を介して文化をも学習してると
2023/10/13(金) 12:49:13.41ID:xW+BKsfE0
外国語の翻訳で日本語は難しいって男女の言葉遣いの違い、喘ぎ方の違いとか翻訳ではできないでしょ
2023/10/13(金) 13:51:22.38ID:0TRBCqksM
なんでそんなにエロに必死なんだよ😅
2023/10/13(金) 14:19:49.06ID:f8NtxhfNM
ズリネタを自給自足して思うさまシコりたいからに決まってるだろ!!!
2023/10/13(金) 14:22:52.83ID:fQaZ0aba0
LLaVA-1.5ってどうなんだ?
web uiあるけど入れるの面倒くさそう
2023/10/13(金) 15:10:24.18ID:V7SpSP3L0
Xwinの新しいバージョンきてる?
234今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ae1f-6t2b)
垢版 |
2023/10/13(金) 16:14:25.46ID:hlN4sPbt0
>>225
koboldのmemoryとかinfoに日本要素設定すれば日本として扱ってくれるよ
モブキャラの名前も勝手に日本人名になる

このごろMLewd ReMM Chat 20Bばっかり使ってるわ
新しいエロいのあったら教えてクレ
2023/10/13(金) 16:28:55.92ID:xW+BKsfE0
>>216のコードはスクレイピング対策されて動かないや、JS対応させないと
236今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 46eb-iLfk)
垢版 |
2023/10/13(金) 16:46:22.84ID:dyoSxveU0
Xwin V0.2さらに出来るようだな。
70Bはよ
2023/10/13(金) 17:01:03.24ID:Zf4gxW470
modelにもよるけど、舞台は何々時代の日本です、とするとちゃんと描写してくれる…こともある

ただ英語で、futonに寝て、gohanとmiso-soup頂くのはあってるんだけど変な感じがする
2023/10/13(金) 17:34:16.20ID:EpdZt/9v0
>>226
英語言語モデル使うと日本人の名前にしても海外風の物語で進んでいかないか?

例えば田中が主人公の恋愛ストーリー書いてもらうとするやん、田中がホームパーティー開き始めるんだが
239今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 4698-STj1)
垢版 |
2023/10/13(金) 17:44:45.99ID:dyoSxveU0
>>238
美咲は12歳の日本人の美少女だ。

って、書いといたら、futon とか tatami とかの描写が勝手に出てきたぞw
2023/10/13(金) 18:06:57.30ID:NARmhi070
>>237
画像検索するとわかるけど、英語のfutonはどこをどう間違ったのか「折りたたみ式ソファベッド」のことになってるからね・・・
2023/10/13(金) 18:15:03.09ID:sF7qAYOX0
折りたたみまではあってる
2023/10/13(金) 18:55:27.68ID:fQaZ0aba0
Xwin V0.2は圧縮版?じゃないと自分のPCじゃたぶん無理や
というかそっちは本家が配布してるわけじゃないのね
2023/10/13(金) 19:57:51.10ID:hlN4sPbt0
【Zephyr 7b Alpha】ついにLlama 2を超えるLLM現る!HuggingFaceの最強AI
https://weel.co.jp/media/zephyr-7b-alpha
244今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 4698-STj1)
垢版 |
2023/10/13(金) 20:37:14.08ID:dyoSxveU0
>>243
日本語なら70Bやイライザの方が賢いな
2023/10/13(金) 21:07:02.69ID:yjdU2o5v0
Llama 2をファインチューニングしたモデルとそうではないモデル分けてくんね
246今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b19-+yyM)
垢版 |
2023/10/14(土) 04:44:13.88ID:zjt8Yd1Y0
エロじゃなければ別にGPT4で問題ないからローカルにこだわる人間はほぼほぼエロ目当てなのだ
2023/10/14(土) 05:00:52.10ID:dOnslAya0
大葉でAutoAWQ Loaderをなかなか動かせなかったので、動かした方法をメモ。
どうも最新版だとダメらしいので過去のリビジョンを取ってくる。set-upstream-toやらないとstart_windows.batに怒られた。

git clone https://github.com/oobabooga/text-generation-webui text-generation-webui_06fff3b2e918f37e0c7d477d111a08d042e72968
cd text-generation-webui_06fff3b2e918f37e0c7d477d111a08d042e72968
git switch -c mybranch 06fff3b2e918f37e0c7d477d111a08d042e72968
git branch --set-upstream-to=main mybranch

あとはstart_windows.batで起動。
--sdp-attentionは指定したらエラーが出たので指定しない方が良さそう。
AutoAWQオプションのno_inject_fused_attentionはチェック入れないとVRAM消費きつい。
2023/10/14(土) 08:57:31.31ID:oP8PFaPy0
https://huggingface.co/Sao10K/Euryale-1.3-L2-70B-GGUF
Euryaleもバージョンアップしてた
元々NSFWに強いモデルだけど他のモデルでよくある問題の「繰り返し」が起きにくいらしい
少し書かせてみたけど文章もエロくて詳細だしなかなか良さげ
2023/10/14(土) 09:21:53.82ID:IKntE0Pw0
みんなが求めているエロファインチューニングは>>216がヒントなんでしょ?

>>216のやってることllama2系の日本語得意なやつにファインチューニングさせるにはどうしたらいいのかを知りたい
2023/10/14(土) 09:47:40.33ID:LkPR865M0
>>248
ありがたい情報だけど70B動かす気になれんのよな遅すぎて
Euryaleは70しかないんだよなー
2023/10/14(土) 12:25:26.92ID:JQ6os8aD0
基本的なことなんだけどwebuiに入れたモデルの削除って普通にmodel内のフォルダを削除するだけでいいんかな?
2023/10/14(土) 14:33:20.88ID:qp48TMQu0
>>251
それでいい パラメータをいじって保存してたらmodels/config-user.yamlに設定が保存されてるから当該部分削除したら完全に入れる前の状態に戻る(ファイルサイズ的には誤差)
2023/10/14(土) 15:23:00.61ID:JQ6os8aD0
>>252ありがとう
2023/10/14(土) 17:08:38.37ID:IViwW9JV0
好きになるのにそんな大層な理由なんてないよ
255今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b29-gsUY)
垢版 |
2023/10/15(日) 06:02:50.00ID:2G69btJ+0
3060で結構楽しんでるけど13gでギリギリなのか40回程度会話したらOOM食らうのが悲しい😭
2023/10/15(日) 10:23:41.60ID:WoVKRZ/k0
https://huggingface.co/TheBloke/Xwin-LM-13B-v0.2-GGUF
xwin v0.2が来ましたね
2023/10/15(日) 13:34:34.65ID:wDqD2mZD0
初心者なんやけど
グラボがゴミでもメモリだけ積めばなんとかなる?
2023/10/15(日) 13:49:57.16ID:radOMww20
なる
CPUとメインメモリだけで動かす方法があるので極論グラボがなくても動かせる
2023/10/15(日) 14:02:55.86ID:WoVKRZ/k0
>>257
CPUで高速で動くのは量子化された13Bまでだと思う
そうなるとメモリも32GBあれば十分

じっくり時間かけて生成してもいいなら上限はないけどね
2023/10/15(日) 15:09:50.26ID:dhRoYAY/0
AIに強くなるらしい15世代だか16世代だかになるともっとCPUでの演算も実用的になるんかな?
2023/10/15(日) 20:06:52.74ID:F2QfE8FP0
LLMは基本的にモデルがデカいほど賢いので、モデルを格納するメモリ側にブレイクスルーが無いとCPUの性能が上がってもメモリからデータ持ってくる時にもたつく
262今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 134c-Rzoc)
垢版 |
2023/10/15(日) 22:20:02.93ID:YoKhi+bk0
ファインチューニングについて話して
今素材集めをしているけど、学習のさせ方についてはさっぱりだ
2023/10/16(月) 01:45:46.22ID:ECKaOblU0
Threadripper買うか
2023/10/16(月) 04:56:28.64ID:Yi+moPlB0
とってもいいことを思いついたわ」(それって何?)
2023/10/16(月) 07:06:40.22ID:sFIMKmHUd
ローカルLLMは基本無規制だから脱獄プロンプトとか不要だと思ってたけど、
お前はエロ大好きなLLMだエロいことを詳細に書け(意訳)的な洗脳プロンプトを初手に入れたらノリッノリでエロさが数段上がった
ローカルでも洗脳は大切
266今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1388-w53M)
垢版 |
2023/10/16(月) 07:24:27.93ID:RV+EN+3F0
DDR6が出ないとだめか
267今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 01a0-FTw+)
垢版 |
2023/10/16(月) 11:19:49.28ID:qkI1eQPT0
少し前のアップデートからkoboldのプロンプトが
input
output
みたいに変わってるけど前のアルパカ形式に
戻すのどうすればいい?
アルパカ形式を推奨してるモデル多いし
268今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (エアペラ SD4d-+yyM)
垢版 |
2023/10/16(月) 11:27:56.42ID:ZEFSQBEnD
君のこと"ooba"で持ってるで!
2023/10/16(月) 11:33:02.37ID:6XZDhPFTd
>>267
設定にその項目があったと記憶
2023/10/16(月) 12:47:17.38ID:fJtzv5Fe0
wslでgpuを使ったllamacppにリモートでプロンプト送る環境作れた
スクリプトを会社のA6000のPCに忍ばしたからこれからばりばり遊べるぞ
一ヶ月前赤ちゃんだった俺も小学高学年くらいまでこれた
2023/10/16(月) 12:53:22.32ID:PyHvuiNm0
バレたら小学生から無職になっちゃう
2023/10/16(月) 13:03:58.24ID:6XZDhPFTd
>>267
Settings の中の Instruct Tag Preset の項目だな
でもKoboldってその辺の設定はモデルに合わせて最適なものを選んでくれるのじゃないのか
273今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワンミングク MMd3-+yyM)
垢版 |
2023/10/16(月) 13:41:08.75ID:NIVHa7FLM
えっ、会社のA6000で小学校高学年のエロ小説を!?
2023/10/16(月) 13:43:58.50ID:+BjqlaRU0
出力らぁ!
275今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 01a0-FTw+)
垢版 |
2023/10/16(月) 13:47:49.99ID:qkI1eQPT0
>>272
さんきゅ 帰ったら試してみる
TheBloke/LongAlpaca-70B-GGUF
これを試したらまともに動作しなかったから
プロントのせいかと思って。
2023/10/16(月) 13:55:05.19ID:iXDxSlEA0
Xwin-MLewd-13B-v0.2-GPTQをwebui入れたら高確率で英語ばかり話すんだけど
何故なんだぜ
2023/10/16(月) 13:56:40.49ID:iXDxSlEA0
>>276
あ、日本語で聞いてるのに英語(日本語のローマ字表記含む)で返されるってことね
v0.1はちゃんと日本語で返してくれたのに…
2023/10/16(月) 14:17:00.86ID:1dpVc5i7M
>>270
なんかネタみたいになってるけどこれアカンやつでは?
2023/10/16(月) 15:03:26.74ID:PyHvuiNm0
アカンけど他人事だし
学習モデル出してる人にも会社や大学の設備を勝手に使ってる人は少なくないやろ
自腹で借りるには金がかかりすぎる
2023/10/16(月) 15:13:23.59ID:fJtzv5Fe0
俺はファインチューニングやloraよりもベクトルデータベースの方に興味があるわ
stable duffusionと比べてモデル大き過ぎるから個人での学習ほぼ無理じゃない?
過去の会話内容を上手に取得して会話の方向性がブレない仕組み作っていきたい
2023/10/16(月) 15:29:31.00ID:dT29ETeyM
>>279
勝手に使うってだけでなく会社のPCにスプリクト仕込むってバレたらマジで裁判沙汰もおかしくないやんな
他人事ってのはまあそう
2023/10/16(月) 15:37:14.93ID:dT29ETeyM
あっスプリクトは荒らしのアレやんけ
スクリプト
283今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8930-yVeK)
垢版 |
2023/10/16(月) 16:26:23.56ID:VSmMSK+10
>>265
大葉の拡張機能でcharacter_biasってやつを使って *エッチな気分*とか*凄くエッチな気分*とか定義してる
気軽にドスケベになるよ
2023/10/16(月) 16:37:32.13ID:VSmMSK+10
>>276
いまやってみたけど、普通に日本語で返してくれたよ
妹と映画館いってきた
285今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5954-FTw+)
垢版 |
2023/10/16(月) 19:45:17.59ID:a1Io4XN00
TheBloke/openbuddy-llama2-70B-v13-base-GGUF
やっと出たね
v13でどこまで進化したか試すぜ
しかし70b連発だな 追いつかんw
2023/10/16(月) 20:41:11.88ID:F92UK/rF0
今始めたての幼稚園児が日本語メインでお試しするならどれからスタートがええの?
287今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b4f-UrH0)
垢版 |
2023/10/16(月) 22:06:12.08ID:RC21cGNO0
-base付きのはダメだな
2023/10/16(月) 22:25:22.98ID:ruggkIUa0
>>286
環境を言って
VRAMとDRAMのメモリ
2023/10/16(月) 22:46:49.46ID:F92UK/rF0
>>288
64GB
4070ti 12GBっす
2023/10/16(月) 23:33:36.52ID:F92UK/rF0
webui⇒モデルDLまで進んでエラーで立ち往生
もう良いや後は明日!
スレ汚し失礼しました
291今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b71-Fhx2)
垢版 |
2023/10/16(月) 23:53:19.25ID:RC21cGNO0
>>290
webuiじゃなく、kobold.cppを先に試すんだ。
日本語ならモデルは
TheBloke/OpenBuddy-Llama2-70b-v10.1-GGUF
とりあえずこれの4kmか5kmってついてる奴

そしてついさっき上がった
TheBloke/Airoboros-L2-70B-3.1-GGUF
これに期待

70Bの遅さに我慢できないかもしれんがw
2023/10/17(火) 00:48:08.66ID:BHC4RI0L0
>>291
ありがとう明日の夜に挑戦してみますわ
293今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0bd8-Rzoc)
垢版 |
2023/10/17(火) 03:37:11.39ID:fu2CcOtm0
>>224
GGUF:VRAMとDRAM両方を使えるようにしたモデルただし遅い
GPTQ:量子化と言う処理をして無駄な情報を削って軽くしたモデル、VRAMで動かすので早い
その環境ならGGUFかGPTQモデルの13bか7bモデルが限界だろう、7bモデルで日本語がまともに使えるモデルは少ない、ELYZAくらいかな
13bモデルから日本がまともにできるけどそれでも限られるVICUNAとか日本語上手いけどエロい話は無理お堅い学習しかしてないから真面目な会話しかできない。
30bとか70bとかだといろんなモデルで日本語使えるけどスペックはもっとないと起動できない
294今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0bd8-Rzoc)
垢版 |
2023/10/17(火) 03:51:28.56ID:fu2CcOtm0
>>224
70bのGGUFかGPTQ動かすのにDRAM128GB、VRAM48GB(3060x4)でやってる
30bならDRAM128GBかVRAM24GBでもワンチャンいけるかも
それくらいの環境じゃないといろいろなモデルの日本語を試せない
295今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0bd8-Rzoc)
垢版 |
2023/10/17(火) 04:01:55.17ID:fu2CcOtm0
ちなみにGPU複数刺しは電力使うから電源の強化も必要1000w以上の電源つけないと
あと普通のPCケースだとGPU2枚くらいでスペース的に限界だからマイニング用の台にライザーカードっての使ってGPU増やしている、あとはPCIeのスロットがいっぱいついたマザーボードにした方がGPUはいっぱいつけれる。
2023/10/17(火) 08:02:31.19ID:1x+HgP1t0
GGUFがレイヤー数指定してGPUにオフロードできるのは知ってるけどGPTQも同じような事できるの?
297今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8930-5VNr)
垢版 |
2023/10/17(火) 11:46:23.99ID:FqBBAF2D0
ライザーで4枚刺しとか行けるんだな
RTX3000番台はノイズに弱くて直挿し以外困難かと思ってた
298今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ fb12-/4nw)
垢版 |
2023/10/17(火) 12:58:33.95ID:Ptdcmqge0
3060を4枚挿しは無理矢理感を力技で押さえつける男の子ドリームで素敵ね
排熱処理がしんどそうだけど
299今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 39f3-394k)
垢版 |
2023/10/17(火) 13:40:45.29ID:Yv1A9oiw0
ライザーでビデオカード複数刺したとしてvramって合計になるものなんですか?
2023/10/17(火) 14:16:10.01ID:mF+kjpiPH
70Bが動く環境は羨ましい
poeとかでSolar-0-70bを動かすとすげえなあと思う
2023/10/17(火) 16:02:32.32ID:bI2woeQX0
>>299
LLMに関してはローダーにもよるけどGPUごとにモデルを分割してロードしてそれぞれで処理することができる
うちも4090と3090の2枚挿しで70BのGPTQ動かしてるけど電気代とPC排熱が心配
2023/10/17(火) 16:02:54.83ID:p+VlejA/M
textgeneration webuiで日本語出力させてるんだけど、回答が短文で終わっちゃうんだけど何かパラメーターとかあるのかな?

chatgptみたいに長々回答させたいんだけども。
generate連打すればそれっぽくはなる。それかキャラクターを頑張って作成するとかか…
2023/10/17(火) 16:03:29.62ID:p+VlejA/M
textgeneration webuiで日本語出力させてるんだけど、回答が短文で終わっちゃうんだけど何かパラメーターとかあるのかな?

chatgptみたいに長々回答させたいんだけども。
generate連打すればそれっぽくはなる。それかキャラクターを頑張って作成するとかか…
304今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2bee-UrH0)
垢版 |
2023/10/17(火) 16:29:41.14ID:ocDRlyYp0
OpenBuddy/OpenBuddy-llama2-70b-v13.1
きた!
こいつが本命だ
2023/10/17(火) 16:37:15.56ID:p+VlejA/M
あ、なんか連投になっちゃった
306今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ d10a-Rzoc)
垢版 |
2023/10/17(火) 17:52:55.03ID:EeWeATl50
>>238
トークンの数増やして
でも増やし過ぎるとメモリ食って落ちるけど
2023/10/17(火) 18:02:43.90ID:D5YBaGtc0
なお画像生成の方のStable DiffusionはマルチGPUに対応していない
ま、そのうち対応するだろうけど、それを聞いて絶望した。
2023/10/17(火) 18:03:46.63ID:TPPj+p2cF
なお画像生成の方のStable DiffusionはマルチGPUに対応していない
ま、そのうち対応するだろうけど、それを聞いて絶望した。
2023/10/18(水) 06:55:47.82ID:Es/4FZj20
>>304
日本語出力に定評のあるOpenBuddyのバージョンアップやな
触り心地どう?
310今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5954-FTw+)
垢版 |
2023/10/18(水) 09:18:37.52ID:wd+49niq0
baseモデルはダメだった
v13.1は消えてもうた
2023/10/18(水) 12:58:58.46ID:d1JV27f00
>>310

なんで消えたん?
2023/10/18(水) 18:56:42.28ID:Es/4FZj20
https://huggingface.co/OpenBuddyEA/OpenBuddy-llama2-70b-v13.1
まあオリジナルは存在してるからそのうちニキがまたgguf版を上げてくれるべ
313今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b8c-Fhx2)
垢版 |
2023/10/18(水) 19:53:43.87ID:FzlevhBm0
>>312
OpenBuddyEA ?
こっちにあったんかい!
なんで分けたんだろ
314今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 2b8c-Fhx2)
垢版 |
2023/10/18(水) 19:54:45.08ID:FzlevhBm0
>>312
OpenBuddyEA ?
こっちにあったんかい!
なんで分けたんだろ
2023/10/18(水) 21:51:58.24ID:jQ/yZton0
TensorRT-LLM for Windows
推論速度上がるの期待しとるで
2023/10/19(木) 03:41:46.42ID:uZ+Gjr8o0
https://pc.watch.impress.co.jp/docs/news/1540197.html
これか。
LLM向けライブラリは公開されたらしいから、そのうち誰かが実装するか?
2023/10/19(木) 07:04:04.07ID:smTystBe0
Koboldのバージョンアップで対応してくれるのに期待
2023/10/19(木) 07:27:46.73ID:smTystBe0
「世界トップレベルの大規模言語モデルの開発に着手」──産総研らが表明 目指すのは“GPT-3級の日本語LLM”
https://www.itmedia.co.jp/news/spv/2310/18/news121.html
175Bかい
2023/10/19(木) 08:20:03.87ID:Kv8jjL7R0
一桁小せえよな
2023/10/19(木) 09:33:22.50ID:KcOi4sNe0
最近ファインチューニングに向けて準備してるけど、ぶっちゃけウィキペディア全部学習させればかなり賢くなるんじゃないのか
2023/10/19(木) 09:38:27.65ID:ZxDwY0T90
wikipediaは間違いとデマの巣窟なので
誤ったことをさも事実っぽく返してくる厄介なチューニングになってしまう
2023/10/19(木) 09:42:33.07ID:kEsV8xmS0
ウィキペディア学習はもうやってる
むしろ日本語学習に使えるデータが足りんって聞いたな
323今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 3902-+yyM)
垢版 |
2023/10/19(木) 09:52:33.17ID:V/m+IVwg0
dlsiteのライブラリに数多に存在する同人エロ音声の台本群を
2023/10/19(木) 10:29:21.01ID:VUkoAfJR0
初手アヘりそう…(偏見)
325今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 73fe-FTw+)
垢版 |
2023/10/19(木) 10:29:30.51ID:dJUkQXRM0
>>319
gpt3って165bじゃなかった?
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況