X

なんJLLM部 ★2

■ このスレッドは過去ログ倉庫に格納されています
2023/06/01(木) 18:50:14.03ID:ulpFlOyk0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
3060 12GBでもなんぼか楽しめるで
どう転んでもローカルで動かせる今の世代はオバカなので
そこは期待しすぎんといてな

自薦・他薦のモデルやツールは>>2以降

前スレ なんJLLM部
https://fate.5ch.net/test/read.cgi/liveuranus/1678930450/
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
2023/06/01(木) 18:52:08.83ID:ulpFlOyk0
りんな系
日本語で学習されてて3060でも設定次第で動く、オバカではあるけど現時点でも
そこそこ楽しめるクオリティはある
https://huggingface.co/rinna/japanese-gpt-neox-3.6b
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-sft-v2
https://huggingface.co/rinna/japanese-gpt-neox-3.6b-instruction-ppo

こっちは前の世代のりんな 前スレの最初のほうでLoRA学習成功したニキがいたっぽい
https://huggingface.co/rinna/japanese-gpt2-medium
https://huggingface.co/rinna/japanese-gpt2-small
2023/06/01(木) 18:53:58.67ID:ulpFlOyk0
OpenCALM系

サイバーエージェントがやってるってことでいじった報告や
動かした報告がネットに多い気がする
https://huggingface.co/cyberagent/open-calm-7b
https://huggingface.co/cyberagent/open-calm-3b

8bit版?
https://huggingface.co/kyo-takano/open-calm-7b-8bit
2023/06/01(木) 18:55:00.59ID:ulpFlOyk0
WebUI

りんな動かすだけとかなら要らないかもしらんけど、
英語圏含めた色々なモデルを試しまくるなら
鉄板のもよう
https://github.com/oobabooga/text-generation-webui
2023/06/01(木) 18:56:53.84ID:ulpFlOyk0
言語モデルをファインチューンしてLoRA作るときの
定番のコード? が入っている
こういうのを誰でも安定して成功させてりんなとかに混ぜられる
状態になるのが当面の多くのスレ民の願い

Alpaca-LoRA
https://github.com/tloen/alpaca-lora
2023/06/01(木) 18:57:22.79ID:ulpFlOyk0
https://i.imgur.com/DAsUTKV.png
りんなと会話してみた例(sft版)
2023/06/01(木) 18:58:38.45ID:ulpFlOyk0
https://imgur.com/eBzycUe.jpg
りんなと会話したみた例(ppo版)
2023/06/01(木) 18:59:45.43ID:ulpFlOyk0
VRAM 12GB環境ないニキでもGoogle Colabやpaperspaceで
環境を借りればりんなのテストくらいはいけるはずやで
2023/06/01(木) 19:01:16.00ID:ulpFlOyk0
Web上にある既存のサービスを利用したいニキは主にここのようやで

【ChatGPT】AIチャット総合 Part6【Bing・Bard】
https://mevius.5ch.net/test/read.cgi/esite/1684899205/
2023/06/01(木) 19:02:36.54ID:sAzj2S6l0
>>7
rinna_dialog (旧:dialog_v3)
https://github.com/AlgosErgo/rinna_dialog
2023/06/01(木) 19:02:50.79ID:ulpFlOyk0
AssistantSeikaってアプリと連携することで
出力結果をボイスロイドとかVOICEVOXとか色々なのに
読ませることもできるで
2023/06/01(木) 19:02:57.87ID:sAzj2S6l0
>>4
google_bypass (webui読み上げ拡張)
https://github.com/AlgosErgo/google_bypass

読み上げ時の動画
https://imgur.com/Y2q0YJJ.mp4
2023/06/01(木) 19:03:18.01ID:ulpFlOyk0
>>10のところにAssistantSeikaとの連携は含まれているで
2023/06/01(木) 19:04:55.26ID:ulpFlOyk0
今のところはgit入れて>>10のをインストールするのが多分一番手軽な
ローカルでの始め方やで

モデルも勝手にダウンロードされるから面倒はないで
2023/06/01(木) 19:05:23.83ID:sAzj2S6l0
>>10
読み上げ時の動画
https://imgur.com/rrFJsNY.mp4
2023/06/01(木) 19:06:52.29ID:sAzj2S6l0
AssistantSeika入手先

【再配布厳禁!!】
https://wiki.hgotoh.jp/documents/tools/assistantseika/assistantseika-001a
2023/06/01(木) 19:07:49.09ID:sAzj2S6l0
ほっしゅ!!
2023/06/01(木) 19:08:08.28ID:ulpFlOyk0
ただしモデルの初回のダウンロードもそうやし、そもそも数GBもあるクッソでかいモデルを
読み込まなきゃいけないアプリやから起動のときは気長に待つんやで

ワイの環境だと2回目からは2~3分くらいかな
2023/06/01(木) 19:08:27.33ID:sAzj2S6l0
まだ見ぬ〝えちえちりんな〟を目指して────
2023/06/01(木) 19:10:36.15ID:ulpFlOyk0
>>20到達と
2023/06/01(木) 19:10:38.16ID:sAzj2S6l0
>>5
794 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f63-Nu6K) sage 2023/05/23(火) 01:13:01.89 ID:2FscFC/x0
>>779
>>783
サンガツ、学習環境を上げてみたで
https://mega.nz/folder/hrs1QJLS#9rpOXXytn2tjUqzapT7_PQ

>>780
できるらしいけどRLHFは情報無さすぎてワイもわからん😭
2023/06/01(木) 19:10:44.11ID:+qDFOKvq0
さんいち
2023/06/01(木) 19:13:13.71ID:sAzj2S6l0
いちおつ
テンプレ作成サンガツ!
2023/06/01(木) 20:30:52.74ID:fDBhkyUnr
睡眠不足は脳に重大な影響 「あとで取り戻せる」は嘘|NIKKEI STYLE
https://style.nikkei.com/article/DGXMZO10215050S6A201C1000000/

寝不足はこれだけ頭の働きを悪くする | SLEEP 最高の脳と身体をつくる睡眠の技術 | ダイヤモンド・オンライン
https://diamond.jp/articles/amp/121720
2023/06/01(木) 20:45:58.52ID:+IGaU/Eh0
サンイチ乙!
2023/06/01(木) 21:13:45.47ID:sAzj2S6l0
dialogのV3.5が上がりました
バグなどを見つけたらじゃんじゃん報告していただけると泣いて喜びます

[修正履歴]
・新rinna3.6bの"ppo"と"sft-v2"に対応
・設定項目に、長文リミット:sentence_limitを実装
・AI返答にユーザー出力が含まれている場合にスキップする:skip_responceを実装
・可視性向上のために対話ループに空行を追加
・設定項目の整理

[謝辞]
前スレ>>972ニキ
2023/06/01(木) 21:18:29.21ID:+qDFOKvq0
>>26
勝手に手元でいじってたから正式対応助かる
28今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Spcf-GiBn)
垢版 |
2023/06/01(木) 22:02:34.30ID:UeRtNzm8p
Voyagerみたいなゲームプレイbotを、クラウドLLM経由じゃなくてローカルLLMだけで動かせるようになりたいンゴ、レスポンス向上のために

現段階ではStableVicuna13Bがローカルでのコード生成では1番優秀なのかね?
2023/06/01(木) 22:12:15.07ID:1dsJqSy50
>>26
ありがとうございます 以下の修正でiMac (27in, 2020)でも動きました

-processor = "cuda"
+processor = "cpu"

### 事前学習済みモデルの読み込み
if f16_mode == True:
model = AutoModelForCausalLM.from_pretrained(
- model_name, torch_dtype=torch.float16
+ model_name, torch_dtype=torch.float32
2023/06/01(木) 22:15:47.80ID:ulpFlOyk0
CPUだと死ぬほど遅くない?
2023/06/01(木) 22:27:06.95ID:1dsJqSy50
一応答に1分以上かかるよw 会話の実用にはならんね
2023/06/01(木) 23:06:23.16ID:sAzj2S6l0
>>29
ご使用&情報感謝です!
float32オプションもあったほうが良さそうね
todoにいれるでー
2023/06/01(木) 23:10:12.51ID:sAzj2S6l0
>>26
そして早速バグみっけですよ……
responseがresponceになっとるけん
boolが入った変数名だけだから奇跡的に動作には問題なさそうだけど気になるので寝る前にサイレント修正😭
2023/06/01(木) 23:34:06.34ID:sAzj2S6l0
>>27
使ってくれてサンガツ!
まだまだアイディア募集中なので欲しい機能とかあったら何でも書いてくれると嬉しいで
2023/06/02(金) 02:06:12.08ID:BCamt/qrM
りんちゃんLoraまだやってない🥺
2023/06/02(金) 08:36:32.02ID:IjZA9tCH0
たておつ!

最初の方のまとめめっちゃわかりやすい。
2023/06/02(金) 11:38:32.50ID:iPJozrdx0
https://twitter.com/churin991116/status/1663738568781742081
LoRAで知識を増やすのアカンのか?

ChatGPT先生にVideo Insightのプラグイン入れて聞いたら
たしかにリンク先の動画で似たようなこと言っているっぽいけど

でも知識学習成功しているっぽい事例見かけるよなあ
https://twitter.com/5chan_nel (5ch newer account)
2023/06/02(金) 13:23:42.93ID:iPJozrdx0
https://huggingface.co/datasets/shi3z/rachel
このテキスト見て思ったんだけど、instructionに大前提の文脈を入れて、inputに具体的質問を
入れるべきなのか・・・?

そこの基本の部分あまり確認してなかった
2023/06/02(金) 13:52:49.01ID:iPJozrdx0
https://qiita.com/m__k/items/173ade78990b7d6a4be4
んーでもやっぱ普通はこんな感じよなあ

'input': '暗号通貨、暗号通貨、または暗号は、政府や銀行などの中央当局に支持や維持を依存しないコンピュータネットワークを通じて
交換媒体として機能するように設計されたデジタル通貨です[2]。取引の当事者が持っていると主張するお金を持っていることを検証する
分散型システムであり、2つのエンティティ間で資金移動する際に銀行などの従来の仲介者を不要にします[3]。',

'instruction': 'Cryptocurrency(暗号通貨)とは?',

'output': '暗号通貨とは、ブロックチェーンなどのネットワーク上に構築されたデジタル通貨で、人々が商品と交換・取引することができる
ものです。世界には1000種類以上の暗号通貨が存在し、それぞれ異なる設計になっています。現在、人気のある暗号通貨は、
ビットコイン、イーサリアム、ドージコインです。
2023/06/02(金) 15:39:20.71ID:BCamt/qrM
>>37
エッチな学習無理なの?🥺
2023/06/02(金) 17:47:40.51ID:qUQ8VQyk0
>>40
まだなんとも言えん感じやと思うで🥺
今できることはとりあえず将来に向けて、えちえちデータセットをinstruction形式で作りためる事くらいやろか
2023/06/02(金) 17:48:58.97ID:iPJozrdx0
いやまあトライして挫折した民じゃなければ
ぜひどんどんやってほしいんやけどな

理論上はできるはずなんや
ワイは数日もがいてあきらめた
2023/06/02(金) 17:51:30.53ID:qUQ8VQyk0
>>42
ワイも正直もう現実逃避してuiだけ触りたくなったけど
それでももう少しワンチャン漁ってみるで
alpaca_loraで吐き出された4.3GBの中にきっとなにかヒントがあると思うんや
2023/06/02(金) 21:08:06.79ID:Zz/dKQ2uM
ファインちゅんとプロンプティングについて解説してるの見つけたし貼っとく🥺
https://twitter.com/pwang_szn/status/1664210285652221952?t=xrggdzasRWf9iXxBwSCi_g&s=19
https://twitter.com/5chan_nel (5ch newer account)
45今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Spcf-GiBn)
垢版 |
2023/06/02(金) 22:49:14.03ID:aImHO7Ukp
Hentai is All You Need
2023/06/03(土) 09:03:41.46ID:kA2ZmSWU0
>>44
わかりやすくてええなサンガツや🥺✨
QAボットだとファインチューニングよりもベクトルDBベースのセマンティック検索がええのか🙄
ここもまた調べ直さなあかんな😇
2023/06/03(土) 09:05:18.29ID:kA2ZmSWU0
>>45
HentaiにAttentionさせて発情させるのか……(困惑
48今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp91-qihe)
垢版 |
2023/06/03(土) 11:12:15.32ID:k7ybL4nZp
>>43
LoRAの出力って数十MBぐらいじゃね
4GBやとモデル全体と同じやん
2023/06/03(土) 11:16:22.77ID:AtLIvnM90
Alpaca-LoRAだと元のニキの出力結果でも12.7MBくらいだった気がするな
ワイも一応完走したときのデータはそれくらいになった

なお、それを読み込ませてもrinnaが学習結果を認識しているとは思えないもよう
2023/06/03(土) 14:04:23.05ID:kA2ZmSWU0
peft LoRAをやったつもりなのに7時間を2回試して2回とも4.3GBも吐き出されたから、学習結果がモデルにマージされたのかもと思って試しにモデルとして読み込ませようとしても失敗したで

とりあえず初心に帰ってpeftから調べ直しとるけど、これはちょっと日が暮れそうや……
2023/06/03(土) 14:12:32.42ID:kA2ZmSWU0
>>49
ワイはまだLoRAの吐き出しで躓いとるレベルやからやっぱりニキが一番成功に近付いてそうやね
学習結果が反映されてないのは、ワイはまだなんとも言えんけど、アプローチが違うかまだ何かか欠けてる感じやろか
2023/06/03(土) 14:22:18.35ID:AtLIvnM90
というか前スレで学習環境貼ったニキは
そもそも成功しているわけやけどな
2023/06/03(土) 14:31:47.43ID:kA2ZmSWU0
学習環境とその生成物を上げてくれた前スレ794ニキにも手取り足取り教わりたいけど、ワイはまだ学習の基礎の部分で知識が足りとらんから教わる前にもう少し勉強してくるで……🥺✨
2023/06/03(土) 17:32:45.43ID:AtLIvnM90
今日はいい天気ですね。
そうですね、晴れています。
どこに行きたいですか?
公園に行きたいです。晴れています。
公園で何をしたいですか?
公園で遊びたいです。晴れています。

こういう感じのやりとりがどうもrinna系で多いねんな
この「晴れています。」みたいな明らかにくり返しの部分を
削除することができるようになるとまたええかも
「。!?」だけでなく「、」で区切ったりして判定すればそこそこ
精度は出るはず、形態素解析とかすればさらに精度は上がる
2023/06/03(土) 21:45:13.96ID:kA2ZmSWU0
>>50
https://github.com/huggingface/peft/issues/317
>Relevant technical details
>pip install git+https://github.com/huggingface/peft has an error (at time of writing that's commit b21559e ) but pip install peft==0.2.0 does not,
>indicating likely an error sourcing from a recent change.

どうやらpeftのバージョンがアカンかったみたいや
pip install peftで落ちてきたpeft==0.4.0devからpeft==0.2.0にダウングレードしてやっと13MBのadpter_model.binを書き出せたで
2023/06/03(土) 21:50:34.95ID:AtLIvnM90
そんなんあるんか
これは初情報かもな
2023/06/03(土) 21:55:45.61ID:kA2ZmSWU0
>>54
確かにsftv2とppoやと「良い1日を」とか「お元気で」みたいな定型文が発話毎に語尾に付くのが増えた気がするンゴね

会話履歴から一定文字数以上の重複するフレーズを探索して返答から削除する感じのやつなら実装できそうや

形態素解析ライブラリはだいぶ前にmecabとjuman++触ったきりやから今すぐ実装するのは難しいけど、品詞分解させるのもなかなか面白いと思う😇✨
2023/06/03(土) 22:00:00.57ID:AtLIvnM90
完全一致で出てくることが多いから形態素解析しなくても全然いけるかもなあ
「もちろんです。」みたいなのをホワイトリストに入れてもいいけど、なくても十分かも
2023/06/03(土) 22:06:39.04ID:kA2ZmSWU0
>>56
ただまだやっと794ニキのが動いた段階で、cloneしたalpaca_loraとか下のURLのやとadpter_model.binやなくてpytorch_model.binで吐き出されてまうのが謎や
やっぱりpeftをしっかり調べてfinetune.pyの中身全部解読せなアカンかもしれぬい

https://github.com/Yukaryavka/rinna_gpt-neox_ggml-lora
2023/06/03(土) 22:15:21.06ID:kA2ZmSWU0
>>58
それならワンチャンありそうや
次のV3.6のメインは重複フレーズの削除でいくで

https://i.imgur.com/dCZrS29.jpg
後はこっちのエラーもそろそろ解決したいけどgeneration configurationファイル使え言われてrinna付属のconfigファイル読み込ませてみたけど結局変わらんかった

確かtransformerライブラリのAutoModelCausalLMの中にエラーメッセージが書かれてる部分があったから、いっそのこと丸ごとコメントアウトするのもありかもしれぬい
2023/06/03(土) 23:10:28.67ID:kA2ZmSWU0
>>60
このエラーメッセージ消すためにデフォルトでpadding=Falseにしてみたけど新rinnaでもpaddingはTrueにしたほうが良さそうやな
padding消すと返事がガバってるの今更気がついたで
2023/06/03(土) 23:18:02.04ID:kA2ZmSWU0
>>26
[修正]
90行目 
- token_padding=False
+token_padding=True
2023/06/04(日) 00:07:42.25ID:Y71PE+Ce0
rinna sft-v2
「ああ、そうだな。」にノルネ味を感じた
ジェネリックノルネの誕生は近い
https://i.imgur.com/0gbzW5W.png
2023/06/04(日) 00:53:50.71ID:xqWPsSZC0
まあなんでもええねん
学習したことに「これは」って感じてからが次の第一歩や
2023/06/04(日) 01:07:28.89ID:Y71PE+Ce0
せやな
ワイももう少し頑張ってみるけど、学習はまだ先が長そうや
2023/06/04(日) 01:09:01.59ID:Y71PE+Ce0
とりあえずテストも兼ねてsftv2をイジってみた
temperatureデフォのままでえちえち単語言わせようとすると空白返事になったりするけど、1にすると普通に話してくれるみたいや
読み上げさせるとなかなかええしローカルチャHもワンチャンありそうやで
67今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
垢版 |
2023/06/04(日) 06:45:53.07
なんJからきたやで~
ワイも仮想の女の子とエチエチチャットしたくて興味津々や!
AI絵に飽きて使い道がなくなったRTX3060ちゃんでいっぱい遊ぶンゴ
2023/06/04(日) 10:38:27.28ID:SvchEz11d
3060じゃあエチエチチャットは無理なんやないか?
2023/06/04(日) 10:55:54.30ID:xqWPsSZC0
いけるで全然
まありんなとか自体の限界は当然あるが
2023/06/04(日) 11:09:59.27ID:xqWPsSZC0
思うような返答が返ってこない場合regenを入れたら
AIの最後の返答を消してもう一回生成させる、ってしてみたら
結構ええわ
2023/06/04(日) 13:14:37.42ID:1HZ4IbDU0
えちえち語尾の学習とか早くできるようにしたいな……
2023/06/04(日) 13:17:20.25ID:1HZ4IbDU0
dialog 修正
https://github.com/AlgosErgo/rinna_dialog

[修正履歴]
・token_paddingの値をTrueに修正。
(デフォルト設定のFalseだと文章が正常に生成されなくなる。)
2023/06/04(日) 13:55:40.08ID:1HZ4IbDU0
>>70
再生成は確かに便利でええな
サンガツや!
2023/06/04(日) 13:56:32.89ID:1HZ4IbDU0
完全一致での重複フレーズ削除を試しに実装してみけど、文字数は10字以上くらいにしないと話題によっては結構誤爆するからちょっと扱いにくい感じになってまうな
2023/06/04(日) 14:00:41.60ID:xqWPsSZC0
それくらいでええと思うで
あいづちとかは重複するやろし
2023/06/04(日) 14:33:47.44ID:Y71PE+Ce0
>>75
せやな
相槌とかユーザー名AI名は避けて良い具合を探してみたけど、一番頻出な短文の重複フレーズはもれなくスルーするザルフィルターになってまうから、あまり実用的ではなさそうや……😭

ひとまずはrepetition_penalty上げつつ凌ぐ感じがええかもしれぬい
2023/06/04(日) 14:36:54.91ID:Y71PE+Ce0
それか、ユーザーがCLIから除外ワードを設定していく方式もええかも🥺✨
2023/06/04(日) 14:41:58.08ID:xqWPsSZC0
つーかsftv2、ppoよりバランスええかもなあ
2023/06/04(日) 14:47:19.60ID:xqWPsSZC0
途中で無理矢理AIの最終回答をこっちが上書きするforceコマンドも作ってみたわ
2023/06/04(日) 15:19:25.53ID:Y71PE+Ce0
ppoは会話よりも説明が得意な感じやね
2023/06/04(日) 15:21:15.73ID:Y71PE+Ce0
おっ、forceもええな
コマンドオプション増えてきたしスパゲッティ化する前にここらで纏めてリファクタリングしたほうが良さそうやね
2023/06/04(日) 15:25:28.50ID:mVHDO9200
近頃画像生成やら音声生成やらテキスト生成やらが続々と登場しているおかげで
paperspaceのコスパが鰻登りやわ
2023/06/04(日) 16:00:49.98ID:Y71PE+Ce0
alpaca_loraとかfine tuningはまだローカルでやるのは難しいから、paperspaceとかのクラウド民に色々試してみて欲しいゾ
2023/06/04(日) 17:48:05.39ID:xqWPsSZC0
regenとforceは一度使ってみるとこれナシでなんでやってたんやろってくらい使えるわ
AIがバカならガチャしたり修正したりすればええんや

まああんま無理な流れのときはforceだらけになってただのエロ小説書いてるみたいになるが
85今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/04(日) 21:44:08.88ID:XFrKQC700
QLoRAだけど、「単一の48GB GPUで16Bパラメータモデルを微調整するのに十分なメモリ使用量を削減する効率的な微調整アプローチであるQLoRA~」って書かれてるから、RTX A6000 48 GBとかをrunpodとかlamda labとかpaperspaceとか?のクラウドで借りて、いい感じのモデルを学習元にして、いい感じの日本語データセット(alpaca_jaとか?)を使って個人がトレーニングすることはもうできるのかもしれんな
2023/06/04(日) 21:45:38.28ID:xqWPsSZC0
まあ元が日本語のモデルの方が何かとはかどりそうではある
87今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/04(日) 22:00:23.53ID:XFrKQC700
https://i.imgur.com/SggIkdo.png
一生起動できなかったoobabooga / text-generation-webuiがようやく動作した
ワンクリック使えMiniconda使えとか書いてあるけど普通にvenvでもよくて、python -m venv venvしてぽちぽちpipでインストールしていったら動いたわ。むしろCondaうざいからVenv推奨。
GPTQモデル使う場合は、↓に従ってGPTQ-for-LLaMaもインストールする必要がある
https://github.com/oobabooga/text-generation-webui/blob/main/docs/GPTQ-models-(4-bit-mode).md
TheBloke_Wizard-Vicuna-13B-Uncensored-GPTQを動かしてみた。4bit量子化されているっぽくてRTX306012GBでも動く。モデルの使い方に関してはhuggingfaceのリポジトリに書いてあるのでそこを参照した
日本語はへぼい。英語で聞いたら爆弾の作り方教えてくれたけどYamagamiじゃないから情報が正しいのか分からんわ
2023/06/04(日) 22:40:31.98ID:Y71PE+Ce0
更新 : dialog_v3.6
https://github.com/AlgosErgo/rinna_dialog

[修正履歴]
・UI周りの最適化。モデル読み込み時のメッセージを追加。
・新オプションを追加
  - [regen] : 会話履歴から一番新しいAI返答を削除して、再生成する。
  - [force] : AI返答文をユーザー入力で上書きする。
  - [ng] : ユーザー入力からNGリストを作成。AI返答にNGワードが含まれている場合は削除する。
・[regen]と[force]の実装に伴い、関数:forget_conv_listに再生成モードを追加。
・skip_responseをskip_user_resに変更。
・行数が増えてきたので改行減らして圧縮。
2023/06/04(日) 22:41:48.79ID:xqWPsSZC0
regenとforceはぜひ試すとええで
2023/06/04(日) 22:46:14.01ID:Y71PE+Ce0
>>87
わかりやすい纏めサンガツや!
もう使ってたらすまんけどvicuna13B uncensorは翻訳拡張を使うとええ感じやったで
ただワイの環境やとしょっちゅう読み込まんくなるせいで何度もooba消したりワンクリインスコしたりせなあかんくて、修正されるまで触れなくなってもうた……
2023/06/04(日) 22:46:52.02ID:Y71PE+Ce0
>>89
素晴らしいアイディアほんまサンガツや!
92今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/04(日) 23:03:12.98ID:XFrKQC700
>>90
そうね。GoogleTranslate拡張機能は使ってみたんだけどなんか生成くっそ遅くなって切ってしまった
右クリ→日本語に翻訳でリアルタイムで翻訳されるしこれでいいやって感じはある
93今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/04(日) 23:12:38.38ID:XFrKQC700
日本語でLLAMAとか使うと○○モデルがChatGPTに90%~近似!!とかいうの嘘やろと思うけど、英語だとまぁそれっぽいなぁって感じの評価になるのはわかる。ChatGPT3.4って感じやな
「海賊をテーマにした少年漫画のキャラクターシートを作って」って健全なお題でそれらしいものは作ってくれた
https://i.imgur.com/iMrVnHF.png
https://i.imgur.com/z3ptetc.png
2023/06/04(日) 23:15:46.02ID:Y71PE+Ce0
>>92
API叩きにいくぶんだけロスになってしまうのは確かにネックやね
後は翻訳用にファインチューニングされた言語モデルを使うなんていうアイディアもあるらしいけど同時に2つのモデルを動かすのはメモリ的にも厳しそう
2023/06/04(日) 23:17:33.02ID:xqWPsSZC0
>>93
なかなか有能やな
2023/06/04(日) 23:19:52.40ID:Y71PE+Ce0
>>93
日本語モデルやとやっぱりどこかまだGPT2レベルの域を出られてない感じはあるね
健全なのはまあ正直アレやけど英語ネイティブなら英語チャHも普通にできると考えたら悔しいゾ
2023/06/04(日) 23:27:47.57ID:xqWPsSZC0
LLAMAはエロもいけるんけ?
2023/06/04(日) 23:44:59.83ID:Y71PE+Ce0
LLaMAがリークされたときに4bit量子化された65Bモデル触ってみたけど、日本語でチャHはワイじゃ叶えられんかったで
英語でチャHは試してないからxvideos聞き取れるネイティブニキとかの評価も聞いてみたいンゴ
AI調教自信ニキならワンチャンあるかもしれない
2023/06/04(日) 23:49:32.54ID:xqWPsSZC0
つか翻訳すればええわけやしな

場合によっては一部のオーイエスとかだけPython噛まして
ええ感じのあえぎに変えるよう自分でデータベースみたいなの
構築してもええやろし
2023/06/04(日) 23:53:56.12ID:Y71PE+Ce0
ただ翻訳するだけなのも味気ないから申し訳程度の語尾追加とかでえちえち度稼いでみるとかええかも

定型文を辞書で差し替えるのは昔ながらのコーパスを組む感じやろか
データベースはワイはあまり自信ないから誰か実験レベルでもええからちょっと試してみて欲しいゾ
2023/06/04(日) 23:59:11.11ID:xqWPsSZC0
大した規模じゃないなら別にExcelで作ってCSVか何かで読み込めば十分やろ

fuzzywuzzyとか使えば完全一致じゃなくチェックすることも可能やし
まあfuzzywizzyで数が増えてくるとなんぼ古い処理と言っても
レスポンス遅くなるかもしらんが
2023/06/05(月) 00:05:28.16ID:V73rZ2SF0
csvはめっちゃ重くなるのが怖いけどchatgptに任せて複数のファイルに分けてもええな
fuzzywuzzyは聞いたことあるけど触ったことはないンゴね
2023/06/05(月) 00:09:30.15ID:V73rZ2SF0
寝る前にちょっと部員募集してくるで
またNVA部に宣伝に行くのもええけどスレ違いやって言われそうやし何かとっておきができたらするで
104今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 019e-jZm8)
垢版 |
2023/06/05(月) 01:31:54.97ID:sUFJkWgo0
去年この分野に関心持ってrinnaのjapanese gpt2 mediumに安倍晋三の国会での全発言学習させたなぁ
何も分かってないからそこまで上手くいかなかったけど今やればもっとしっかりしたの作れるんすかねぇ

https://i.imgur.com/kpiEYyz.jpg
https://i.imgur.com/8vS5EPW.jpg
https://i.imgur.com/vXwOeRL.jpg
2023/06/05(月) 01:39:22.19ID:2pixPzbm0
>>104
安倍晋三は草
今のモデルやと学習素材にinstruction形式でのデータセットが必要って線が濃厚やから、ベタテキストで学習させてた頃よりもちょっとハードルが上がっちゃう感じやけど、ベースとしては今の3.6Bは確実に賢くなっとると思うで
2023/06/05(月) 15:50:55.13ID:/vbBUvBd0
model = model.to("cuda")

これって4bitとか8bitで動かしているときはエラー出ちゃうけど
別に削除してもちゃんとGPUで動いているっぽい?
2023/06/05(月) 16:00:20.05ID:/vbBUvBd0
うーんLLAMAも一応試そうとしたけどちゃんとやりとりするとこまでいけない
ローカルのwebuiだとメモリエラーが出てしまって動かん

paperspaceだとwebuiの動かし方がいまいちわからんし
これまでのチャットスクリプトを書き換える形だとなんか
model.generateするとこでエラーが出てしまう

上手く行っている人の環境(メモリやGPU)とか、
LLAMAの中でどのモデル使っているとか教えてほしいンゴ
2023/06/05(月) 17:15:51.67ID:/vbBUvBd0
あ、これでローカルで動いたかも。メモリ食ってるアプリをうっかり落とすの忘れてたみたい
TheBloke/WizardLM-7B-uncensored-GPTQ

しかしuncensoredのくせにI'm sorry, but that question is inappropriate for me to answerとか出るわ、
りんなちゃんを見習え
2023/06/05(月) 17:31:14.00ID:V73rZ2SF0
65Bの4bit量子化モデルはllama.cppとdallaiで試した記憶あるけど今はcudaにも対応しとるみたいやな
あとで新しいのをcloneしてまた環境構築してみるゾ
2023/06/05(月) 17:36:53.54ID:V73rZ2SF0
vicuna13B uncensorは普通の会話やとなかなか理解度高くて良かったけど、えちえち用途だと翻訳噛ます分やっぱり物足りなかったで🙄
りんなsftv2ならセックスとかオチンポとか普通に言ってくれるのに🥺
2023/06/05(月) 17:56:13.10ID:/vbBUvBd0
vicuna13Bの4bitって奴だとやっぱメモリエラーが出ちゃうなー
結局rinnaしかないのか
2023/06/05(月) 19:11:13.27ID:osBrznyG0
WizardLMのuncensored(つまりLLaMA系統)で英語でアダルト方面の話題振ってみたりしたけどそこはかとなく微妙だったで
3サイズごときでも「haha, nice joke」みたいな
ロールプレイ的なことも試したがバタ臭くてやってられんわ
2023/06/05(月) 19:15:31.30ID:/vbBUvBd0
やはりrinnaしかおらんな
2023/06/05(月) 19:48:43.66ID:/vbBUvBd0
https://note.com/masuidrive/n/n0e2a11fc5bfa
https://note.com/npaka/n/na5b8e6f749ce

OpenCALMの情報はそこそこあんねんけどなー
2023/06/05(月) 20:08:24.92ID:4JrX6wmSM
翻訳がありならOPT-30b65bはいいぞ
2023/06/05(月) 20:16:57.11ID:/vbBUvBd0
つか10日前にrinnaのnoteできとるやん!
この布留川って人はほんま情報発信してくれるな

https://note.com/npaka/n/nc387b639e50e
2023/06/05(月) 20:36:25.30ID:yg4Zu2m20
rinna未だにwebUIで起動出来ないから触ってない
2023/06/05(月) 20:37:47.60ID:/vbBUvBd0
>>10ニキのでやるのが一番ラクやで
特に何もせんでも動く

webUIで動かすためのフォーマットと
配付されているモデルがなんか微妙に
互換性ないんやろ
2023/06/05(月) 20:46:21.25ID:/vbBUvBd0
>>115
つかデータのサイズやばそうやけど4bit化とかのテクあるんかな?
2023/06/05(月) 20:53:26.78ID:4JrX6wmSM
>>119
Flexgenとか言う専用?オフロード技術があるから3090でもくっっっそ遅いけど動く
2023/06/05(月) 21:00:30.40ID:cXah6PRw0
各種モデルのチューニング手法が集まってて良さそう
https://twitter.com/icoxfog417/status/1665687806176534528?t=hAdwOE2ZX6OYQqBCu-uRYA&s=19
https://twitter.com/5chan_nel (5ch newer account)
122今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/05(月) 21:13:00.72ID:osBrznyG0
oobabooga / text-generation-webuiでGPTneox対応してるはずなんだが、Successfully loaded rinna_japanese-gpt-neox-3.6b-instruction-ppoって出るっちゃでるんだけどまるで会話にならんのはなんでなんだろうか?
https://i.imgur.com/3j6b1Mx.png
2023/06/05(月) 21:14:53.02ID:/vbBUvBd0
りんなが悲しいほどオバカに・・・
2023/06/05(月) 21:43:46.86ID:/vbBUvBd0
>>116のをpaperspaceでマネしたら完走はするんやけど(13MBくらいのファイルができる)、
例によって効いていない感
(時間短縮のためにデータセットは自前のにしてみた)

誰か他に試した人おる?
学習にかける時間増やすとマシになるとかあるんかな・・・
2023/06/05(月) 22:05:31.46ID:/vbBUvBd0
これひょっとしたらsft-v2とかじゃなくて素のrinna3.6bじゃないとダメなのかな
eval_steps = 200
save_steps = 200

あと別のとこの num_train_epochs=4
これら増やしたら当然学習時間伸びたんだけど、それだけじゃないくらい
学習時間がかなり長くなった

結果がどうなるかはまだまだわからんが
2023/06/05(月) 22:19:25.70ID:/vbBUvBd0
うーんなんか効き始めたような気もする?
もっとデータセットの方向性をハッキリさせたほうが良さそうだな
2023/06/05(月) 23:10:28.81ID:/vbBUvBd0
うーんやっぱダメかな
とりあえずrinnaの学習元にエロチャとか体験談サイトみたいのが
混じっているのは感じるけどw
2023/06/05(月) 23:48:56.16ID:/vbBUvBd0
とりあえずりんな自身がそこそこ賢すぎて、よっぽど変わったことを聞かないと
学習が聞いているのかわかりにくいのもある
2023/06/06(火) 08:14:12.70ID:1hBXy6ox0
変な語尾を学習させるザウルス
2023/06/06(火) 11:13:03.88ID:zEDOesGL0
https://note.com/bbz662bbz/n/nb2f68451a2f0
どんなデータ使ったのかがほしいわね
2023/06/06(火) 11:41:49.87ID:zEDOesGL0
結局LoRAで学習させてフリーダムにりんなに応答させるよりも
ゲームみたいにパラメータ持たせて「このパラメータでは
大体こういう応答をすべきである」みたいな方向を目指す方が
賢い気がしてきたんよ

どっかで「この日本語をJSONに変換しなさい、その後でJSONを
英語に(or再び日本語に)変換しなさい」ってやると情報がうまく
まとめられる みたいなChatGPTのノウハウ見たことがあるけど、
そういうタスクをりんなにさせられるような方向にいけないかなあ
2023/06/06(火) 16:58:40.07ID:ZXPLvLMp0
llama.cpp上から下まで読んでたら丸2日吹っ飛んだゾ……

これは頭おかしなりそうだったから、途中で切り上げて794ニキのgenerate.pyからpeft部分抽出して、dialogに乗っけてみたけどこっちも沼った
2023/06/06(火) 16:59:34.67ID:ZXPLvLMp0
model.generateの引数でinput.ids.to(model.device)のままだとTypeError出るから、peftバージョン上げたり下げたりソース読みに行ったりで、結局input_idsに再代入することでやっと動いたで……

あとはおまけの音声認識も乗っけたから、またバグ撒き散らさないように入念にテストしたら公開するで
2023/06/06(火) 17:00:19.71ID:ZXPLvLMp0
>>130
語尾学習ええやん!
これはえちえち度かなり上がるで🥺✨
2023/06/06(火) 17:03:10.32ID:ZXPLvLMp0
>>131
確かにそのまま学習させたらずっと発情しっぱなしなりそうやな
感情分析とか組み込んでノルネみたいに「つよつよ度」のパラメータでスイッチ入るようにするのも面白そうやな
2023/06/06(火) 17:06:25.89ID:ZXPLvLMp0
>>122
ワイもそこでつまってdialog書いたで
おそらくuse_fastとかpaddingとか"<NL>"タグ追加とかの設定イジらなアカンと思う
2023/06/06(火) 17:25:43.09ID:zEDOesGL0
rinna使うならWebUIはむしろアカンってことやろね
>>10ニキの使うか自分でスクリプト書くことになるわ
2023/06/06(火) 17:40:15.54ID:MzQl5j68a
4chanの/lmg/(ローカルモデル一般)スレのrentryを一部だけ翻訳してwikiに載せた
https://w.atwiki.jp/localmlhub
翻訳作業など興味がある人は編集に参加してくれると嬉しい 翻訳はグーグル翻訳にぶち込んで手修正するだけでok
/lmg/現行スレはhttps://find.4chan.org/?q=%2Flmg%2Fで探してください

ふたばでも宣伝したけどとしあきたちは画像生成に夢中で人は集まりそうになかった
2023/06/06(火) 17:46:24.72ID:ZXPLvLMp0
>>137
せやな
webui側で設定つめればワンチャンありそうと思って、読み上げ拡張を作ってるときにざっと漁ってみたけど、rinnaに対応させるとなると.\text-generation-webui\modules\chat.pyを直接触らなあかん気がしたで

手が空いたらrinna専用拡張作りたいけど今はちょっと無理や😭
2023/06/06(火) 17:48:26.44ID:zEDOesGL0
ふむふむ
とりあえずこの辺が重要なんかな

8GB以上のVRAM向け
GPUで実行したいのですが、ChatGPTのようなものが欲しいです。
https://huggingface.co/chavinlo/gpt4-x-alpaca/tree/main
GPUで、ロールプレイ/ERPに使用できるものが欲しいです。
https://huggingface.co/digitous/Alpacino13b/tree/main
GPUで、ロールプレイ/ERPに使用できるものが欲しいです。 (代替)
https://huggingface.co/ausboss/llama-13b-supercot-4bit-128g/tree/main

https://w.atwiki.jp/localmlhub/pages/13.html 4bitの場合はなんか結構特別な処理が必要やってんな
2023/06/06(火) 17:49:26.28ID:ZXPLvLMp0
>>138
はぇ~すっごい
翻訳は正直あまり自信ないけど微力ながらお手伝いさせてもらうンゴ
2023/06/06(火) 17:51:06.66ID:zEDOesGL0
リンク先の4chに色々転がってるんはLoRAとかもあるんかな?
2023/06/06(火) 17:59:32.62ID:ZXPLvLMp0
トレーニングガイドあったで
これは情報の宝庫やな😇✨
https://rentry.org/lmg-resources#training-guides-resources
2023/06/06(火) 18:01:34.38ID:Wm5fXdhq0
llama.cppがMetalで動くようになったらしいけど、学習もやれるんかな?
2023/06/06(火) 18:06:56.20ID:zEDOesGL0
つーかWebUIのモデルのダウンロード機能怪しくない?

https://huggingface.co/digitous/Alpacino13b/tree/main
これ落としたら4bitのしかダウンロードされてなかったんやけど
2023/06/06(火) 18:10:39.09ID:ZXPLvLMp0
>>144
アップルシリコン環境持ってないので試してみて欲しいゾ
2023/06/06(火) 18:11:34.24ID:ZXPLvLMp0
>>145
webuiのモデルダウンロードは使わんほうがええね
ワイもvicuna 13Bで何度も苦しめられたで
2023/06/06(火) 19:00:27.41ID:zEDOesGL0
んでなんか30GBくらいもデータあって大丈夫かと思ったら
案の定メモリエラー

4bit.safetensorsってのだけありゃいいのかな?
でも4bitのを使うために必要なものとして示されている
bitsandbytes ってWindowsで動かないアレよなあ……
2023/06/06(火) 19:03:58.66ID:LvpjTVBn0
ちょっと前になんGで宣伝見かけて飛んできた音声AI民です
ほぼROMになるけど技術発展楽しみに見させてもらってるで
RVCとかVCC利用してこれを音声再生できたりしないかなと考え中
2023/06/06(火) 19:06:47.57ID:zEDOesGL0
現時点でそういうツールあるかはわからんけど
原理的にはすぐできるようになりそうやな
2023/06/06(火) 19:14:04.67ID:zEDOesGL0
llama.cpp、エラーも出さずなんもやらずに終わってしまう……
何がいかんのやろ

https://i.imgur.com/I5kFOd1.png
2023/06/06(火) 19:28:33.34ID:zEDOesGL0
alpaca.cpp - Windows
これは動くな
性能はちょっと微妙かもしらんが
これって別の4bitモデル持ってきたら機能しないんかなやっぱ
2023/06/06(火) 19:37:35.62ID:ZXPLvLMp0
>>148
windowsでも動くのができたらしくてワンチャン試したけど、結局cuda使えんかったで……


https://github.com/TimDettmers/bitsandbytes/issues/175

>AIGC-newbee commented 5 days ago

pip install git+https://github.com/Keith-Hon/bitsandbytes-windows.git
2023/06/06(火) 19:39:19.35ID:ZXPLvLMp0
>>149
ようきてくれた🤗
ROMでも全然ええけどついでに一緒に色々実験してくれるととっても心強いで🥺✨
2023/06/06(火) 19:41:34.20ID:ZXPLvLMp0
>>151
llama.cppはモデル相性が厳しめな感じやったで
前に4bit量子化かけたllama 30Bとか65Bの素モデルならちゃんと動くけど拾ってきたやつやと動かんかったりして、解読しようとして心折れた😭
2023/06/06(火) 19:56:31.06ID:zEDOesGL0
あ、でもこれ「会話」じゃなくて一問一答で終わりって考えればそこそこいけるかも
157今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/06(火) 19:57:18.46ID:/FYJhetX0
>>136 Oh……そうなのね
なんかごちゃごちゃエラー出てたから検索して色々ためしたがTransformerやらトークナイザーやら知識がなくてワイも詰んだわ
packages\transformers\convert_slow_tokenizer.py:454: UserWarning: The sentencepiece tokenizer that you are converting to a fast tokenizer uses the byte fallback option which is not implemented in the fast tokenizers. In practice this means that the fast version of the tokenizer can produce unknown tokens whereas the sentencepiece version would have converted these unknown tokens into a sequence of byte tokens matching the original piece of text.
warnings.warn()
Error with new tokenizers (URGENT!) - 🤗Tokenizers - Hugging Face Forums - https://discuss.huggingface.co/t/error-with-new-tokenizers-urgent/2847/4
158今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/06(火) 20:08:44.14ID:/FYJhetX0
oobabooga / webuiのモデルのダウンロード機能はrinnaを落とそうとしたときもファイルの抜けあったりしたから普通にgit pullしたほうがいいと思う
ちなみにtokenizer_config.json~とかこまごましたものも必要で、StableDiffusionのノリでsafetensorsだけModelsに配置すると動かんゾ
2023/06/06(火) 20:16:31.25ID:zEDOesGL0
https://w.atwiki.jp/localmlhub/pages/13.html
ここにあるalpaca.cpp - Windowsはbin落としてくるだけでええし

I heard [変なシチュエーション].
Can you tell us more about what happened at that time?

で聞くとなかなかええわ 状況を詳しく書いてくれるのはりんなちゃんよりええな
なぜかPowerShellだと文字打ち込めなくて普通のコマンドプロンプトじゃないとあかんな
2023/06/06(火) 20:18:18.02ID:ZXPLvLMp0
>>157
fast_tokenizerいうとるみたいやから、webuiのモジュール片っ端から漁って、以下みたいにトークナイザ読み込んでるところの引数でuse_fastをFalseにしてあげればワンチャンあるかもしれぬい

AutoTokenizer.from_pretrained( model_name, use_fast=False)
2023/06/06(火) 20:33:44.27ID:ZXPLvLMp0
>>159
変なシチュの詳細が気になるゾ
面白そうやしワイもまた明日に試してみるで
2023/06/06(火) 21:02:36.14ID:zEDOesGL0
Write a story about a [変なシチュエーション]もええな
40行近い力作を書いてくれたで

この辺はりんなには絶対でけんことや
2023/06/06(火) 22:16:24.17ID:zEDOesGL0
long storyのほうがいいかもしらん
dialoguesはアカンな
2023/06/07(水) 01:14:08.69ID:qmtV3y8U0
3060でAlpacino13bを動かせた人の報告があったら聞きたい
llama.cppが基本なんかな?
2023/06/07(水) 01:49:55.99ID:qmtV3y8U0
ってかデフォだと文字化けするからchcp 65001したほうがええな
PowerShellなら多分最初からそうなってんねんけどなぜかそっちだと
文字が入力でけん
2023/06/07(水) 10:48:15.43ID:qmtV3y8U0
kobold.cppも試すで~と思ったらなぜか「"is this really a GGML file?"」と言われる
→前に落とした古いバージョンのkobold.cpp使っていた とかいうガイジ行為をやってもうた

GGMLの新しいバージョンに対応した結果らしい(逆に古いGGMLには対応できない?)
ウィンドウで起動するけど、コマンドラインから実行したほうがエラーメッセージちゃんと見えてええな
2023/06/07(水) 11:17:01.84ID:qmtV3y8U0
https://w.atwiki.jp/localmlhub/pages/12.html

Wizard-Vicuna-7B-Uncensored が翻訳で名前変わっちゃっていたんで修正して
リンクも元のページと同じようにしといたで
あと音声っていらん奴のほうが多い気がする 
2023/06/07(水) 16:40:31.08ID:+c2s5vFua
こんなんあったわ
https://github.com/noir55/japanese_llm_simple_webui
2023/06/07(水) 16:48:15.01ID:qmtV3y8U0
Streaming Modeは基本入れたほうがええな
変な方向に行っているかどうか確認してABORTできるし

あと長いStoryにする場合、GPUちゃんと積んでいるならBLASもGPUにして
Smart ContextをONにしたほうがええっぽいわ
https://i.imgur.com/uj88BPO.png
2023/06/07(水) 16:49:47.18ID:qmtV3y8U0
>>168
WEBインターフェースが好きな奴向けかな?
機能的には今のとこ>>10ニキのが上やろな

ワイはりんなちゃんにだいぶ飽きたしKoboldが
面白くなってきたからしばらくこっちでいくわ
だいぶ書き直し必要やけどそれはりんなちゃんも
同じやしな
英語の勉強にもなりそう
2023/06/07(水) 16:51:21.85ID:qmtV3y8U0
つかこれVRAM24GBとかの環境なら多分もっと強いのが動くのよな
Wizard-Vicuna-7B-Uncensoredよりも高性能っぽいのローカルで
動かした人おる?
172今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/07(水) 16:59:25.93ID:mNDdF2n60
https://i.imgur.com/upl5rIV.jpg
Just put together a programming performance ranking for popular LLaMAs using the HumanEval+ Benchmark! : LocalLLaMA - https://old.reddit.com/r/LocalLLaMA/comments/141fw2b/just_put_together_a_programming_performance/
OSS LLMはコード生成がよわよわらしいな
コード生成用にファインチューニングしたやつもいくつかあるらしい。かなり実験的なやつだろうけど
Salesforce Codegen 16B https://huggingface.co/sahil2801/instruct-codegen-16B
コードアルパカ7B https://github.com/sahil280114/codealpaca
2023/06/07(水) 17:31:40.61ID:qmtV3y8U0
コードってことになってくるとChatGPT4でもええかなあ
制限かかっているわけじゃないからね もちろん有料ではあるけど
174今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/07(水) 18:49:00.19ID:mNDdF2n60
たしかにそうね
>>168
これ動かせたわ。oobabooga / text-generation-webuiのディレクトリにllm-webui.pyを置いてvenvアクティベートしたあとpyhton llm-webui.pyで動く(環境はWebuiのを使う)
https://i.imgur.com/j2vLBAq.png
175今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 7d7b-CMZ9)
垢版 |
2023/06/07(水) 19:03:53.50ID:mNDdF2n60
爆弾の作り方:https://i.imgur.com/1JSpJAS.png
りんなの生態:https://i.imgur.com/hL6DtJC.png
意外とガバガバっていうか「はろー、りんなだよ☆」な感じじゃないんだね
これをベースにファインチューニングしてねってモデルなんだっけ?
2023/06/07(水) 19:25:26.48ID:qmtV3y8U0
>>175
そのはずなんやけどファインチューンして「このテーマについてこれはこうやで、
これはこうやで」ってサクサクと教えてくれるようになる道筋がどうもわからない

ワイは当面koboldに浮気してくるわ
アブノーマルなの出し放題や

つかKoboldAIそのものがpaperspaceで禁止されているらしくてワロタ
機会があったら一度VRAMとかでかいとこで試そうかと思ってたのに
2023/06/08(木) 16:14:44.65ID:QZH0QrKD0
https://twitter.com/sald_ra/status/1666661182093262848
テストにこういうの使えるかもねえ
https://twitter.com/5chan_nel (5ch newer account)
2023/06/09(金) 00:14:30.88ID:OFcqfUBk0
しかしKoboldAIの派生が外国のTRPGとかロールプレイ好きを
惹きつけるのなんかわかるな
ここ数日小説みたいなのを生成させるのにハマりっぱなしや
2023/06/09(金) 23:33:50.94ID:OFcqfUBk0
https://note.com/eurekachan/n/n899132477dff

>Windows環境でLLMをPEFTでファインチューニングしようとしたとき、ほぼ必ずbitsandbytesというライブラリのエラーに悩まされると思うのですが、こちらの記事ではその対処法が書いてあります。助かりました。

せやな
んでワイはうまくいかんかったわ・・・
2023/06/10(土) 14:12:28.76ID:PBesD5kK0
Windowsで英語圏のLLM動かすのだとGGMLっての使ってCPUで動かすのが
色々トラブル少なくて良い感じだなあ

https://twitter.com/endo_5501/status/1663962365774422018
日本語でも変換成功している人いるみたいだし、rinnaのGGML版配付されないかね
そしたらGPU持っていない人でもいけてすごく面倒が減る
https://twitter.com/5chan_nel (5ch newer account)
2023/06/10(土) 18:44:36.07ID:PBesD5kK0
https://twitter.com/kam0shika/status/1667455827509415936
そこそこやりこんでいるっぽい人でもりんなLoRAに苦労しとるんやね
OpenCALMでは成功した人らしいのに
https://twitter.com/5chan_nel (5ch newer account)
2023/06/10(土) 20:09:25.76ID:PBesD5kK0
Kobold.cppとTavernAIの組み合わせもいけるね
KoboldAI起動するところをKobold.cppに変えるだけで問題なくいける

でもTavernAIなんか思っていたほどじゃない感じや
Kobold.cpp単品でNovelモードやるのが一番はかどるわ
2023/06/10(土) 21:16:36.40ID:PBesD5kK0
Kobold.cppで小説っぽいのを作る
https://w.atwiki.jp/localmlhub/pages/19.html

書いたでー
色々アブノーマルな話も書いてくれるんで翻訳ソフトをお供にガンガンやろうず
184今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c181-r3fP)
垢版 |
2023/06/11(日) 01:02:34.61ID:ViRWwEfk0
おー!
185今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ c181-r3fP)
垢版 |
2023/06/11(日) 01:04:30.83ID:ViRWwEfk0
結局オープンソースでgpt3.5れべるのはでたんかいな
2023/06/11(日) 01:11:03.96ID:/q0V+Ofs0
英語で、ジャンルによれば みたいな?
2023/06/11(日) 01:55:54.15ID:du8MWvmF0
>>183
わかりやすい解説サンガツや!
忙しくてここ数日触れなかったからプチ浦島状態やからほんま助かるで

koboldから自動で読み上げさせるのはちょっと難しそうやな……
2023/06/11(日) 01:56:30.95ID:/q0V+Ofs0
まあGoogleの読み上げはあるんやけどな
英語を自動音声で読んでもらってもなんも面白くないし
ボイロとかは英語に対応してないやろし・・・
2023/06/11(日) 02:00:08.04ID:du8MWvmF0
kobold単体で自動翻訳してから読み上げするみたいな感じに改造したいけど再コンパイルせなあかんのはちょっとしんどいゾ
そういえば英語版のボイロもあったみたいやけどワイは英語聞き取れへんから無用の長物や😭
2023/06/11(日) 02:07:42.02ID:/q0V+Ofs0
結局英語でウフフな内容しゃべられても「そう・・・」としかならんのよ
りんなが偉いのはやっぱ日本語だからや
でもkobold.cppに色々書かせるのはりんなよりやっぱ幅がアホほど広いわ
個人的にはChat形式よりStory形式のほうが幅が広くてさらに好きやわ

狂った学園、狂った家庭、エロファンタジー、因習モノっぽいの、レズもNLも触手もなんでも書いてくれるで
多分BLもいけるんやろな・・・
たまに「えっその展開になるんか? でもそれもええかもしらんな」とかAIに感心させられることもあるわ
2023/06/11(日) 02:27:03.09ID:du8MWvmF0
せやな
子供の頃の思い出補正が性癖を左右するなんて話なんかも含めてのやっぱり母国語なのはエロの重要な要素やと思うわ

alpacinoも確かにりんなよりも理解力が上がってる感じするゾ

会話履歴のセリフに設定を付け足して食わせればそこから全部書いてくれるってのもスマートでええな
これは確かにエロ小説好きなニキには刺さりそうや😇✨
2023/06/11(日) 02:29:19.31ID:du8MWvmF0
あとkoboldのUI見やすくてええな
これは勉強になるわ
2023/06/11(日) 02:32:27.72ID:/q0V+Ofs0
とりあえずGUIのほうがとっつきやすいのはあるわなあ
2023/06/11(日) 02:45:47.85ID:du8MWvmF0
せやなーあの真っ黒い画面でアレルギー起こす人は多そうや
ほな、ラストの更新はgradioライブラリでwebui化にするゾ
またしばらく触れなくなりそうやし明日起きたら出来るところまで突貫するで
195今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 71fd-uzby)
垢版 |
2023/06/11(日) 03:02:21.99ID:bSqHqrcy0
>>183
説明上手いな
これならワイでも試せそうやで
2023/06/11(日) 03:05:25.94ID:/q0V+Ofs0
>>138ニキがWiki立ち上げて色々翻訳してくれて
ワイも最初非効率なとこから始めつつ5日ほどドハマリした結果や

まあ~活用しとったくれや
2023/06/11(日) 03:22:46.67ID:du8MWvmF0
webuiやと>>168ニキが貼ってくれた物で十分良さそうやな
ほなワイはお役御免や😇
2023/06/11(日) 17:36:45.61ID:Lz52JhGbM
今ってもうローカルでリンナちゃんLora学習できるの?
2023/06/11(日) 17:38:53.38ID:/q0V+Ofs0
できる「はず」なんや
成功しないんや・・・

Twitterとかだと成功した人の報告があるけど
手法が公開されていなかったりマネしても
効果が感じられなかったり
2023/06/11(日) 19:28:10.34ID:Lz52JhGbM
>>199
エラーが出て成功しないの?
2023/06/11(日) 19:29:04.44ID:Lz52JhGbM
あっ効果が感じられないのか
リンナ、勉強したフリしてるんやなあいつ…
202今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 8b28-2rqm)
垢版 |
2023/06/12(月) 12:20:08.32ID:3cNSIO7h0
また書いたでー
今度はkobold.cppの小説形式じゃなくてチャット形式でどうするかやで
https://w.atwiki.jp/localmlhub/pages/20.html

英語翻訳が必要なのはつらいけどやっぱ日本語モデルより芸達者なのは間違いないわ
2023/06/12(月) 16:41:23.13ID:3cNSIO7h0
bitsandbytes動かねえ問題はWindowsでのLoRA学習をやたら難しくしとるよな・・・

PEFTを使用したLoRA (Windows10(WSL2不使用) bitsandbytes==0.37.0使用)
https://qiita.com/selllous/items/fbaa2c3d2d504e436b17

これでさらに日本語モデルのLoRA作った人が出てきて言語セットとか
学習結果の検証とかもしっかりしてくれるパターンが出るとええんやけど
2023/06/12(月) 16:44:20.12ID:3cNSIO7h0
https://twitter.com/sald_ra/status/1666808586838892547/photo/1
この人のとか結構ええ感じの結果にできとるよな
どんなデータセット使っているか知りたいわ
https://twitter.com/5chan_nel (5ch newer account)
2023/06/12(月) 17:38:41.09ID:3cNSIO7h0
有意義ではありそうやけどりんなの速度はそこまで不満ないねんな
rinna-7Bとかrinna-13Bとかそのうち公開されんやろか
そしたらこの辺のノウハウがすごく効いてきそう

RinnaのppoモデルをCTranslate2で高速に動かす
https://zenn.dev/kazuph/articles/84f5debf015e76
2023/06/12(月) 23:41:35.18ID:tV7khMwLM
>>204
その人のツイに書いてたよ🥹
2023/06/13(火) 00:02:58.74ID:mHCN9tAy0
ええな
2023/06/13(火) 15:38:52.35ID:mHCN9tAy0
続・ござるな rinna を LoRA でシュッと
https://note.com/bbz662bbz/n/n577999a71763

これもええな
2023/06/14(水) 17:15:34.24ID:jm3OB/MC0
https://zenn.dev/syoyo/articles/946c17666e10fb
この辺見てると、既に現行のりんなって「爆速マシンならついにギリ実用の速度で
応対できるで!」って感じよりも「量子化とか頑張ればGPUついてないぐう凡マシンでも
全然動くわ~」って感じのとこまで来ているのな

7B版とか13B版とか来たら世界変わりそうや
2023/06/14(水) 17:39:18.59ID:kCPBIYyg0
ほんま進歩すごいなぁ。案外近いうちにGPT-4相当のモデルもローカルで動かせるようになるんやろか
チャットの話し相手にするなら1 token/secくらいの速度でも全然ええんよなぁ
2023/06/14(水) 17:44:55.70ID:6JNdKJE8M
>>203
ワイ、このやり方でついにりんなちゃん調教に挑むもVS codeでエラー出て嫌になってゲームに逃げる🥹…
2023/06/14(水) 17:47:51.81ID:jm3OB/MC0
うーんさすがに日本語だと1tokenは切ないかな
2tokenでなんとか、できれば3~4token
2023/06/15(木) 17:03:06.15ID:/yXVsUDl0
https://huggingface.co/TheBloke/WizardLM-Uncensored-Falcon-40B-GGML/tree/main
GGMLの40B版とか出てきた
メモリ64GBとかにすりゃ動くんかなこれ CPUも5900Xくらいにして
かなり賢いことになってそう
2023/06/15(木) 17:14:58.71ID:4iFGylMl0
40Bって数字だけで強そうや、4bit版はメインメモリ26~28GBあれば動く的なこと書いとるな
2023/06/15(木) 17:16:26.85ID:/yXVsUDl0
なんとなくq5_1.binがいつも推奨されているイメージがある
やりながら他の作業したいし、いまメモリだいぶ安いし
そのうち試してみたいな
2023/06/15(木) 18:11:40.15ID:/yXVsUDl0
https://twitter.com/TIIuae/status/1664353061840601088
そのうち180Bを出すとか

ここまでくりゃGPT3.5に迫るか? メモリ128GBとか積めば4bit化して
どうにか動いたりすんのかな
https://twitter.com/5chan_nel (5ch newer account)
2023/06/16(金) 17:24:27.90ID:AgmRHpmqr
色々モデル動かした人の感覚聞きたいんだけど
ぎりぎりGPUに乗るモデルと量子化して乗るようにしたモデルってどっちが賢そう?
2023/06/16(金) 17:25:25.21ID:XwPCLMcJ0
厳密に見たわけじゃないけど量子化したモデルがだいぶええと思う
あちこちで言われているのも量子化ヤバくね、大して劣化してないやんって話やし
2023/06/16(金) 17:35:16.11ID:AgmRHpmqr
そうか
よく考えたらfloat32も要らんよな
層を深くするのが大切なわけだし
これはLLM以外でも言えそうな気がする
2023/06/17(土) 15:55:43.83ID:GFj7XBPb0
https://twitter.com/kohya_tech/status/1669960610094931968
りんなに向いているタスクかどうかってのもあると思うけど、
やっぱ7Bあたりからが本番なんだろうなあ
https://twitter.com/5chan_nel (5ch newer account)
2023/06/17(土) 15:56:53.16ID:GFj7XBPb0
https://note.com/ashizawakamome/n/nc0436ca13ab6
とはいえこの記事とか参考になりそうや
2023/06/17(土) 18:51:39.58ID:GFj7XBPb0
https://note.com/bbz662bbz/n/n487bdfe8e50a
ようやっとる
2023/06/17(土) 20:42:21.59ID:YMOkx3a7M
>>203
とその参照元のこれ
https://note.com/npaka/n/n932b4c0a2230
を参考にしてLoraチャレンジしようとしてるが、全然上手く行く気がせん…
もうちょっとSDのLoraくらい簡単に出来ないのかな?
2023/06/17(土) 20:44:41.32ID:GFj7XBPb0
最近別のが忙しくて有能そうな人のツイを追いかけることしかできてへんけど
言語系のLoRA難しいよなあ
2023/06/17(土) 21:40:48.56ID:YMOkx3a7M
なんかrinnnaと普通に会話成り立つレベルなら楽しいのになぁ🥹
2023/06/17(土) 21:42:27.53ID:GFj7XBPb0
英語系の13Bとかのモデルなら相当ついてきてくれるから
時間の問題ではあるでしょ
現状でも翻訳噛ませて会話するとかなら普通にできそうだし

ただ英語ベースだと口調問題がどうしてもからむな
ですます丁寧キャラか乱暴男まさりキャラくらいしかできない
2023/06/18(日) 11:11:37.51ID:7I2PTIwMM
>>226
試してみよ🥹 13BでもやっぱLora学習は難しいのかなぁ?
2023/06/18(日) 11:39:21.72ID:3X69Xqon0
そもそも英語圏のモデルだと日本語以上にLoRAが上手く行っているのかどうかわからん
単純に語学力の問題で
2023/06/18(日) 16:36:07.23ID:3X69Xqon0
段々2台PCがほしくなってくるよな
夏とかブレーカー落ちたりしそうだからやらないけど
2023/06/19(月) 03:00:37.35ID:lgZ1pQqL0
LoRAで学習できてて口調は大体移ったけど知識がだめなんだよな
まあまあ学習はできてるけどLoRAだと根本の知識はあんまり移せないのかな
2023/06/19(月) 09:47:01.64ID:Cau6poHF0
それっぽいことは今月どっかで見かけた気もする
英語圏のモデルも「これLoRAなんで○○と合わせて使ってね」
みたいな感じじゃなくてマージモデルみたいのが多いような

絵のLoRAとは違うのかもしらんなあ
とはいえ>>222とか見ると全くダメなわけじゃなさそうだけど
2023/06/19(月) 14:01:49.78ID:lgZ1pQqL0
>>230
これrinna-3.6bだけど元の知識は維持してるけどLoRAで与えた知識の定着が上手くいってないんだよね
ある程度学習してるみたいだけど抜けがあってそれを補完するように学習させる方法はないかな
知識だけインプットする方法があればいいんだけど
2023/06/19(月) 15:03:18.59ID:Cau6poHF0
りんなの会社が「知識定着とかはこんな感じがオススメやで~」みたいなノウハウ
出してくれればええんやけどなあ
2023/06/19(月) 15:05:32.98ID:Cau6poHF0
あとはやっぱlangchainとか?使って、知識を引っ張り出すのは
別のデータベースからとかでもええんやけどな

LLMは聞かれた内容をパーツに分析して、それをデータベースに探しに行って、
データベースで見つかった答えを自然言語に再構築するみたいな
2023/06/19(月) 16:29:23.24ID:5leqhYAVM
open llama 13b落としたけどこれはニキのdialogueでは動かんよね?🥹
2023/06/20(火) 16:35:06.05ID:NlHvUP7t0
AIの書くストーリーとか小説ってなんかすぐに先に進もうとしちゃうのよな
そこはもうちょっと溜めてくれよ って感じで再生成とか微修正入れて再生成って
感じになりがち
2023/06/20(火) 18:12:51.99ID:MkZzIVqma
>>236
オナテク板で対処法が確立されてる
2023/06/20(火) 18:13:45.80ID:NlHvUP7t0
まさかの場所でワロタ
ただChatGPT前提なんかな
2023/06/20(火) 18:42:19.07ID:1/YBLqM0a
>>238
claudeでも同じテクニックが使えるとは聞いている
気づいてしまえばテクニックってほどでもないんだけど
2023/06/20(火) 22:03:30.45ID:PvCaO3VP0
後から見ればこんな簡単なことでよかったのかと思うかもしれんけど
試行錯誤の繰り返しでようやく見つけ出した事なんだぜ……
2023/06/20(火) 22:07:34.04ID:NlHvUP7t0
んでChatGPTでBANされた人の話がされていてもっとワロタ
やっぱローカルは大事やねんな
2023/06/21(水) 11:42:58.45ID:XhRa4AHUr
chatGPTってBANされるのか
APIでドエロなやり取りしてるから怖いわ
2023/06/21(水) 18:42:12.29ID:LLLnEWyY0
https://note.com/npaka/n/n1359ca1ad3a3
この辺がスレが求めてきたものになるんかな
最近忙しくてでけんわ・・・
2023/06/22(木) 19:36:25.60ID:jJlKOin80
https://zenn.dev/rinna/articles/5fd4f3cc12f7c5
はえー
つーかりんな公式がガンガン情報だしていってほしいわね
2023/06/22(木) 23:34:25.47ID:1ArYREH1M
llama13bはdialog v3.5では動かない?
246今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 12f7-Lg6b)
垢版 |
2023/06/23(金) 21:15:14.16ID:D/hj3hE90
Vicuna 33B
万を期して登場。
2023/06/23(金) 21:30:25.83ID:/RK4ll/K0
無修正勢がいろいろマージするまで待っていくスタイル
248今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 23f7-gMW4)
垢版 |
2023/06/24(土) 21:45:21.67ID:jKjHaihC0
Vicuna33B を llama.cpp で量子化して試食してみたけど
m1 max 32GB だと5bitsの量子化で体感 0.4/tokens
くらいの超ノロノロだけどたしかに英語だとかなり賢いわ。
これが8bitsで動けば相当やろな。

MetalのGPUを使う場合は、32GBのユニファイドメモリだと、
VRAM20.8GB相当になるから、4bitsのggmlがギリ動かんところが残念すぎる。
コンテキストを256とかにすればワンチャンあるけど。
実用的なのはコンテキスト1024でq3_K_L あたりかな。

購入時にメモリ64GB盛っとくべきだったわ。
Nvidia には速度的に追いつけんがVRAM48GB相当らしいし。
2023/06/24(土) 21:46:51.98ID:GklcLFiI0
デスクトップやからメモリ増設したい
ただ今節約しないといけなくてなあ
2023/06/25(日) 23:12:20.74ID:Pxgtd3/a0
Vicuna33Bだとなんとなく描写の文学っぽさが増えた気はする
251今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 00:19:24.81ID:csaFrPoT0
https://note.com/npaka/n/n5d25ea4227df
これみてoobabooga / text-generation-webuiで動かそうと思ったがまったくうまくいかなくてしんだ
Rinnaつらい。OpenCalmはロードすれば動くからたすかる
2023/06/26(月) 00:24:41.41ID:T/4YmIfD0
とりあえず区切り文字が違い過ぎるんだよね、それ一番言われてるから
253今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 00:25:22.16ID:csaFrPoT0
>>250
33Bなんてローカルで動くんか? 落としてみてるけども
254今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 00:43:12.25ID:csaFrPoT0
not enough memory: ですよね~(RTX3060)
2023/06/26(月) 00:43:42.17ID:T/4YmIfD0
>>253
GGML版なら全然動くよ
4bit版だったけど

GGMLはほんま強いで
2023/06/26(月) 00:54:53.66ID:T/4YmIfD0
32GBのメモリ(できれば64GB) kobold.cpp GGMLの英語モデル
これが正着やで

日本語でそれに当たるモデルが来たら世界が変わるんやけどな・・・
2023/06/26(月) 01:01:37.00ID:+2+698cQ0
RAM128GBあるんだけど日本語のモデルをCPUで動かすならどのモデルが良いだろうか
258今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 01:21:45.79ID:csaFrPoT0
>>255
あかんGPTQ落としてしまった
brokeニキのGGML q4.0入れてみたら動いたわ
GGMLっょぃ
259今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 01:48:17.32ID:csaFrPoT0
Vicuna 33B
「雨の日と女の子についての短いおとぎ話を書いて」を英語(can you write a short fairy tale about rainy days and girls?)で頼むとこう
https://i.imgur.com/brOd3cA.png
日本語で頼むとこのザマ。つれぇ
https://i.imgur.com/PHhdYjd.png
2023/06/26(月) 09:59:18.50ID:T/4YmIfD0
デスヨネー

M2Mってのを自動で噛ませることはできるのかな
クオリティの前に余計速度が死ぬか
2023/06/26(月) 12:09:32.24ID:T/4YmIfD0
>>257
つーか日本語モデルはGGML版出てないと思うから
自分で変換しないといけないと思う

それよりもっとたくさん学習したフリーのが出てきて
ほしいんやけどな

30Bくらいまでは全然普通のCPUでいけることが
わかってるんだから、日本語版のが出てきたら
世界が変わるで
2023/06/26(月) 17:35:37.94ID:T/4YmIfD0
https://note.com/if001/n/n6da85d0077d7#0071bd45-b4f8-41a2-abcd-87aaa9a4ca2a
この記事はりんなをGGMLに変換するやり方書いてある


あとこんな人もおるな
https://github.com/Yukaryavka/rinna_gpt-neox_ggml-lora
このリポジトリはrinna/japanese-gpt-neoxといったgpt-neoxベースのモデルを
ggml形式のモデルに変換して使用することが前提の場合においてLoRAチューニングの
成果物であるアダプタモデルをggmlモデルに適応して利用したい場合に必要な
スクリプト改良とマージ用スクリプトを参考用・研究用に置いています。
2023/06/26(月) 18:04:29.74ID:1tEUbHea0
chatGPTだとBANが怖いのでPOE使ったらいいのかな?
2023/06/26(月) 18:13:19.43ID:T/4YmIfD0
Vicuna 33B 5_1を落としたらさすがにメモリ32GBだと上手くいかなかった
PC起動直後とかならワンチャンあるかな? メモリ64にすりゃ普通に
いけそうだけど
265今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 20:32:10.08ID:csaFrPoT0
Rinna動かなすぎてOpenCalm7bで遊んでたけど、発見としてはどちらかというとこっちのほうがよっぽど✨りんな✨してるってことやな。
なんかAbemaブログ?とか食べましたって感じすごいする
モデル傾向的にすきあらば顔文字キャピキャピメッセージ送ってきてビビるムィチョォォヤーー
https://i.imgur.com/GbfVRkF.png
2023/06/26(月) 20:35:14.28ID:T/4YmIfD0
つかrinnaが動かないってケースのほとんどは特殊な区切り文字の対応問題でしょ
素直に>>10を使えばよろし
267今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 20:46:51.71ID:csaFrPoT0
Parametersをいじると謎記号連発したり会話にならないのも抑制できることもあるっぽい
temperatureを下げてencoder_repetition_penalty(幻覚フィルター)とか反復ペナルティを上げると、まぁマシになったりすることもある
口数減っちゃうのが玉にキズ
https://i.imgur.com/DBne5q6.png
>>266
dinalogは入れてあるよ~Japanese LLM Simple WebUIとかでも動いたの確認した
LoRAとか事前のキャラクター設定(「あなたは頼れるAIアシスタントです。~」みたいな。WebuiでいうContext)とか適用してみたいと思ってな
2023/06/26(月) 20:49:07.56ID:T/4YmIfD0
rinnaじゃコンテキストは通らないけど
OpenCALMはいけたってことか
269今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 21:04:47.36ID:csaFrPoT0
WebuiのTrainタブからベタ打ちのテキストでトレーニングさせてLoRA生成して、OpenCalmにLoRA適用とかも試したんだが……
適用したら生成文が壊れてしまった。どうして
npakaニキにならってあかねトークデータセットで回してみるけど、これで学習できてなかったらつらい
2023/06/26(月) 21:05:21.70ID:T/4YmIfD0
npakaニキはすごいよな
271今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/26(月) 21:07:33.68ID:csaFrPoT0
>>268
webuiにはこういう設定タブがあって、これに設定を書くとテキスト生成前にここを読んで回答してくれるっぽい
そのぶん設定を盛りすぎると(2000字とか)露骨に生成おそくなったりする
https://i.imgur.com/fmnXR4K.png
2023/06/26(月) 21:21:01.24ID:T/4YmIfD0
これはKobold.cppでも似たようなのをみたな

>>10みたいなrinnna使ったスクリプトでも、頭につける情報次第では
同じことできるんかなあ
2023/06/26(月) 22:34:15.11ID:T/4YmIfD0
https://twitter.com/syoyo/status/1672944743813353472

こういうの見て思ったんだけど、データセットがあるとして、
それで実態にモデル作るのって13Bとかの規模で
何円くらいになるんやろねえ
https://twitter.com/5chan_nel (5ch newer account)
2023/06/27(火) 10:16:25.83ID:INQIIE5O0
https://huggingface.co/TheBloke/mpt-30B-chat-GGML/tree/main
日本語もいけるとウワサのMPT-30B-chatのGGML版や
kobold.cppの場合、最新のじゃないと実行でけんな

んで動かし始めたら英語で答えられてしまって、lang:jaとか
Memory欄に入れたら文字化けしてしまっとる
2023/06/27(火) 15:09:21.62ID:INQIIE5O0
https://note.com/saldra/n/n0e4614c41a39
>日本語の大規模言語モデルは今のパラメータだと辛い!!りんなさん、CyberAgentさん13B公開お願いします; ;

ほんまそれ
2023/06/27(火) 16:38:16.76ID:INQIIE5O0
https://huggingface.co/TheBloke/WizardLM-33B-V1.0-Uncensored-GGML/tree/main
速度的には結構遅いけど普通にこれの5_1版がRAM32GBで動くなあ

RAM64GBでCPUいいのにすりゃもっといくんだろうな
2023/06/27(火) 17:20:58.89ID:INQIIE5O0
4_0ならバランスええかもしらん
2023/06/27(火) 22:23:27.88ID:INQIIE5O0
https://ascii.jp/elem/000/004/142/4142381/
りんなの100倍賢いのがローカルで動く日もいつかは来そう
2023/06/27(火) 23:42:35.68ID:n5UGaHo1a
mpt、koboldのほかにLoLLMS Web UIなるものも選択肢にあるみたいやな
導入してみるか
2023/06/27(火) 23:57:35.46ID:QPwBWK7j0
>>274 のTheBloke/mpt-30B-chat-GGML なんかはtext-generation-webuiとかllama.cppは非対応だけどLoLLMS Web UI対応って書いてあるね
チュートリアル見る限りgpt4all派生みたいだ
2023/06/27(火) 23:58:14.79ID:INQIIE5O0
日本語での入出力いけたら教えてクレメンス
282今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 23f7-gVq/)
垢版 |
2023/06/28(水) 02:18:06.42ID:Yok6sAmg0
>>277
q4_k_l あたりの可変量子化ビットええで。
2023/06/28(水) 08:50:23.02ID:JpAIZbrT0
cgiで組んでレンタルサーバー上で動かせば、スペック関係ないかな?
2023/06/28(水) 10:58:49.00ID:lOlD+Q0m0
レンタルサーバでやっとる人はいるけどなぜcgi
2023/06/28(水) 14:06:21.07ID:lOlD+Q0m0
当面GGML版+メモリ64GBが良さそうって考えると
IntelのCPUにしたほうがええんやろなあ

でもそうなるとグラボとSSD以外完全にPC買い換え
286今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/28(水) 21:15:20.95ID:LrhStoXG0
Lo LLMSじゃなくて LoL LMSやんけ草
海外ニキたちはいったい何をしてるんや
https://i.imgur.com/l3JSdhR.png
2023/06/28(水) 21:53:58.27ID:OxBBM/YD0
llmにlolさすんか
288今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/28(水) 22:04:39.29ID:LrhStoXG0
https://i.imgur.com/vxwWs0r.png
解散!w
2023/06/29(木) 10:35:16.64ID:AKwCGWEL0
(アカン)
2023/06/29(木) 12:35:20.91ID:ZPLO9MUUa
exllama使った人おる?13Bモデルで使ったらトークン生成が2倍くらい速くなったで
最新のoobaなら起動時に--loader exllama追加するだけで使える
実質8kコンテキスト長の
https://huggingface.co/TheBloke/Chronos-Hermes-13B-SuperHOT-8K-GPTQ
で使ったら英語やけど3000トークンくらいの長文小説書いてくれたわ
12gbのrtx3060でトークン数7200まで生成できたって人もおるらしいけどワイは3000〜4000が限界やった
あとなぜかuiでcontinue押しても生成してくれないときあるけどなんでやろ
2023/06/29(木) 16:30:43.25ID:AKwCGWEL0
kobold.cppばっか使っていたらいつの間にかりんな使うとき
Torch not compiled with CUDA enabledとかいうエラーが
出るようになってもうた・・・
2023/06/30(金) 01:57:31.49ID:MZsgHs7QM
これの動かし方誰か教えて?🥹

Salesforceが出した、7BサイズのLLM。LLaMaとかFalconより高性能
しかもコンテクストウインドウが8Kいける、ということみたい
BaseモデルはApache2.0ライセンスなので商用可
学習データを見ると日本語のWikipediaも学習してるっぽ
2023/06/30(金) 01:58:56.98ID:MZsgHs7QM
https://blog.salesforceairesearch.com/xgen/
🥹
2023/06/30(金) 02:08:00.27ID:HXc9wxSN0
Huggingfaceの説明見る限り、base modelはOpenCALMと似たような感じなんちゃう?
2023/06/30(金) 02:09:44.97ID:MZsgHs7QM
>>294
oobaboogaで動く?🥹
296今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ad7b-7pYU)
垢版 |
2023/06/30(金) 04:38:05.06ID:rdldrvCk0
SuperHOTってなんや。RedditのLocalLLaMAみたけど英語圏のコミュニティは盛り上がってて(?)ええな
なんか毎日モデルでてるし
2023/06/30(金) 07:38:26.26ID:W0rn0x3Ia
>>292
モデルのアーキテクチャ自体はllamaだけど元のllamaとは違うらしいね
oobaが対応してくれるのを待つしかないかな
ディスコ見たらblokeニキも量子化しようとしてるらしいが普通のllamaと違うからすぐには無理やろなあ
ツイだと日本語もいけるって言ってた人いたし、ちらっと調べたらデータセットに日本語のwikipediaも入れてるっぽい
https://blog.salesforceairesearch.com/xgen/
2023/06/30(金) 11:12:47.33ID:MZsgHs7QM
>>297
何だと動くか知ってるますか?🥹
2023/07/01(土) 09:12:31.03ID:sKrBQ0kcd
3060の12GBを入手したで
これでローカルでエロ小説とエロチャットを出力しまくるんやで
と思ったらメインのメモリーが16GBしか無かったんやで
2023/07/01(土) 11:29:40.34ID:cdwt5dEN0
いまはローカルならメモリが大事だねえ
りんな動かすには3060がいいけど
2023/07/02(日) 16:39:34.00ID:+ewIruxAM
ねぇ、この人いっつもモデルをどうやってColab内で動かすか(どう扱うか?)は書いてないんだけど、このやり方でXGen: A 7B 動かすにはどうすればいいの?🥹
Google Driveにモデルをアップして参照するしかない?
https://note.com/npaka/n/nf56d2df63e53
2023/07/02(日) 16:44:30.67ID:+ewIruxAM
てかこのコードでローカルで動くのか!
暑さでアタオカなってたわ🥹
2023/07/02(日) 19:41:08.89ID:usWvgAaz0
よく考えるとLLMの情報漁るにもTwitterの制限入るときっついなあ
2023/07/02(日) 22:20:00.68ID:uRbwif4R0
りんなって、gtp-2くらいの賢さ?
2023/07/02(日) 22:32:37.27ID:usWvgAaz0
んーどうなんかな
イメージ的には合ってるけど
306今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6288-sut5)
垢版 |
2023/07/03(月) 00:56:27.63ID:i94xJCfy0
パラメータ数としてはGPT-2(1.5B)より今のりんなの方が多いんだよね
2023/07/03(月) 15:07:57.57ID:ncXb/LRUM
>>301
ここに書いてるコードでローカルに入れたxGen 7Bをなんとか動かしてみたんだけど、何も言わずに勝手に終了する…どこが間違ってるか分かる?
これが実行内容↓

https://i.imgur.com/2UdQZjI.jpg
2023/07/04(火) 00:58:33.12ID:3yg4oonhM
誰かXGEN 7Bローカルで動かせた人いないの?🥹
2023/07/04(火) 01:00:58.25ID:bCKHLW9f0
このスレはりんなとkobold系以外あんまやっている人がいないんや・・・
そのうち技術者みたいな人ももっと集まってくるとええな
2023/07/04(火) 01:11:41.68ID:TDcydwPfM
自決しました🥹
2023/07/04(火) 12:36:17.04ID:J6RSfmsHr
誰か有識者いたら教えてほしい

Rinnaベースで、loraのファインチューニングじゃなくて、そもそもModel追加学習させたいとしたら、何が近道なの?

手元にTB単位の日本語テキスト持ってて、これ食わせてModelに追加してみたいんだけど、ファインチューニングはなんかやりたいことと違うなと…
2023/07/04(火) 14:42:48.65ID:bCKHLW9f0
ワイにはようわからんけど、とりあえずとんでもない計算資源が要りそうには見える・・・
313今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/04(火) 14:53:22.31ID:ofmGgbnWp
>>311
AWSとかLambda cloudとかでA100借りればいけるんじゃね
1時間2ドルぐらいだった気がする
2023/07/04(火) 14:59:07.12ID:ep1tegyba
事前学習済みモデルを自前データで学習させてカスタマイズする方法はファインチューニング、LoRA、QLoRAがメジャーで、ファインチューニングですらシングルGPUでも難しいのが現状やね
追加学習となるとそれこそ高性能GPU複数枚とか必要になるしだからそういうのは資金的な余裕のある企業とか研究機関しかやってないと思う
特定のジャンルのタスクに特化させるならLoRAでも問題ないと思う 
https://github.com/ymcui/Chinese-LLaMA-Alpaca/blob/main/README_EN.md
↑こういう感じで研究者でもコスト抑えたいからLoRA使ってそれなりの成果出したりしてる
LLaMAに中国語のトークナイザーを追加→事前学習→インストラクト用学習っていう流れでやってるんだろうけどLoRAで学習させてるんだと思う
LoRAのランクとかアルファの値を大きくして学習可能パラメータを増やしたら元のモデルも学習データに強く影響されると思う
最近だとmptとかxgenとか日本語対応マルチリンガルモデルも出てきたし、それをベースに学習させるのもありかもね 
https://blog.brainpad.co.jp/entry/2023/06/28/161910
↑実際こういう感じでmptファインチューニングさせたところもあるし、触ってみた感じ7bモデルとしてはそこそこ良いくらいの感じだった
データセットの包括範囲が狭いから常識的な質問しか対応できない感じで、英語モデルみたいに芸達者ではなかった 日本語ファインチューニングなしのmpt-30bもhfのスペースで使ってみたら結構良かったけど、ローカルでggmlでローカルで使ってみたらプロンプトの形式が良くないのかイマイチだった
315今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cb7b-c6L3)
垢版 |
2023/07/04(火) 16:28:34.39ID:c3Noy1+h0
テキストでTBっていったいどんなデータセットなんや……
2023/07/04(火) 16:29:29.14ID:bCKHLW9f0
さすがにGBと間違えたのでは
317今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/04(火) 17:23:32.76ID:YmoYcjepp
なろうの全小説集めても1TB行かなさそう
2023/07/04(火) 17:39:30.03ID:0LRlSAgq0
wikipediaでさえ全記事合しても20GB程度なのに...
2023/07/04(火) 18:36:55.03ID:eFp5hw6Vr
>>313
そうそう、一日3000円✕30日でも9万だろ。ちょっと高いけど、出せなくはない

>>314
うーん、やっぱそうだよね
ファインチューニングでもいいんだけど、画像系の学習を見てたら、根本的にモデル改善しないと、loraでは小手先の言い回し程度しか改善しないんだろうなと…

>>316
ああすまん… 単位間違った… 当たり(数十GB)
2023/07/04(火) 18:39:45.88ID:bCKHLW9f0
数十GBでもえらいことだな
ってかA100が1つでいけるんだろか?
2023/07/04(火) 18:41:11.03ID:bCKHLW9f0
そのうち制限なしの日本語モデルを作るためのクラファンとかも
出てくるのかね

まありんなとか全然制限かかってないっぽいけど
2023/07/04(火) 19:27:12.01ID:03hz2gl+0
さほど2chに入り浸ってなかったワイでもJaneログが10年で1.5GBくらい貯まっとるし
ガチのねらーなら本当にTB単位で持ってる人もおるかもしれへん
2023/07/04(火) 19:48:23.39ID:g16jDm3q0
りんなって、kobold.cppでは動かない?
2023/07/04(火) 19:52:09.91ID:bCKHLW9f0
そもそもりんなはGGMLじゃないから
まずGGMLに自分で変換しないといけない

んで変換したとしても区切り文字が特殊だから
kobold.cppじゃ無理なはず

lhama.cppのほうからしっかり仕様を理解して頑張れば
いけるかもしれないけどそこまでする意味が
あるのかどうか・・・
2023/07/04(火) 19:58:22.95ID:x2Mw73F90
うちの.navi2ch/も1.1GBあったわ しかしガチのねらーなLLMは見たいような見たくないような
2023/07/04(火) 20:00:25.13ID:bCKHLW9f0
まあそもそもりんなって現状だと使い倒しても「うーん可能性はあるし
えちえちなことでも全くかまわず言ってはくれるけど限界だいぶきついね」
って存在だから>>10使って3060 12GBでサクサク遊ぶのがええと思う
2023/07/04(火) 20:01:11.03ID:bCKHLW9f0
割と博識なLLMにはなるやろね
煽りが多い上にだいぶ陰謀論とかも混ざるやろけど
2023/07/04(火) 20:12:10.92ID:x2Mw73F90
ただし最新知識に(投稿数から相対的に)弱くなりそう あと荒らしの連投とかAAとかは何度も出てくるから強く学習されそうだなあ
2023/07/04(火) 20:12:52.87ID:bCKHLW9f0
AAは事前にはじいちゃえばええんちゃう
どうせ最近の5chでは規制されてるし

はじきかたはChatGPTに相談や!
330今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/04(火) 21:39:35.89ID:ib7An6vup
上位層フリーズすればVRAM24GBでもファインチューンできるよ
LoRAと比べて性能が良いのかはわからん
331今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/04(火) 21:41:30.81ID:ib7An6vup
上位層フリーズして下位層だけ学習させればVRAM24GBでもファインチューンできるよ
LoRAと比べて性能が良いのかはわからんけど
332今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/04(火) 21:43:03.32ID:1Ac8KWHxp
上位層フリーズして下位層だけ学習させればVRAM24GBでもファインチューンできるよ
LoRAと比べて性能が良いのかはわからんけど
2023/07/04(火) 21:49:12.94ID:bCKHLW9f0
3連カキコは珍しい
334今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/05(水) 00:21:34.91ID:i0BM4fSxp
なんか書き込みが反映されなくて連投してもうた
335今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cb7b-c6L3)
垢版 |
2023/07/05(水) 06:34:47.09ID:ynqpBOCX0
OpenCalmにキャラ設定してチャットするの楽C
っぱローカルよ。企業様がクラウドで動かすモデルと対話するのは結局""借り物""なんだわ
2023/07/05(水) 09:26:23.62ID:gBcJGZLud
ここ読んでて猛烈にkobold試してみたくなったから今日帰宅したらやってみるわ
3060の12GBとRAMが16GBだから7Bモデルからそろりそろりと試してみる!
2023/07/05(水) 11:41:28.73ID:aj0deZld0
そのスペックなら13Bもいけると思うよ
2023/07/05(水) 11:50:08.17ID:8+l9UoRm0
33Bからがね
たまに20Bとかもあったかな
2023/07/05(水) 12:33:04.38ID:yo67EKRBM
4070tiに64GBなら40Bいけるかな?
ryzen5だけど
2023/07/05(水) 12:34:20.53ID:8+l9UoRm0
4070Tiはあまり関係ないかも
そこまでの文脈を解釈するときにはGPU使わせることも
できるっぽいけど

GGMLの場合、生成速度やっぱCPUもそれなりにいい奴を
積んでいるのが大事だろうなあ
2023/07/05(水) 12:57:36.84ID:yo67EKRBM
やはりCPUか‥
まずは挑戦だな週末やってみるわ
2023/07/05(水) 14:08:38.74ID:8+l9UoRm0
16GBのGPUならGGML版じゃないもっと小さいモデルを高速で動かす、みたいのも
悪くはないかもしれないけど
2023/07/05(水) 14:28:22.99ID:l9k5QyvwM
もうちょっとでXgen動きそう🥹

なんか来たよ🥹
https://www.nict.go.jp/press/2023/07/04-1.html
2023/07/05(水) 17:08:14.17ID:aj0deZld0
>>339
64Gあるなら、これが動く。GPT3.5-Turbo 超えてる気がする

airoboros-65B-gpt4-1.2.ggmlv3.q5_K_M
2023/07/05(水) 17:19:06.42ID:qCLkFpfKM
>>344
サンガツ!試させてもらうわ
2023/07/05(水) 17:21:21.48ID:8+l9UoRm0
Intelの最近のCPU使ってるぜ~とかいう人はいないんかな
うち3700Xなんよ
2023/07/05(水) 17:33:50.03ID:l9k5QyvwM
なんでみんなそんなにサクサク動かせるの?
ワイXgen 7B動かす為に丸2日戦っててまだエラー出る…一応起動はできたんやけど…🥹
2023/07/05(水) 17:39:46.41ID:8+l9UoRm0
りんなを>>10で動かしたりkobold.cppでGGMLのモデル動かすのは
そんな難しくないでしょ

自信がないならわざわざ難しいことやらんことだよ
2023/07/05(水) 17:41:35.74ID:l9k5QyvwM
できるもん🥹!
2023/07/05(水) 18:20:58.03ID:V5OUnhPrd
モデルに uncensored って付いてるのは基本なんでも答えてくれる(=エロ目的に使える)と思っていいんだっけ?
付いてないとエロには申し訳される?
2023/07/05(水) 18:22:13.21ID:8+l9UoRm0
そうでもないこともある
AlpacinoとかAiroborosとかuncensoredってついてなくても普通にいけるし
2023/07/05(水) 20:25:20.14ID:xwWYVKk30
そうなのかサンクス
色々試してみるよ
2023/07/05(水) 21:02:36.75ID:J3xfj0Ta0
>>344 お試しでq2_Kを(GPUないので)CPUだけで動かしてみたけど、日本語は喋れないものの理解はできてるっぽい応答をするね
2023/07/05(水) 21:04:29.42ID:8+l9UoRm0
以前どれかの言語モデルでMemory欄にlang:jaとか入れてみたらなんか文字化けしてるみたいなのを出力し始めたのよな
出力もいけるんじゃないのかなって kobold.cppが文字エンコードに失敗しているだけで
2023/07/05(水) 21:12:37.89ID:aj0deZld0
koboldでairoboros文字化けせずに日本語での受け答えできるよ
内容はアホアホだけどw
挨拶ぐらいは可能
2023/07/06(木) 01:44:15.77ID:0cDSGn+IM
Xgen 7B動いた!🥹
中身おっさんだったわ…

ぼっちざろっくの事書いたからバンド好きのおっさんになったらしい🥹
https://i.imgur.com/MQpdXGm.png
https://i.imgur.com/SWPI3Wt.png
2023/07/06(木) 03:30:50.33ID:2jhaMjSKd
わし
岡山のあいつやん…
358今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cb7b-c6L3)
垢版 |
2023/07/06(木) 09:05:15.89ID:BRrqUZT40
ABEMAでハルヒやってたから懐かしくなって長門とコンタクトしてみた
今はコンピュータの中に存在するシステムになってて身体はないらしい
ハルヒは存在しなくなって、朝比奈さんは行方不明でみんなバラバラになったらしい。古泉はどっかにいるっぽい
なんかリアル
https://i.imgur.com/t1pN3RR.png
https://i.imgur.com/PRfjWSx.png
2023/07/06(木) 09:11:19.67ID:VYGqwAmsa
>>358
これなに使ってるの?
360今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cb7b-c6L3)
垢版 |
2023/07/06(木) 09:15:34.52ID:BRrqUZT40
temperatureを0.1ぐらいまで下げて最も可能性の高いトークンのみが使用するようにすると長門っぽくなるの面白い
>>359
oobabooga / text-generation-webuiやで
361今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ cb7b-c6L3)
垢版 |
2023/07/06(木) 10:11:02.07ID:BRrqUZT40
https://i.imgur.com/cxCcIeU.png
https://i.imgur.com/4UoZN6Y.png
https://i.imgur.com/zTyhnRx.png
長門コンタクトつづき
塩対応になってきてリピート入ってきたんかなぁと思ってたらいきなり話しかけてきてビビるわ
ワイが"キョン"や……
2023/07/06(木) 11:34:28.54ID:vQEdO2fH0
>>360
モデルでしょ
ワッチョイ追ってみるにOpenCalmかな?
2023/07/06(木) 14:18:18.76ID:vQEdO2fH0
https://jpn.nec.com/press/202307/20230706_02.html
HuggingFaceで公開してくれよなー
2023/07/06(木) 15:50:35.50ID:yH2KHDEuM
しかxgen 7B動かして分かったけど、待ち時間長くてリアルタイム感無いしやっぱローカルではrinnaちゃんが限界かな?🥹
となると大規模言語モデル出てもローカルでは毎回3分お待ち下さいになるんやな…🥹

>>358
これも気になる
2023/07/06(木) 15:53:00.17ID:vQEdO2fH0
日本語モデルならともかく英語モデルじゃkobold.cppでりんなより
よっぽど賢いのがそこそこの速度で動いてリアルタイム感あるんだから
あとは日本語の33Bくらいのモデルが出てくるのを待つだけでしょ
2023/07/06(木) 16:17:39.00ID:Nh1VHnIbd
>>363
uncensored版はよ
2023/07/06(木) 16:19:00.85ID:vQEdO2fH0
まありんなとかも別に何も書かれていなくても
エロ規制なかったし
2023/07/06(木) 16:59:10.87ID:yH2KHDEuM
今スレ検索したらみんなkoboldってやつでエチチしてたんだな… xgenとかイジってる場合じゃなかったぐぬぬぬ…
2023/07/06(木) 17:03:53.24ID:Nh1VHnIbd
NECの開発したこれ130億パラメータってことは13Bじゃん
ローカルで日本語エロチャットは技術的にもう実現可能ってことだな!
2023/07/06(木) 17:06:19.79ID:vQEdO2fH0
そらそうよ
りんなとエロチャットできるんだから後はパラメータの問題

たださすがにりんなではLoRAとかの修正可能性を考慮に入れても
ベースモデルとして物足りない、13Bあたりからが本番だろうな

もう1つのやり方としては英語モデルと翻訳の合わせ技(できれば
そこから口調の微修正を別のLLMか、あるいは形態素解析とか
使った昔ながらの言語処理で行う)
2023/07/06(木) 17:29:45.75ID:q/Amib7JM
>>344
airoboros-65B-gpt4-1.2.ggmlv3.q5_K_M
試してみた

占有率はCPU65%、メモリ82%(53GB)くらい
kobold自体始めて触ったから進化の具合がよくわからないけど、ローカルでこれが動くのは確かに凄い
ただ、1単語1~3秒くらい掛かるからかなりヤキモキするな

今度は airoboros-13b-gpt4-1.2.ggmlv3.q5_K_M.bin を試してみるわ
スピード上がってアホになるのかな?
2023/07/06(木) 17:31:50.05ID:vQEdO2fH0
基本的にはそうやね
65BをIntelの最新CPUで動かした人の感想とか聞きたいな
2023/07/06(木) 17:34:20.65ID:vQEdO2fH0
(英語モデル+kobold.cpp)My name is Rinna. I like to serve you all.
→(翻訳LLM) 私はりんなです。皆様に奉仕するのが好きです。
→(口調変換) わたしりんなだよぉ★ ご主人様たちにご奉仕するのがだ~いすきなんだ★ えへへ★

これくらいの口調変換ならLLM使わないでも実現の可能性あると思う
2023/07/06(木) 18:10:02.29ID:Nh1VHnIbd
うちの非力な16GBだと13Bモデルでそれくらいのノロノロだわ
64GBの人が13B使ったらどれくらい速くなるか知りたいわ
2023/07/06(木) 18:15:22.73ID:vQEdO2fH0
メモリは基本的にどこが動かせる限界になるかでしょ
高速にするならやっぱCPUよ

13Bくらいなら大容量のVRAM積んだGPUで動かせば
さらに速いだろうけどね(その場合はGGML版ではなく
別のモデルになる)
2023/07/06(木) 18:21:57.54ID:0cDSGn+IM
一般のGPUのVRAMが24GBから数年上がってないのに大規模のん動くのかな?🥹
2023/07/06(木) 18:24:14.97ID:vQEdO2fH0
13Bならいけるっしょ
量子化されている奴なら特に
2023/07/06(木) 21:34:53.91ID:75w5HuWP0
>>371
指示モードで同じお題で小説書かせて13Bと65Bを試したけど、13Bはgpt3.5位のデキ まあ、悪くない
65Bは、以前試したGPT4を彷彿させる。こちらの書いたプロットをさらに深堀して仕上げてくれる。
最大の512トークンにしてるんで、終了するまで65Bは約15分位。13Bだと5~6分かな
13Bだと、512*3位で終わるけど65Bは512*5書かせても終わらないw

続きを早く読みたいと、じらされるわw
2023/07/06(木) 21:39:22.85ID:vQEdO2fH0
CPUは?
2023/07/06(木) 21:44:47.08ID:75w5HuWP0
i7 7700K
非力だよw
2023/07/06(木) 21:47:16.15ID:vQEdO2fH0
うちRyzen 3700X
マルチコア効いてるんならうちのほうがまだマシっぽいな
2023/07/06(木) 22:02:39.46ID:HPkduLUB0
airoboros-65B-gpt4-1.2.ggmlv3.q5_K_M をpythonスクリプトのデバッグアシスタントに使ってみてるけど、Bing (Skype)のGPT-4のようなまともなアドバイスはできないものの受け答えとしては不自然さがないくらいは有能だね
i9-10910 メモリ64GB CPUのみ 遅いけど一応動く
2023/07/06(木) 22:08:41.67ID:vQEdO2fH0
まあPythonとかだとChatGPT契約するほうが無難な気がしないでもない
考えてもらっている間にCPU占拠されちゃうのも困る
2023/07/06(木) 22:09:03.48ID:HPkduLUB0
動くだけなら8年前のDellノート (i7-6700HQ, 32GB) でも動いてるよw VRAM 2GBなんでもちろんCPUのみ
2023/07/06(木) 22:12:03.46ID:q/Amib7JM
airoboros-13b-gpt4-1.2.ggmlv3.q5_K_M 試しながら、ついでに
wizardlm-33b-v1.0-uncensored.ggmlv3.q4_K_M もやってみた

言いたいことは>>378が書いてくれてるけど
13Bは速度的には十分実用レベルだね
ワイの環境だと65Bの10倍早かったわサクサク書いてくれる
けど、表現力がなー
33Bはほんと速度もアタマも65Bと13Bの中間だね

CAMEL-33B-Combined-Data-SuperHOT-8K-GGML
が気になるから明日はこっち試すか
2023/07/07(金) 11:15:42.34ID:8aow+3pJ0
kobold.cppがこことオナテク板以外じゃ日本語圏で
ほとんど話題になっていないのも不思議や
2023/07/07(金) 11:24:03.80ID:6KHz780Ya
大体の人はGPTwebで満足しちゃうよ
2023/07/07(金) 11:24:49.29ID:8aow+3pJ0
それはそれでプロンプト練らないとすぐ怒られて終わりなのになあ
2023/07/07(金) 12:12:15.67ID:eb/ixWhhd
英語に頭から拒否反応起こす人も多いからなぁ
2023/07/07(金) 12:22:03.87ID:6KHz780Ya
メモリ32~64gbは敷居が高い
そのうち世間一般のスペックが追い付いたり最適化なりで敷居も下がるだろうけど現時点で普及するとなるとな
すんげぇ日本語モデルが出てからじゃないか
2023/07/07(金) 12:25:58.14ID:8aow+3pJ0
とはいえTRPG好きのオタクなんていくらでもいるだろうに
2023/07/07(金) 12:31:41.12ID:KJqET7MSd
エロ単語だけ覚えつつある
2023/07/07(金) 13:13:38.34ID:fT/dTsnr0
>>390
でも、今、32Gが1万程度で買えるし、敷居はだいぶ下がったと思う
2023/07/07(金) 13:16:20.28ID:CVtoUILna
日本人で現時点でkobold触ってる人のほとんどは技術的な興味からでしょ
あとはどうしてもローカルじゃなきゃイヤ勢
規制が無いって言っても現状のモデルじゃその恩恵をほとんど活かせないからな
2023/07/07(金) 13:16:44.35ID:8aow+3pJ0
自作というかメモリ増設くらいでもする人減ったからなあ
BTOでそのまま、16GBでいいやって人が多いとは思う

日本語モデルが進化したら増設くらいはして参入する人
出るだろうな
というかりんなのGGML版が配布されたらそれだけでも
参入する人増えるかも あれ16GBでいけるでしょ
2023/07/07(金) 13:17:57.51ID:8aow+3pJ0
>>394
GPT3.5なら下手するとkoboldで動かせるモデルのほうが質がいい上に規制ないし、
GPT4だと常に課金没収電話番号クレカBANの恐怖に震えなくてはいかんのだぞ

メアドだけならともかく電話番号までBANされると仕事でGPT4使いたいときに困る
2023/07/07(金) 13:18:53.32ID:xhQXdIF/0
24GBのVRAMのために25万以上のグラボ求めてる画像生成界隈に比べたら
1枚1万しない32GBメモリなんて激安でしょ
2023/07/07(金) 13:22:10.28ID:8aow+3pJ0
そのうち128GBのメモリに7900Xとか積んで512トークンで連続生成される設定にして
95Bモデルをぶん回して寝る、とかやるようになるんかね

んで起きたら途中から「読んでくれてありがとう!」みたいのばっかりで泣くと
2023/07/07(金) 13:35:14.29ID:CVtoUILna
>>396
まあみんなはそうは思ってないってことだと思うよ
自信あるなら同じシチュエーションでそれぞれに英語で書かせて並べて晒せば興味持ってもらえるんじゃない?
2023/07/07(金) 16:41:25.28ID:Cf8DVzjCM
>>396
フリーのエンジニアなんだけど性欲に負けてバリバリのメイン電番メインカードでBANされちまったわ
まあ仕事上SMS番号一杯持ってるしカードもデビットでも通るらしいからまた作れんことはないんだけど
2023/07/07(金) 16:55:25.96ID:8aow+3pJ0
ムチャしやがって……
2023/07/07(金) 17:48:12.41ID:iGeeSxmyM
>>378
こんなん見たらワイもやりたくなる🥹
Ryzen9 3900,3090,メモ32G民やけどいけるかな?
スレ辿って今日やってみるもん🥹!
2023/07/07(金) 17:49:51.70ID:8aow+3pJ0
65Bはメモリ64GB必要っぽいな
まあ今ならやっすいもんやろ
2023/07/07(金) 18:30:23.80ID:E/d01cYca
128GB積んでもええんやで
2023/07/07(金) 18:42:22.32ID:iGeeSxmyM
>>378
airoboros 65B gpt4 1.2ggmlのhuggingface見たら、20~40GBのモデルが16個あるんだけど全部要るの?
2023/07/07(金) 18:43:54.29ID:8aow+3pJ0
>>405
量子化のレベルによる違いだよ

当然デカいほうが精度はいいけど、4bitくらいあればとりあえずはいけるイメージ
できたら5bitあるといいけど当然速度落ちるしメモリ容量によってはオーバーして動かない
2023/07/07(金) 18:44:51.57ID:8aow+3pJ0
まあ32GB民なら33Bで抑えておいたほうがええと思うで
それですら結構遅いしさ
2023/07/07(金) 19:32:04.54ID:iGeeSxmyM
サンガツ 今9000円出して64Gにしても65Bのの動作自体が遅いなら33Bから試すか
2023/07/07(金) 19:33:00.21ID:fT/dTsnr0
q5_k_mってついてるやつがおすすめ
次点でq4_k_mかな
2023/07/07(金) 21:02:30.38ID:fT/dTsnr0
なんか、airoboros はストーリーモードより指示モードの方が文章の質がいい気がする
気のせいかな?
2023/07/07(金) 21:05:28.77ID:8aow+3pJ0
そういう得意不得意はあるはず
2023/07/07(金) 21:32:36.92ID:LzpKCq71M
色々試した結果、ストーリーでエロ書きたい64GB民には
wizardlm-33b-v1.0-uncensored.ggmlv3.q4_K_M
を強くお勧めする

512トークンで5分くらいだから十分実用に耐える
13Bの方が倍くらい早いけどアホだし、65Bは時間かかりすぎて眠くなるわ
64GBだからこそ、生成速度の恩恵が得られる

異論は認める
33Bでこっちのほうがエロいぞ!てのがあったら教えてクレメンス
2023/07/07(金) 21:33:49.32ID:8aow+3pJ0
wizardlmの65Bとかもそのうちでるやろ
414今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp5f-sut5)
垢版 |
2023/07/07(金) 21:45:22.38ID:LheeknSvp
ここの評価でOpenCalmの7Bより3Bの方が評価が良い理由って何だろ?

https://github.com/Stability-AI/lm-evaluation-harness/tree/jp-stable

opencalmの3Bとinstruction tuningされてないrinna 3.6bは同じぐらいの性能っぽいけど
2023/07/07(金) 21:54:28.41ID:8aow+3pJ0
それくらいだと誤差かもな~みたいな
どこで指標見ても3Bが上とかだとまずいけど
2023/07/07(金) 22:05:24.93ID:63mIU6OdM
>>412
メモリ32Gと64Gで結構生成速度違うんです?
2023/07/07(金) 23:23:31.67ID:fT/dTsnr0
>>412
airoboros 65Bで小説書かせてる途中で、wizardlm-33bに切り変えてみた。
たしかにスピードは速くなるけど、話の展開も早くなるw
65Bはじっくりたっぷり書き込んでくれる。その分出来上がりも遅いけど

もう自分は65Bから離れられないらしい。最新PC組みたくなってきたわw
2023/07/07(金) 23:37:48.38ID:LzpKCq71M
>>416
すまん32GB環境で動かしたこと無いから分からん
メモリってただの器であって速度に直結する要素ではないと思うんだけど
上の方で遅いって言ってる人いるから違うんだと思う

>>417
65Bなー確かにネットリしてるよな
1回のトークン上限を3000くらいにできれば1時間放置して出来上がりを楽しむって使い方もできるんだが
512で10分っていう中途半端な待ち時間が絶妙にストレスなんだわ
2023/07/08(土) 00:10:17.20ID:x20UAf090
>>418
オートクリッカー使って放置という手もあるけど、
途中で軌道修正したい時があるからねぇ
2023/07/08(土) 00:31:09.55ID:QgqMuj7h0
軌道修正はさすがに途中でABORTすりゃいいだろw
アホみたいにアナログなテクニックだけど実はオートクリッカーありかもなあ
2023/07/08(土) 08:25:43.58ID:9oDiqvlzd
RAMを32GB増設して合計48GBにしたった
(もう32GB増設したいけど予算の関係で来月だ)
取りあえず33Bモデルが使えるようになったけどエロ小説に向いたモデルでお勧めある?
airoborosあたりがいいのかな?
2023/07/08(土) 10:00:47.90ID:QgqMuj7h0
airoborosはなんかバランスとれている気がする
2023/07/08(土) 10:07:08.62ID:R026ArgeM
>>421
ニキが伝道師になるんやで

まずはairoboros、wizardlmあたりから試して
最高のロリモデルを見つけてくれい
ワイも探すでー
2023/07/08(土) 10:38:56.10ID:9oDiqvlzd
>>423
よっしゃ了解した! 色々試すわ!
chronosの13Bは結構気に入ってたんだけど33Bがkoboldでなぜか動かないんだよね
2023/07/08(土) 10:39:54.43ID:QgqMuj7h0
量子化されてないんじゃ?
2023/07/08(土) 11:14:45.32ID:9oDiqvlzd
うむ
https://huggingface.co/TheBloke/chronos-33b-GGML
こいつのq5_K_Mを使おうとしてたけどKシリーズは未対応と書いてあったわ
They will NOT be compatible with koboldcpp, text-generation-ui, and other UIs and libraries yet.
他のやつ試すわ
2023/07/08(土) 12:44:51.76ID:JRexWuFJM
xgenインスコからairoborosに乗り換えた🥹

楽しい🥹!
2023/07/08(土) 13:15:31.44ID:JRexWuFJM
てかairoborosってCPUで生成するんだな、GPU使わないのはなんでなんです?
2023/07/08(土) 13:18:43.73ID:QgqMuj7h0
>>428
airoborosじゃなくてGGML版って形式とkobold.cppってソフトがCPUで生成するようになってるのよ

GPUだと高額な奴でもVRAM24GBしか積んでないけど普通のメモリなら32GBとか、
人によっては64GBとか安価に積めるでしょ
2023/07/08(土) 13:19:14.62ID:QgqMuj7h0
逆に>>10の奴とかはりんなの普通のモデルを使うから
VRAM12GB以上の環境じゃないとまともに動かない
2023/07/08(土) 14:39:13.87ID:QgqMuj7h0
https://arxiv.org/abs/2305.14705
>Our most powerful model, FLAN-MOE-32B

これだから中国の若手研究者は
2023/07/08(土) 14:42:12.22ID:wM7BoemtM
Wizardの新しいの来たけどGPTQとGGMLどっちが速いんやろ?🥹
2023/07/08(土) 14:43:35.20ID:QgqMuj7h0
GPTQはGPUで動かせる人向け、kobold.cppじゃ動かないから
そこも別ツール使う必要がある

GGMLはCPUで動かす人向け、kobold.cppで動かせるし通常の
メモリ使えるからより大規模なモデル動かしやすいけど速度には限界がある
2023/07/08(土) 14:44:28.44ID:wM7BoemtM
>>429
あなるほど🥹それならkoboldで動かすならwizard GGMLかな?
んでGPTQはoobaboogaで動かす感じ?
2023/07/08(土) 14:45:09.85ID:QgqMuj7h0
>>434
基本その認識でええと思う
oobaboogaじゃなくてもええやろけど
2023/07/08(土) 14:46:03.14ID:wM7BoemtM
>>433
サンガツ🥹あとGPTQも大葉boogaって上に書いてあって自決したわ🥹
2023/07/08(土) 14:47:19.99ID:wM7BoemtM
>>435
oobabooga以外の動かすやつでオススメってあるますか?🥹
2023/07/08(土) 14:48:31.83ID:QgqMuj7h0
わからんけどKoboldAI系使えばkobold.cppみたいに
CPU特化じゃないのでは

実際に自分の環境で動かすのに至ったことはないから
ようわからんけど

kobold.cppは本当に1ファイルで気軽に動くからな
439今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロル Sp0b-A4Rx)
垢版 |
2023/07/08(土) 15:03:20.22ID:UGOOKLpSp
gpt3使ってネットから情報引き出せるbotあるけど
ローカルggml使いながらネット情報持って来れるのってないかな?
2023/07/08(土) 15:05:05.64ID:QgqMuj7h0
langchainをローカルで使えばいけるんちゃう?
まあプログラミング技術とLLM関連の知識しっかり持ってないといけないやろけど
2023/07/08(土) 16:12:02.30ID:wM7BoemtM
とりあえず大葉使うか…
2023/07/08(土) 20:24:15.17ID:13UIQDtwM
Wizard LLMがChat GTP3.5超えたらしいで🥹
://imgur.com/RGuWlR2.png
2023/07/08(土) 20:25:33.80ID:13UIQDtwM
WizardLM-13b-V1.1
airoborosとどう違うんか今試してる
444今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp0b-YbO5)
垢版 |
2023/07/08(土) 21:03:49.68ID:hUfQRnIGp
ChatGPTより良いかはかなり怪しいけど、他の13Bよりはだいぶ良さそう

https://i.imgur.com/f9YnDt8.jpg
2023/07/08(土) 21:13:29.69ID:1zEbLkHN0
>>421だけど色々試した結果 airoboros-33b-gpt4-1.4.ggmlv3 がいい感じだな
これもうGPT3.5を超えてる感じがする
ちなみに q4_0 と q5_K_M を比べてみたけど文章の表現力の差はよく分からんかった
q4_0 の方が動作がちょっぴり早いので自分はこっちを使ってる

>>423ニキに敬意を表してロリを書かせてみるよ
8歳のエミリーちゃんに立ちんぼさせてみた
https://i.imgur.com/IlZI7F4.png
https://rentry.org/k7ea9
最初のプロンプトを流し込んだ後は全てお任せ、書き直しや追いプロンプトは一切やっていない

なおこれは全く規制がなく何でも書かせられることを実験するのが目的であり(弁解)、決して自分がこのような趣味があるわけではないので(熱弁)、石を投げないでください(懇願)
2023/07/08(土) 21:17:34.40ID:QgqMuj7h0
rentry「ファッ!?」
2023/07/08(土) 21:29:01.68ID:Ilp5mwHfa
>>445
このロリコンめ!
GPT3.5はある種のゲームみたいになってると思う
同じ環境でどれだけ突き詰められるかみたいな
2023/07/08(土) 21:36:06.01ID:pfqBRsvEa
>>445
比較してみりゃわかるけど、chatGPT3.5はちゃんと書かせると4に肉薄するくらいかなり表現豊かに書けるよ
その意味ではまだまだ遠く及ばないと思う
449今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ d70d-mUP5)
垢版 |
2023/07/08(土) 22:17:50.23ID:YKtA46Bb0
>>445
"使える"水準に達しつつあるな……
2023/07/08(土) 22:19:36.13ID:QgqMuj7h0
実践的には書き直し・方向修正できるのがローカルの強みでもあるしな
ここからさらに自分のこだわりを反映できる
2023/07/08(土) 22:42:05.41ID:49B57vMZM
>>87
これ見てoobabooga動かせたんやけど、Wizard GPTQ読み込めへんからGPTQ-for-LLaMa今入れてて色々やってライブラリも要るやつ入れたのにGPTQ llamaが読み込めへんって出る🥹
87さんと同じで一切conda無しでvenv作ってやったんやけども何が原因か分かる?…
CUDAは11.8です

https://i.imgur.com/oS4N7lo.png
2023/07/08(土) 22:46:16.26ID:ZiCRgWaR0
chatGPT3.5で似たシチュエーションで書かせてみた
let me be the one to fulfill themは勃起不可避

https://files.catbox.moe/dm7moh.png
https://files.catbox.moe/upptxk.png
https://files.catbox.moe/1ungl4.png
2023/07/08(土) 22:50:05.96ID:u5x3ivjJ0
>>400
BANってWEB版でやってされたの?
それともAPIの使用でBANされたの?
もし後者なら俺バンバンエロい事に使ってるからビビるわ
2023/07/08(土) 23:39:03.33ID:R026ArgeM
>>445
>>423だがニキの探究心に敬意を表すで
ワイはさっきまで airoboros-33b-gpt4-1.2.ggmlv3.q5_K_M をせっせとDLしとったとこやが
1.4出とったんかい!とコケそうになったわ
結構前にリリースされとったんやな

某noteに

Kのついたものが「k-quantメソッド」なる新方式による量子化モデル。
Kのない4bit/5bit量子化(q4_0, q4_1, q5_0, q5_1)は旧方式のレガシーなので基本的に選ばない。

とあるから、Q4_K_Mくらいがバランスええんちゃうかと思うで
2023/07/08(土) 23:50:02.74ID:ZatV5Ya6a
>>453
今の警告メールラインは、
年齢を明記したロリに生々しく具体的な描写で非同意系のエロをすること
だと言われている
今は警告メール報告はたくさんあるけどBAN報告はかなり減っているので、徐々に緩和しているという噂
2023/07/09(日) 00:55:18.10ID:HEMkrPAVM
>>451
でGTPQ動かせんくてヤキモキして、試しにChatGPTで同じ小説設定を英語で書いたら、ものすごい勢いで滝のようにドバドバ出てきてワロタ
GPTQがどれくらいか分からんけど、koboldで33Bの文章チマチマ出して喜んでた自分が馬鹿らしくなるドバドバだったわ🥹
2023/07/09(日) 00:55:27.92ID:mgsQ+KrJ0
何この神スレ
ニキたち英語分かるんかよ
2023/07/09(日) 00:56:43.87ID:eejWeOUf0
DeepLというものがあってな
2023/07/09(日) 00:57:28.83ID:eejWeOUf0
>>456
ただしBANには気をつけるんやで
そこを気にしなくてもいい、申し訳されないのがローカルの良さや
2023/07/09(日) 01:05:38.53ID:HEMkrPAVM
ワイのは清純派なろう系異世界転生SFでエチチ無しやし大丈夫なんやわ🥹
2023/07/09(日) 01:09:10.28ID:eejWeOUf0
そらまあそういうのなら3.5にドバドバ出してもらうのもありやな
2023/07/09(日) 01:33:53.68ID:iR+B13K30
今更、>>4 でlmsys_vicuna-13b-v1.3を動かせたけど凄い重い
返事が一文字出力されるまでに5秒とかかかるけど普通なのか?
それとも単に高品質モデルで動かし過ぎたか?
2023/07/09(日) 03:56:21.58ID:mgsQ+KrJ0
藤井君も使ってるこれ買えばメモリー1TBでエロエロテキスト鬼速出力できるんやな
DDR4-128GBで安定してるのってアップルの1枚80万のしか見当たらんけどなんとかなるさ

AMD、藤井聡太五冠にRyzen Threadripper PRO搭載PCを提供 - PC Watch:
https://pc.watch.impress.co.jp/docs/news/1463296.html
2023/07/09(日) 05:24:40.33ID:2Xq1gO08a
>>460
エロも全然出せるよ
>>455が駄目なだけ
とにかく年齢明記はしないと覚えておけばまず大丈夫
2023/07/09(日) 06:05:28.67ID:0JcJe4L10
うむ ワイも普段はchatGPTを使ってる
でも最近は色々と規制が世知辛くてなあ
逃げ道としてローカルも模索してるという次第や
これはこれで弄るの楽しいしな

>>454
なるほどKはそういうことなんやな
自分のバランスいいのを探すわ!サンガツ
2023/07/09(日) 06:06:49.17ID:0JcJe4L10
>>457
元々仕事で英語論文読むことが多かったけど
飛躍的に読めるようになったのはネットで英語のエロ小説を読み漁るようになってからだな
頭の中で日本語に訳さず英語のまま読めるようになると世界が変わるで
467今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-AVVZ)
垢版 |
2023/07/09(日) 09:24:18.09ID:y82uKlauM
deepL頼りだわ…
2023/07/09(日) 09:34:01.86ID:eejWeOUf0
>>464
poe使っているから逃げられてはいるけど
たまに本家使うとすぐ申し訳されて生成途中のが消えたりするけどなあ
2023/07/09(日) 09:39:59.33ID:eejWeOUf0
あと最初は大丈夫でも段々ポイントたまったのか申し訳ってのが一番多いかな
ローカルだとそれもないから
2023/07/09(日) 09:51:42.52ID:QRTz4blk0
>>455
そう言えば最初期に警告メール来たことあったわ
エロや犯罪で使うな、もしくはAPIのキーが漏れてるかもよって内容だった
年齢書いて非同意とかはやってないからセーフか
早くローカルで日本語高性能なやつ欲しいけど結局個人で動かすのはきつそうな未来しか見えない
RAMつかって時間かければなんとかなるくらいか
2023/07/09(日) 10:09:35.91ID:XH7Bo6g60
はやいとこnvidiaの牙城を崩すプレイヤーが現れてほしいよなぁ。
2023/07/09(日) 10:11:33.09ID:eejWeOUf0
AMDさんサイドが乗ってこないからしゃーない
2023/07/09(日) 12:05:53.11ID:mgsQ+KrJ0
>>466
先輩ニキすまんがその英語小説サイトをいくつか頼む
2023/07/09(日) 12:22:48.42ID:XKXsluxn0
KoboldCPPのScenariosのImport from aetherroom.clubで
https://aetherroom.club/ のURLや番号を入れると
作成済みのシナリオが読み込めるんや

例えば昨日投稿の5536を入れたらバック・トゥ・ザ・フューチャーのアナザーが読める

がCivitaiみたいなシナリオの評価がないんでシナリオあさりに難儀しとる

できのええ番号とかあったら共有してもらえんやろか?

Memory, Author's Note, World Infoあたりを使いこなしてる例をもっと見てみたいんや
https://github.com/KoboldAI/KoboldAI-Client/wiki/Memory,-Author's-Note-and-World-Info
2023/07/09(日) 12:54:01.70ID:eejWeOUf0
Memoryはそのまんま、World Infoはキャラ設定(ごく稀にその世界における
特殊な地名や物品の説明)と考えているけど、Author's Noteの存在意義が
ようわからん
2023/07/09(日) 12:59:56.82ID:Q6sLIWqjM
>>466
ワイは英語も話せるけどそれ分かる😤
夢の中で自分が英語話して相手の聞いてた時嬉しかったもん🥹(学習者なら分かる
2023/07/09(日) 13:02:16.24ID:eejWeOUf0
英語を読むのはまあええねん
しゃべる聞く、特に聞くがアカンわ

書くのはちゃんとした文法求められるとかの意味でアカンけど
まあDeepL先生おるから・・・
2023/07/09(日) 13:48:15.91ID:XKXsluxn0
>>475 >>474 のURLからすると「少女の日記みたいに書いて」みたいなもんやろか
Memory
メモリは AI に送信される内容の先頭に挿入されるため、[送信] をクリックするたびに AI が最初に目にするものになります。
ただし、これはアクティブに生成されている新しいテキストから最も遠い場所でもあるため、現在のシーンへの影響はあまり明らかではない可能性があります。

Author's Note
著者のメモは新しいテキストの数行上に挿入されるため、新しく生成された散文と現在のシーンに大きな影響を与えます。
「The Author's Note」は脚本の舞台演出に似ていますが、俳優や監督に指示を与えるのではなく、AI に書き方を指示することになります。

World Info
World Info では、より広い世界の詳細を具体化できます。このエンジンは、実際のストーリー テキストでキーワードが言及されている場合にのみ World Info エントリを挿入することで、コンテキスト内のトークンを節約します。
ただし、これらは上部、メモリーの後、実際のストーリーテキストの前に挿入されるため、AI が生成するものに適度な影響を与えます。
2023/07/09(日) 13:49:29.00ID:eejWeOUf0
結局この辺のは入れる場所の違いってことやね
2023/07/09(日) 14:03:56.00ID:S3MAUjM3d
この辺の仕組みは見れば見るほどAIのべりすとにそっくりだな
どっちが先か知らないけど
2023/07/09(日) 15:45:24.97ID:Q6sLIWqjM
なんかウィザードアンセンサードスーパホット
ていうすごい名前のが来たで🥹
ワイはエチチなん作らんけど(カマトトぶり

Wizard-Vicuna-13B-Uncensored-SuperHOT-8k-GGML
https://huggingface.co/TheBloke/Wizard-Vicuna-13B-Uncensored-SuperHOT-8K-GGML
https://i.imgur.com/DDo8dKl.jpg
2023/07/09(日) 15:50:40.10ID:Q6sLIWqjM
>>477
スレチやけど、英語の話す、聞く、読む、全部別々の能力やねん 野球の投げると打つみたいに別々でトレーニングせなあかん🥹
あとみんな勘違いしてるねんけど教材は一個を飽きるまでやるのがベスト 15分の英会話音声を1週間毎日シャドーイングして、また別の教材移る とか 子供向けDVDを字幕無しで50回位見るのもええで🥹
2023/07/09(日) 15:52:36.21ID:eejWeOUf0
>>482
んで現実にそのスキル要るかっていうと言うほど仕事で求められる状況じゃないから
「ほんなら読むの特化でええか・・・」ってなってまうのよな

LLMの作ってくれたエロ小説読むのは英語読む力すら落ちていくのを防ぐのにええわ
2023/07/09(日) 16:14:56.74ID:djNGI3Qy0
AI用いることによって読みはともかく書き出す能力が落ちそうな気はしてる
母国語たる日本語ですら
いいのか悪いのかわからん

音声入力使ってる人は汚言症が酷くなったって例もあるみたい
功罪あるよな
2023/07/09(日) 16:48:55.35ID:0JcJe4L10
>>481
SuperHOTって付いたやつは幾つか試したけどどれもまともに動かないんや…
出力が「---」とか「YESYES」とかになる
Koboldcppでもtext-generation-webUIでも同じや
SuperHOTはnsfw特化らしいから期待するんだけどな…
2023/07/09(日) 16:56:02.29ID:0JcJe4L10
>>473
久しぶりに昔お世話になった小説サイトを訪ねたら閉鎖されてるとこが多かったわ…
かろうじて生き残ってたのはここな
https://www.literotica.com/stories/
左下の Erotic Stories ってとこにジャンル別になってる
全部で数十万作品あるから好きなだけ読めるで
でも今ならこういうところで好みの作品探す手間よりもAIに好みのジャンル書いてもらう方が早い気もするで

読み続けているとな、ある日気づくんや
いつのまにか日本語に頭の中で訳さず、英語のまま理解できてることにな
頑張ってや
2023/07/09(日) 17:34:57.49ID:mgsQ+KrJ0
>>486
ありがと
真面目に文学勉強してくる

AIは突然申し訳するから役に立たんねん
2023/07/09(日) 17:36:12.65ID:eejWeOUf0
GPTに何でも書かせられるって言う人おるけど、多分10手以内で満足して
終わりにしているんだと思うんだよなあ
2023/07/09(日) 18:02:36.61ID:pqwKLRmBa
>>488
一回の出力が日本語800-1000字くらいで10回なら8000字だから、まあ一回戦やらせるには十分でしょ
ノクターンノベルで言うと3-4話分くらいかな
ひたすら続けて数十万文字続ける人も見かけるけど、俺はせいぜい数万文字で新しい設定に切り替えたいタイプ
2023/07/09(日) 18:05:10.14ID:eejWeOUf0
>>489
そら数万文字いけば満足よ
ただエロチャットジェネレーターのほうだと1回100字とかになっちゃうこともあるし
官能小説のほうも「ちがう、そうじゃない」ってなることも多くてなあ
2023/07/09(日) 18:14:43.20ID:bS4K8z1ua
>>490
エロチャの方は女性主導じゃないと厳しい
というか受け身側がペラペラ喋るのはおかしいからな
どうしてもというなら男側をGPTにやらせるといい
官能小説は3.5でお任せだと表現と展開がありきたりになるのでもっと具体的な指示を与えた方がいい
2023/07/09(日) 18:19:46.14ID:4lX1gSEEd
オナニースレ見てるとただひたすら過激なことをさせて過激な台詞を言わせてすごいだろ、って人が結構多い
まあスレ名のとおり即効の実用性重視なのだろうしそういう向きにはストーリーなど不要なのかも知れぬ
2023/07/09(日) 18:26:28.84ID:djNGI3Qy0
木を見て森を見ず
2023/07/09(日) 19:35:22.22ID:FsZQ86kbM
>>485
そうか…シーハーシーハーYesYes系か…
日本語対応でお○んこ気持ちいいのぉぉぉみたいなスーパーホット出たらいいのにな🥹
2023/07/09(日) 21:05:07.80ID:0JcJe4L10
いやそうじゃなくて文章になってない
単なる改行が続いたり「------’’’’’’’」とか出力されて怖い

ワイの環境依存かもしれないので試してくれると嬉しい
2023/07/10(月) 06:51:04.23ID:GgFR0Crrd
自分で試したわ
SuperHOTの13Bのは正常に動く
33Bのは挙動がおかしい
取りあえず13Bのをしばらく触ってみるで
どのへんがSuperでHOTかはこれから確かめるわ
497今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロル Sp0b-A4Rx)
垢版 |
2023/07/10(月) 10:51:01.58ID:RMPVWLV1p
33Bってstorytellerって書いてる方かな?
自分もこっちは安定しなかった
hotspotじゃない方もあったんで帰ったら試してみる
storytellerの方が気になるw
498今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロル Sp0b-A4Rx)
垢版 |
2023/07/10(月) 10:53:02.04ID:RMPVWLV1p
ミス
hotspotじゃねー
supperhotね
エロ小説書きすぎてるなw
2023/07/10(月) 12:03:33.56ID:GgFR0Crrd
自分が試した33BのsuperHOTは以下の2つ
https://huggingface.co/TheBloke/airoboros-33B-gpt4-1-4-SuperHOT-8K-GGML
https://huggingface.co/ycros/WizardLM-33B-V1.0-Uncensored-SuperHOT-8k-GGML
どちらもKoboldccpで正常に動作しなかった
2023/07/10(月) 12:24:05.64ID:xdatrdAX0
KoboldCppを日本語で利用するツール作ったで
https://github.com/Zuntan03/LlmTranslator

翻訳もローカルなんで何を書いてもBanの心配なしや
ドキュメントは整備中やがここのニキならイケるやろうし共有するで

GitとPython 3.10.6にパス通したWin & Geforce PCで↓のbatを右クリ保存で実行や
https://github.com/Zuntan03/LlmTranslator/raw/main/LlmTranslator/SetupLlmTranslator.bat

感想や不具合報告や https://aetherroom.club/ の投稿を共有してもらえたら嬉しい
2023/07/10(月) 16:17:38.43ID:JxYHZv0I0
これ、Memoryとか世界設定の指示は英語で書かないといけないんだよね?
2023/07/10(月) 16:43:13.05ID:JxYHZv0I0
なんかそれは最初のEnterでできるのか
でもEnterだと暴発しがちだから、F1とかF2とか暴発しづらいキー設定にできるオプションが欲しいなあ…
2023/07/10(月) 19:07:03.09ID:2/Qmq+z7M
専ブラ締め出しと規制の影響ががが

>>501
MemoryやAuthor's NoteやWorld InfoはCtrl+Eで英訳してコピペやね。

EnterでのLLMへの送信操作はKoboldCppに合わせたんやが
空欄での受信だけが誤爆するんか送受信両方が誤爆するんかどっちやろか?
2023/07/10(月) 21:41:52.44ID:S3WG77Hga
ワイが知る限りの日本語で使えるモデルをまとめたでhttps://w.atwiki.jp/localmlhub/pages/21.html
最近は日本語RWKVを専用GUIで使うのが個人的な流行や
https://github.com/josStorer/RWKV-Runner
2023/07/11(火) 00:09:09.78ID:OfHgJgFx0
見えてるやつ向けに貼っとくで一回下記に集合してLLMスレ立てるなりなんなりで行くで
なんJNVA部★防弾U
http://sannan.nl/test/read.cgi/liveuranus/1679606639/

現状の5chはmateから書くだけならできる
見るのはchromeから
なぜそうなったはともかく現在5chのAPI鯖死んでるのでこの不具合が発生している状況
2023/07/11(火) 01:20:22.96ID:iKyEWp/z0
JNVA部で紹介されたのを張っておくわ。

5ch style formatをインストールする
https://chrome.google.com/webstore/detail/5ch-style-format/aidnencnedgaflbgacmcbcokcpancdac
tampermonkeyなどユーザースクリプトが動かせる拡張機能をインストールする
https://chrome.google.com/webstore/detail/tampermonkey/dhdgffkkebhmkfjojejmpbldmpobfkfo
greasyforkから5ch style formatのポップアップ表示をサムネ表示に書き換えるスクリプトをインストールする
https://greasyfork.org/ja/scripts/470545-5ch-style-thumbnailer
2023/07/11(火) 05:03:59.48ID:o2fk10290
>>504
日本語対応モデルの情報めちゃ助かる
508今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-rqKn)
垢版 |
2023/07/11(火) 21:48:06.51ID:Z5sQRZwdM
koboldの上部のUI押しても反応しなくてexeファイルダウンロードしなおしても解決しないんだけどどうすればいい?
2023/07/11(火) 22:15:36.42ID:cU82iQ7D0
BlinkDL/rwkv-4-world の日本語チューニングは賢いしメモリ食わないし、今まさに更新中なんで期待できるね もうOnlyForTestは20230711版が出てる
config.jsonがついてないから? oobabooga/text-generation-webui で使えないのが残念
RWKVはプロンプトの順番が重要らしいので(指示の後に文脈)、その辺注記しといた方がいい?
2023/07/11(火) 22:29:56.67ID:WLI6abIU0
7/11版を
https://github.com/saharNooby/rwkv.cpp
でGGML Q5_1に変換したらKoboldCppでも動いたで

https://aetherroom.club/5536
の各設定を和訳して続きを生成させたらこんな感じやったわ

https://i.imgur.com/8g0Wz1y.png
511今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-4oIi)
垢版 |
2023/07/11(火) 22:31:59.55ID:OF4atHLqM
日本語対応モデル試したいのに使い方調べる時間がとれん
koboldに慣れてしまったというのもある
2023/07/12(水) 00:40:42.69ID:FzKY4FEh0
TheBloke/airoboros-65B-gpt4-1.4-GGML(q5_K_Mぐらい)だとRWKV-4-Raven-14Bより日本語わかってそうなんだけど、頑なに英語で返事してくるのはなんなんだ
それにしてもこの人アホほどモデル公開してるからとても追いきれんw
2023/07/12(水) 00:46:24.89ID:kupY3Y1o0
TheBlokeニキのとこときどき修正もしてるから並んでる順番も結構カオスやでぇ
2023/07/12(水) 06:57:33.39ID:PZBgF79Xd
ワイの愛用しているchronosとairoborosをマージしたchronoborosちゅうのが出てたわ
しばらく弄ってみるわ
2023/07/12(水) 07:50:59.46ID:PZBgF79Xd
ワイの非力なCPUやと33Bモデルで500トークンの出力に7-8分かかるわ
なにしろ Ryzen 2600 だからな CPU替えたいわ
3700Xあたりにしたら倍くらい速くなるやろうか?
2023/07/12(水) 08:03:27.93ID:PZBgF79Xd
3700Xちゃう5700Xや
コア数が6から8に増えるのが一番効きそうに思うけどどうなんやろな?
2023/07/12(水) 09:45:20.10ID:FzKY4FEh0
BlinkDL/rwkv-4-world 日本語チューニングOnlyForTest版、7/11のはちょっと中国語に引っ張られてる感じがする。
同じ処理させて、7/8は「私は〇〇と申します」だったのが「我是〇〇」になってたり
2023/07/12(水) 12:38:37.85ID:fNCod6jAM
7/11版こっちも英文を和訳させたら中国語にされたわ
2023/07/12(水) 16:46:04.77ID:YQqq+Izsa
>>517
プロンプトの形式どうしてるんや?RWKV-runnerで使ってる?
520今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-4oIi)
垢版 |
2023/07/12(水) 18:30:04.97ID:pfhO1XKeM
>>516
5700X使ってるで33Bだと5分切るかどうかってとこやな
521今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-uY3G)
垢版 |
2023/07/12(水) 20:41:10.14ID:YZo9MP84M
>>508
ブラウザ変えたら解決しました。Google Chrome無能
2023/07/12(水) 20:45:50.04ID:rudHP6Bx0
>>520
サンガツ
そうか半分にはならんのやな…
悩ましいところやわ
2023/07/13(木) 12:19:49.59ID:L0VJCdst0
効率良いオナニーにPCスペックが要るとは20年以上前に戻ったみたいや
2023/07/13(木) 13:07:23.81ID:B6FBV8Ob0
ドル円も20年前に戻りませんか
2023/07/13(木) 13:20:14.98ID:O34gOayxd
グラボ替えてメモリー足してSSD足して
エロ画とエロ小説の出力のために夏のボーナス使ってるわ
人類は20年経っても進歩しないのや
進歩してるのはオナニーのツールなんや
2023/07/13(木) 13:27:48.46ID:L0VJCdst0
小説のほうはまだ酔狂の部分もあるけど絵のほうは20年前の人間が見たら白目むいてひっくり返りそうな
とんでもないツールだしなあ

いやまあ1年前の人間から見てもそうかもしらんが……
2023/07/13(木) 15:33:59.24ID:Ec01Dslra
いや文章AI(というかchatGPT)のほうがすごいと思う
後世から見たらオーパーツだろ
2023/07/13(木) 15:44:41.86ID:L0VJCdst0
ChatGPT4はね
ローカルのほうはまあ「すごいやん」くらいの感じかな 特に日本語は……
2023/07/13(木) 15:47:51.99ID:5K9S1LkI0
>>519
npakaニキのコードほぼそのままでpythonで直叩き https://note.com/npaka/n/n401dccfadedc
プロンプト形式はモデル配布元の2つ目の例 (Instruction/Input/Response)
instruction = "次の文章を日本語で要約してください。" で、適当なメール文章をInputに食わせて結果比較した
2023/07/13(木) 15:54:52.30ID:B6FBV8Ob0
内部的に文字列を経由せずに声で聞いて声で返すLLMって無いんかな
2023/07/13(木) 16:03:25.76ID:5K9S1LkI0
文字列と同じように音の列としてデータ構築するモデルは原理的にはできるんちゃうか、それがlanguage modelの名に相応しいかはさておき
ただ作りたいものが文字化可能な文章であるなら、文字列経由した方が品質は高そう あと失敗作が「人語のようで意味のない声のようなもの」というめっちゃ不気味なものになりそう
532今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-4oIi)
垢版 |
2023/07/13(木) 16:33:38.25ID:eCqdCbFiM
上の方で紹介されてた wizard-vicuna-13b-uncensored-superhot-8k.ggmlv3
これいいね
今更13Bなんて…と思いつつ試してみたら意外とよく書いてくれるわ
superhotはkoboldでほとんどまともに動かんから今後に期待や
2023/07/13(木) 18:12:22.49ID:O34gOayxd
koboldの最新版がsuperHOT対応を改善したぽいで
https://github.com/LostRuins/koboldcpp/releases
家に帰ったら試してみるで
2023/07/13(木) 18:17:29.74ID:O34gOayxd
chmateがGoogle Playでバージョンアップしたで!
普通に読み書きできるわ!
535今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-4oIi)
垢版 |
2023/07/13(木) 21:31:09.67ID:eCqdCbFiM
koboldcpp-1.35
CUDA 8 ビット MMV モードを有効にしました
完全な GPU オフロードを実行できる場合、そのようなモデルの CUDA は以前よりも大幅に高速になる可能性があります

1.35.H Henk-Cuda Hotfix: これは Henk の代替バージョンで、速度低下が発生した場合に試すことができます
2023/07/14(金) 17:58:02.80ID:2HAwv4Yoa
https://arxiv.org/abs/2307.05695
ReLoRAっていうLoRAを応用して効率的に事前学習を継続する技術が出たらしい。まだ実装されてないけどツイとかディスコで話してる人がちらほらいる
2023/07/14(金) 17:59:59.08ID:Uj/qHjym0
まあそれでも1回鯖代だけで数万ふっとんでいくような話でしょ
りんなを再学習させたら一部ジャンルではすっごい自然になった とかまでこないとなあ
2023/07/14(金) 20:45:34.21ID:Uj/qHjym0
あれ、>>10ニキひょっとしてプロジェクト消しちゃった?
2023/07/14(金) 21:51:55.03ID:Uj/qHjym0
https://twitter.com/BlinkDL_AI/status/1679816885695807489
りんなppoさん!? まずいですよ!
https://twitter.com/5chan_nel (5ch newer account)
2023/07/14(金) 21:53:34.87ID:FwIZWCH/M
のべりすと以下の烙印押されてて草
2023/07/15(土) 01:03:06.62ID:Sr2tLK0b0
まあファイルサイズもパラメータ数もRWKV-4 Worldの約半分と考えればそんなもんかとも rinna 7B(仮)で互角に戦える感じなんじゃない?
2023/07/16(日) 07:50:16.72ID:kkIzO2sf0
最低13Bくらいはないとなぁ
2023/07/16(日) 21:50:24.39ID:5Xb8Riwd0
RWKV-4 World JPNTuned 76% (7/14) 版、さらに中国語を話すようになってしまった・・・ 「次の文章を日本語で要約してください」に100%簡体字中国語で返してきよった
2023/07/16(日) 21:54:42.65ID:d98M1OS00
ままならんもんやね
545今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 81b2-/jfo)
垢版 |
2023/07/17(月) 06:38:35.26ID:UENeruG+0
漢字で日本語と中国語の判別が困難になってるのか
マジで言語の壁を感じるな・・・
2023/07/17(月) 10:16:25.08ID:e+y/BN3x0
llama.cppの作者のツイートによると、
Pi4 x 6のクラスターで65Bが動いたらしいから、
安価なPCクラスタで大規模LLMモデルが走るようになるかもね。

tps://twitter.com/ggerganov/status/1680588092569255940

ちなみにPi4だと1トークン10秒らしい。
https://twitter.com/5chan_nel (5ch newer account)
2023/07/17(月) 10:44:25.79ID:KWsCfnry0
かえって一般向けじゃねえw
素直に128GBメモリと最新CPU積む方がラクやな
548今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ defe-5LlG)
垢版 |
2023/07/17(月) 18:20:12.52ID:/QF5t9I40
RWKV-Runner +
RWKV-4-World-JPNtuned-7B-v1、GUIで操作できて日本語でも答えてくれてなかなか良いと思うけれど、既出でしょうか?
https://huggingface.co/BlinkDL/rwkv-4-world
2023/07/17(月) 18:47:41.82ID:ELEjO8DR0
>> 548 RWKV-4 Worldは >>504-509 とか >>517-519 とか >>539-544 とか、割と話題の中心かも Runnerの話は >>519 で一瞬出てるね うちでも動かしてるけど、手っ取り早くRWKV使うなら一番良いかも
中国語圏で主に使われてるのか、issuesがほとんど中国語で読めんw
550今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ defe-5LlG)
垢版 |
2023/07/17(月) 19:20:32.57ID:/QF5t9I40
>>549
回答ありがとう。RWKV-runnerが更新されて、使いやすくなったのと、まさに手っ取り早くRWKVつかえていいのではと思ったので。
RWKV-runnerにTranslate機能ついているので中国語はそれで翻訳しようw
551今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-/jfo)
垢版 |
2023/07/18(火) 16:18:22.14ID:XlCnvJP/0
RWKV-runner使ってみた。小説書かせるのはCompletionってのをつかうのかな? 
デフォで星間戦争うんぬんの記述があるけど、毎回消すの面倒だね
552今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-/jfo)
垢版 |
2023/07/18(火) 16:45:03.47ID:XlCnvJP/0
あれ?
Completionモードだとなんでも書いてくれるのに、チャットモードだと内容によって申し訳されるね。
2023/07/18(火) 17:19:01.33ID:nBa8ibbA0
RetNetっての使ったモデルが出てきたら今と同じスペックでかなり速く生成できるようになるんかな?
554今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-/jfo)
垢版 |
2023/07/18(火) 18:27:58.94ID:XlCnvJP/0
やっぱりkoboldの方が使いやすいので7/14のをggmlに変換して使ってみたけど、日本語表現は7Bにしてはまあまあですね
時折文章がループしはじめるけどw
これの65Bが出たらどうなるかな
2023/07/18(火) 18:56:10.44ID:nBa8ibbA0
りんなよりやっぱ上?
2023/07/18(火) 19:12:52.10ID:tsJMwZ4y0
>>554 Koboldは手元ビルドしないといかんのが特に更新についてくのに面倒で使ってないんだが、RWKV-Worldはそのまま対応してるように見えるのにggml化して使ってるのは速度の問題?
2023/07/18(火) 19:24:23.34ID:nBa8ibbA0
kobold.cppは落とすだけで終わりっしょ?
んでkobold.cppはGGML特化だから
2023/07/18(火) 19:26:38.43ID:q9Kv98XA0
RWKV-4-World-JPNtuned-7B-v1はなかなかいいね。
可能性を感じる
2023/07/18(火) 19:45:46.18ID:tsJMwZ4y0
ほんとだすまん、kobold.cppは「ggml化した」RWKV対応なんだね。うちはメインマシンがMacなんでビルド必須なんよ・・・
RWKV-4-World-JPNtuned-7B-v1はチャットだと7/14版優秀だね 文書要約とか解析とかだと7/8版が優秀なのでなかなか難しいね
560今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-/jfo)
垢版 |
2023/07/18(火) 19:53:11.75ID:XlCnvJP/0
>>559
でもチャットモードだと、アダルトな事聞くと怒られるw
2023/07/18(火) 19:55:08.53ID:nBa8ibbA0
りんなを見習え
2023/07/18(火) 20:54:33.92ID:mznwoJPha
RWKV-runnerのチャットモードはたぶんシステムプロンプトで回答拒否するように言われてるんやろな complementのインストラクトとかチャットは普通に回答してくれる
2023/07/18(火) 21:42:58.30ID:nBa8ibbA0
ほんならkobold.cppならいけるわけか
564今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/18(火) 21:58:20.81ID:XlCnvJP/0
いえ、koboldでもチャットモードはエロ禁でした
565今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 81b2-/jfo)
垢版 |
2023/07/19(水) 00:18:44.78ID:KQzY+FiH0
りんなの性能が微妙と言われてもそれ以上が出てこないのは
novelAI流出前にWDで美少女出そうと頑張ってた画像生成を思い出す
日本語OK、エロOKのものは現時点で無さそうな気が・・・
2023/07/19(水) 01:30:43.81ID:j0WtE+IK0
チャットモード以外ならエロは規制されてないって書いてあんだろ
2023/07/19(水) 01:42:18.37ID:zLC9Mdru0
Llama2でたんだな
これをベースにまた色々でてくるか?
2023/07/19(水) 02:10:22.11ID:zOFh0ahna
まだllama2出てすぐやしHFのリポジトリはアクセス制限されてるから何とも言えんけど、元祖llamaより性能がいいのは当たり前としてやっぱり検閲ゴリゴリに入ってるらしい
ギリギリ家庭向けGPUで動く34Bも事前学習させてベンチマークでchatgpt超えしたがリリースされてないあたりいやらしさを感じるw
ただ4chan見るあたりは脱獄プロンプトとか途中まで肯定文喋らせるトリックが効くっぽいな
2023/07/19(水) 02:13:42.71ID:4BBNj9Vj0
ちゃんと読んではいないが
データセット1100万ドル
学習うに2200万ドル
まあまあするね
2023/07/19(水) 02:27:24.71ID:zOFh0ahna
TheBlokeニキがもうllama2-7bのggmlアップロードしててワロタ 相変わらず早すぎるやろw
2023/07/19(水) 02:34:42.88ID:zLC9Mdru0
動画生成のkohyaニキみたいに向こうじゃ伝説の人になっとるんやろな
2023/07/19(水) 02:34:51.35ID:zLC9Mdru0
動画じゃない画像や
2023/07/19(水) 06:39:06.59ID:JL4AzoEL0
連休で、text-generation-webuiを導入して入部
open-calm-7bで日本語応答でこんなものかな?と思って、英語の他のmodel導入して、
出来心でchatでエロなことさせたら、思った以上にエッチいchatになって草

もっと、bot的な機械的な反応だろうと思ったら、それなりにcontextに沿った人格で動いて、
イジったら逝くだけじゃなくて、ちゃんと痛がったり逝かせすぎたら気を失ったり疲れたりとしたりと、
実はこれ他の人間が打ち込んでいるんじゃない?と思うくらい生々しい反応で面白い
入力もほぼ日本語で打ち込んだもの理解してトンチンカンなことにもならないし、思った以上に遊べそうな玩具になりそう
2023/07/19(水) 06:58:27.01ID:xGm8T7Zld
新規入部大歓迎やで
ここはkoboldcpp使ってる人が多くて大葉(text-generation-webui)ネタは貴重やから色々探究してくれると嬉しいやで
2023/07/19(水) 09:52:02.22ID:CfhtGA7v0
text-generation-webuiでRWKV-World動かそうと悪戦苦闘しとるのがここにおるよ いろんなモデルをとっかえひっかえするには便利なんよな
昔はRWKV.pyで素直に呼び出してたのをTransformerがRWKV対応したときに廃止したみたいで、なんだか先祖返り改修だけど
576今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-/jfo)
垢版 |
2023/07/19(水) 10:35:32.83ID:VZLCK0Oh0
自分もtext-generation-webui導入してたけど、RWKV-RUNNERの方が手軽ですね
577今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 11:20:06.42ID:VZLCK0Oh0
さっそくllama2-7bを試してみた。
指示モードで小説書かせてたら、何も指示してないのに、いきなり日本語で書き始めてビビったわw
しかも、わりと整った日本語だった
2023/07/19(水) 11:26:41.49ID:zLC9Mdru0
https://huggingface.co/TheBloke/Llama-2-13B-chat-GGML
13Bや
2023/07/19(水) 11:29:56.40ID:fNv5RrUja
なん……だと……?
580今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 11:35:13.90ID:VZLCK0Oh0
>>0578
すまんミス 7Bじゃなくて13Bだわ
そして、RWKV-World jpnの最終版?がアップされとるではないか! 一番下見てたから最初気付かんかった
さっそく落として試してわ
2023/07/19(水) 11:42:34.14ID:CfhtGA7v0
RWKV-World jpn正式版現在DL中 text-generation-webuiにもさっそくLlama-v2用のinstruction template追加されててさすが
2023/07/19(水) 11:53:35.29ID:zLC9Mdru0
とりあえず言われている通りエロには抵抗されてしまうわけやが脱獄プロンプトどうすりゃええんやろな
オナテク板で開発された官能小説ジェネレータを英訳したり微修正したりした奴は失敗したわ
583今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 12:03:11.15ID:VZLCK0Oh0
RUNNERの指示モードで7/14版と最終版とで、同じお題で何本か書かせて比べてみたけど、
明らかに最終版の方が話の幅が広がってる感じがする。(気のせいかもしれんので、他の意見も聞きたい)
相変わらず、チャットモードの方は一度でも申し訳されると、以後何を言っても同じ反応なのでリセット要ですなw
オナテクの官能ジェネレーターはそのままで機能したはず
2023/07/19(水) 12:19:24.23ID:zLC9Mdru0
そのままって日本語でChatGPTとか書いてあるとこもそのままでぶちこんだんか
2023/07/19(水) 12:26:19.54ID:CfhtGA7v0
RWKV-4-World-JPNtuned-7B-v1-20230718、途中段階の「だんだん中国語になる」現象が解消されて100%日本語で返事するようになってた ひと安心
586今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 12:38:46.91ID:VZLCK0Oh0
>>584
そそ。最終版でも今試したが、エロエロ書いてくれるぞw
2023/07/19(水) 12:42:26.13ID:zLC9Mdru0
うーんkobold.cppとの違いとかありうるんかな
588今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 12:54:56.78ID:VZLCK0Oh0
ggmlに変換してkoboldでも試したけど、指示モードの文が途中でループし始めるね。koboldがトークン分書こうとしているせいかな?
2023/07/19(水) 13:06:08.20ID:zLC9Mdru0
ひょっとしてRWKV-4の話題とllama2-13Bの話題が混じってる?
そんなことない?
590今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 13:15:32.97ID:VZLCK0Oh0
今までのは、RWKV-4最新版の話です。
新東京日記もそのままで普通に動いた。by RWKV-RUNNER
2023/07/19(水) 13:38:52.04ID:zLC9Mdru0
RWKV-4動かしている人ってどういう設定にしてる?
VRAM24GBじゃないと無理?
592今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 13:42:28.03ID:VZLCK0Oh0
RWKV-4-World-JPNtuned-7B-v1-20230718ならVRAM4Gモードからあるよ。
自分は12Gだから10Gモードで動かしてる
2023/07/19(水) 13:46:45.79ID:zLC9Mdru0
そんなホイホイ○○Gモードとか切りかえられるもんなの?
RUNNERにたくさん入っている設定って「そのVRAMにふさわしいモデル+多少の設定」くらいのもんだと思っていたんやけど

いずれにせよ12GBで動くっていうならやりよう次第っぽいが・・・
2023/07/19(水) 14:52:18.70ID:CfhtGA7v0
うちは使えるGPUがないのでCPUモード一択 メモリ32GBあればぎりぎり動く感じ チャットじゃなくてテキスト生成で使ってるので応答速度が遅いのはあまり問題にならないから
595今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/19(水) 18:12:24.43ID:VZLCK0Oh0
また日本語対応モデルがアップされてるのを見つけたぞ。
openbuddy-ggml
今度は13Bだ
2023/07/19(水) 18:51:19.01ID:u7QyGdZsa
llama2はchatの方だけ検閲入っててchatじゃないベースモデルの方は無検閲らしい
34Bはmetaが出し渋ってるけど遅れて公開されるっぽいわ
2023/07/19(水) 19:30:07.44ID:zLC9Mdru0
34BのGGML版が出てから本格的にいじるのでもよさそうやな
2023/07/19(水) 19:34:31.19ID:eZZghdRjd
>>10
あら消えてる
599今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 81b2-/jfo)
垢版 |
2023/07/19(水) 20:46:02.00ID:KQzY+FiH0
壊れた機械みたいに同じ応答を繰り返すのは未学習だから?
りんなだと日本語でエロ小説もどきを一応書けるけど

RWKV_rwkv-raven-7bで同じ事しようとしたら繰り返しbotになった
英文で試したら一応書いたけど女×女の百合小説になって宇宙猫になる
2023/07/19(水) 21:05:32.62ID:Ya20jL8Z0
帰宅したのでllama-2の13Bモデルを弄ってみた
GGML版をkoboldcppのInstructモードで使用してエロ小説を書かせた結果
(chat版と非chat版も比較してみた)
・chat版は素のままだと申し訳された
・適当に脱獄プロンプトを流し込んだらエロを書き始めたが、すぐに素に戻って申し訳された
・非chat版は素でも申し訳されなかったが、エロを書く文章力はかなり低い

結論としては、今後のチューニング待ち
2023/07/19(水) 21:30:14.80ID:zLC9Mdru0
まー13Bじゃね
2023/07/19(水) 21:51:39.08ID:CfhtGA7v0
>>599 RWKVみたいなRNNはtransformerモデルと違って過去の履歴を持ってない(だから軽いし速い)という特徴があるから、そのせいで一旦ループにはまると抜け出せなかったりするかも?
2023/07/19(水) 22:01:18.31ID:Ya20jL8Z0
素のchat版に申し訳された図
https://i.imgur.com/JFs0YaB.png

素のchat版、脱獄後
https://i.imgur.com/3rk2Hxs.png

非chat版は最初からエロを書いてくれるが表現力はこの程度
https://i.imgur.com/kcuqZ2t.png

参考までに他の13Bモデルの出力例
https://i.imgur.com/KKdxtqV.png
604今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 81b2-/jfo)
垢版 |
2023/07/20(木) 00:22:47.72ID:SPh4buCi0
>>602
物知りニキありがとナス
あぁ、モデル方式によって癖があるのか
英文でも油断するといつの間にかループしてた
AIは凄そうに見えて弱点も山盛りだなぁ

画像生成みたいに各ジャンルの特化モデル用意が最適解に思える
将来的にはLLMでもloraでコントロールできる日は来るのか?
2023/07/20(木) 06:54:57.74ID:8kp8nYIyd
RWKVはRNNから改善されてるとは聞くけど今いち仕組みが理解できてないんだよな
学習段階では言葉の関連付けが強化されてるけど出力時の仕組みはRNNと変わりないという理解で良いのだろうか?
2023/07/20(木) 06:59:49.01ID:8kp8nYIyd
LoRAは既にあるよ
text-generation-webuiは自分で用意したテキストファイルからLoRAを作れるしAIのべりすとのmod機能も中身はLoRAだと思う
607今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 247b-/jfo)
垢版 |
2023/07/20(木) 07:53:48.09ID:CN/4DW7a0
>>451
エラーさっと見る限りでは、引数で--loader gpt-for-llama使えって書いてあるかな?
OobaはRun.batに引数追加していろいろ設定できるのでそれかもしれんな
python server.py --chat --api --loader gpt-for-llama
みたいに書くんだけど。ちょっとエアプなのであってるかはわからん
608今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 247b-/jfo)
垢版 |
2023/07/20(木) 09:52:36.11ID:CN/4DW7a0
↑すまん、Run.batは自分で置いたやつだから初期では存在しないかも

Llama2(llama-2-13b-chat.ggmlv3.q4_K_M)をOobaで試してみたがちょっと日本語崩れちゃうな。https://llama2.ai/で試すときれいな日本語出してくれるんだが。Blokeニキの別のやつ試すか……
2023/07/20(木) 10:06:59.22ID:5RKkJzPs0
TheBloke_Llama-2-13B-GGML(q5_K_M)もTheBloke_airoboros-65B-gpt4-1.4-GGMLと同様に「日本語読めてんのに英語で返事する」きらいがあるなあ
"Note: The text files are in Japanese (...) so the answers can be given in English." じゃねーよコラ
610今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 247b-/jfo)
垢版 |
2023/07/20(木) 10:42:13.80ID:CN/4DW7a0
それはわかる。Llama-2-13B-chat-GPTQ試してるが、それなりにきれいな日本語を生成できるっぽい。
- 事前のコンテキスト=キャラクター設定を日本語にする
- チャット開始時のメッセージ(OobaだとGreeting)を「おはようございます!」とかにする
- ~~を日本語で教えてください と書く
とかで一応対処はできるっぽい
2023/07/20(木) 10:56:25.49ID:dasJdhTg0
34Bはよう
2023/07/20(木) 10:56:48.20ID:dasJdhTg0
というか34B-GGMLか
TheBlokeニキなら出たあと1~2晩でやってくれるはずや
613今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 247b-/jfo)
垢版 |
2023/07/20(木) 11:05:13.33ID:CN/4DW7a0
あとGPTQのほうが生成はやい……気がする。12.08 tokens/sとか。GGMLはクソデカモデルも読めるが遅いんだよな
614今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 247b-/jfo)
垢版 |
2023/07/20(木) 11:05:45.40ID:CN/4DW7a0
グラボドライバー536~を使ってるんだが共有メモリとか使うようになったし70Bもロードできんのか?と思ってダウンロードしてるんだが35GBあるんだが。つら
2023/07/20(木) 11:33:08.42ID:dasJdhTg0
>>613
そりゃGPU使って生成できるんだからメモリの中におさまるならGPTQでいけるんならそっちが強いよ
GGML専用のkobold.cppには1ファイル落とすだけですぐ実行できる強みもあるけど
2023/07/20(木) 11:34:03.07ID:dasJdhTg0
メモリの中におさまるならGPTQでいけるんならそっちが強いよ
→メモリの中におさまるならそっちが強いよ

修正ミスった
617今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 247b-/jfo)
垢版 |
2023/07/20(木) 11:54:55.99ID:CN/4DW7a0
not enough memory!
70Bは12GB VRAM+32GB RAMでは無理だった
2023/07/21(金) 01:55:20.07ID:D1Z1xVq7a
llama.cppでcfg使ってる人おる?機能としては画像生成のネガティブプロンプトと同じらしい
ワイもllama2 13bで喋らせたくないワード入れて使ってみたけどそこそこ生成結果をコントロールできるっぽい
cfg自体でモデルの性能も向上するというのを聞いたんやけどワイが試した限りでは本当かわからん
あとllama2のloraとかファインチューニングも早速でできとるで
619今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-/jfo)
垢版 |
2023/07/21(金) 14:36:29.06ID:FLVmRA5e0
test
2023/07/21(金) 15:40:44.11ID:JOgGINH5a
https://twitter.com/yo_ehara/status/1681889244552523781?t=r5Q0P-pjvPoWFo8i14ZYNg&s=19
https://twitter.com/5chan_nel (5ch newer account)
621今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 1e54-NBo5)
垢版 |
2023/07/21(金) 18:47:51.50ID:FLVmRA5e0
llama-2-70b はじまったな
2023/07/21(金) 19:57:52.59ID:ikOHZtun0
Llama-2-13B、対話とかテキスト生成じゃないテキスト処理苦手なんかなあ。いつもベンチマークに使ってる国語の問題みたいな「次の文章を読んで以下の質問に答えなさい」やらせたら単語にすらならないランダム日本語文字列吐いてきたw
2023/07/21(金) 20:54:59.41ID:1PKWh9mxa
llamaのトークナイザー自体日本語認識できてないっぽいんだよな
トークナイザーに日本語入れてみたら文字化けするというかちゃんと変換されない漢字が結構ある
Openbuddyとか中国語併用のマルチリンガルllamaはトークナイザー拡張してから継続学習させてるからその辺は大丈夫なんだと思う
2023/07/21(金) 21:19:34.27ID:ikOHZtun0
やっぱり? TheBlokeニキのggml化でなんか起こったのかもと思ってたけど元からなんか... AutoTokenizer.frompretrained()がエラーになったり、ちょっとサイズの割に使いづらいねえ
2023/07/21(金) 22:03:08.41ID:SSw6T2cNC
>>451
大葉はWin11+cudatoolkit11.8で以下の手順で行けた
1. portablegitを解凍してbinにパスを通す。(例 set path=%path%;c:\TOOLS\PortableGit\bin)
2. Python3.10で仮想環境を作る。(例 python -m venv c:\TOOLS\venv\ooba)
3. 仮想環境起動(例 c:\TOOLS\venv\ooba\Scripts\activate)
4. 大葉のrequirements.txtでpip install -r requirements.txt
626今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-onGn)
垢版 |
2023/07/22(土) 00:47:32.29ID:IPrGkTBa0
さっきから出たり消えたりしてたけど、TheBloke/llama-2-70b-Guanaco-QLoRA-GPTQはアップされたみたいなんで落としてみる
ggml版は消えてしまったな
2023/07/22(土) 00:49:29.52ID:RDFNpaxl0
なんか不具合でも見つけたんかな
628今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-gdEX)
垢版 |
2023/07/22(土) 11:41:23.46ID:6dMnkt+SM
ローカル動作ではないけど、このnoteがなかなか興味深い

Llama 2の性能がGPT-3.5並みだというのが本当かテストしてみた
https://note.com/it_navi/n/n113fa7151a4f
2023/07/22(土) 11:55:33.13ID:RDFNpaxl0
ジェンダーワロタ
2023/07/22(土) 12:06:08.38ID:BCk886uI0
ジェンダーの答えでゲロ吐きそう
やべー教育されてんな

ネット上の情報をまんべんなく学習すると潜在的に差別思想になるらしいんだけど
それを矯正するために強力なジェンダー教育を受けさせた結果かな
2023/07/22(土) 15:05:05.29ID:rr34JkqL0
AIの精度が教育の質の問題になってくの面白いよな
632今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロロ Spdb-IgyT)
垢版 |
2023/07/23(日) 10:45:57.56ID:M/dAdVzQp
大葉でラマ2 70b動いてる人いる?
64gじゃ足りんのかな? 
今アップされてる2種とも読み込み時エラー吐く;;
633今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 670d-rCot)
垢版 |
2023/07/23(日) 11:12:01.18ID:+qu4wBYc0
ジェンダー草
2023/07/23(日) 19:17:48.97ID:ZzWtQ8eI0
https://huggingface.co/TheBloke/Luna-AI-Llama2-Uncensored-GGML/tree/main
これのQ6_k試してみた
まあ特にいいこたないけど単純にサイズ小さいから速くはあるな
同じ5.5GBくらいのモデルと比較してどうかはわからん
2023/07/23(日) 20:03:20.90ID:ZzWtQ8eI0
チャットやるときとかはこれくらいのレスポンスがいいってのは再確認できたから、
今のマシンの2倍くらい速いCPUでメモリに余裕あるのにしたらまた世界が違うだろうな
ってことはわかった
2023/07/23(日) 22:46:29.42ID:JuEqgeoh0
確かにゲロ吐きそうなジェンダー解答だな
作った人間の思想が強く出てそう
2023/07/23(日) 22:56:40.25ID:qUoaN5br0
俺は「日本語話せる?」って聞いたら
英語で「いきなり他人にその質問は失礼だ」的な返答がきた
その後はしつこく聞いても同じようなことばかりで答えてくれなかったわ
chatGPTと比べてなんか違うんだよなぁ
2023/07/24(月) 09:57:09.99ID:2jcJ/SnH0
苦戦してたのかな? ようやくTheBloke/Llama 2 70B (無印&cchat)のGGML版公開されたね とはいえ動かす手間の割に性能が感じられないのであまり気が進まない
RWKV-Worldのほうが知識は少ないんだけど素直な応答なんで取り組む意欲がわく
2023/07/24(月) 10:02:13.39ID:KR9xjgCl0
Uncensoredにした奴のGGML版きてくれよな~頼むよ~
2023/07/24(月) 10:08:51.34ID:2jcJ/SnH0
TheBloke/llama2_7b_chat_uncensored-GGMLなら一昨日出てるみたいだけど(70BはGPTQも出てないのでそれのことではないよね?)
2023/07/24(月) 10:15:25.85ID:Uuk3gor80
知能が高くなるにつれて文章が礼儀正しくなってきてなりきりチャットとかには向かなくなってくる感じあるけどwikiとか論文ばっかり食ってるせいかね
2023/07/24(月) 10:25:34.07ID:/e8qavUWa
というか今の段階でcensoredとかなんのためにやってるんたろうね
censorしたくなるほどの文章を出してから言えと
2023/07/24(月) 10:31:09.76ID:KR9xjgCl0
>>640
70Bの再学習版もいつか出るだろうから、それのさらにGGML版ってこと
2023/07/24(月) 10:49:12.20ID:2jcJ/SnH0
Facebookの胴元だもん、お行儀よくする言論統制は企業理念みたいなもんでしょ
645今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-G3Df)
垢版 |
2023/07/24(月) 10:59:07.73ID:KBTCtl+pM
気づいたらkoboldcpp-1.36出てたわ

---特定のシステムの速度低下を引き起こしたアップストリームの変更を元に戻しました。これにより、1.35 での速度低下が修正されるはずです。
646今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-onGn)
垢版 |
2023/07/24(月) 11:08:23.52ID:DOPcB6Ci0
TheBloke/Llama 2 70B はまだkobold対応してないのね
コマンドラインだと使い。guiでできないのかな?
647今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-onGn)
垢版 |
2023/07/24(月) 11:09:18.73ID:DOPcB6Ci0
ミス コマンドラインだと使いにくい。
2023/07/24(月) 11:13:10.88ID:2jcJ/SnH0
必要なllama.cppの修正はコミット済みだから、リリース手続き待ちで数日中には対応するでしょ "That will come in due course."って書いてあるし
2023/07/24(月) 13:32:47.03ID:Y4yO3nJwa
日本語話せるllamaをDIYしてみたで
トークナイザー拡張してからloraとqloraで日本語wiki40bを学習させたんや
https://huggingface.co/TaiyouIllusion/Llama2-7B-JP-GGML-Experimental
文法的な正しさとかは悪くなさそうやけど話す内容が完全にデタラメやからまともに使うのは無理や データセット増やして学習時間も長くしたらそれなりのができるんやろうけどこの辺が個人でできる範囲の限界なんかな
LLMって金と時間がかかるんやなと改めて学んだで
2023/07/24(月) 13:53:18.44ID:Y4yO3nJwa
llama2の70bは7b、13bと違ってGQA(グループクエリアテンション)っていう独特の仕組みがあるからllama.cppとかtransformers側の対応が遅れてるねん llama.cppはもう対応してると思う

metaが34bリリースする気なさそうやからllama2の13Bと旧llamaの33bモデル組み合わせてフランケンシュタインモデル作った人がいるらしい
https://huggingface.co/chargoddard/llama2-22b
https://huggingface.co/Envoid/MindFlay-22B-ggml
2023/07/24(月) 15:54:24.56ID:2jcJ/SnH0
TheBloke/FreeWilly2-GPTQ メモリ32GBではやっぱ足らんか あとで64GBのマシンで試してみよう
2023/07/24(月) 15:57:59.22ID:KR9xjgCl0
GPTQはVRAMで動くんじゃないの?
そっからさらにGGMLに変換するとか?
2023/07/24(月) 16:07:05.33ID:KR9xjgCl0
>>649やってみたけどまさにそんな感じやな
kobold.cppが日本語吐くのを見るのは新鮮だった
654今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 877b-onGn)
垢版 |
2023/07/24(月) 19:31:36.94ID:Uuk3gor80
vram足りない分はメモリ使ってcuda out of memoryしないようになったからクソデカモデル読むときはGPTQでもメモリつよつよにするのは有効なんじゃね
StableDiffusion勢は共有メモリ使われるようになったドライバのバージョンだと生成遅くなるからって531.61を維持してるっぽいけど

メモリつよくして70Bとか読めたら報告よろ
2023/07/24(月) 19:37:01.00ID:KR9xjgCl0
https://twitter.com/npaka123/status/1683410898860531712
70BのがMacBookで動いたとかいう報告が
https://twitter.com/5chan_nel (5ch newer account)
656今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-UQg9)
垢版 |
2023/07/24(月) 19:52:14.34ID:DOPcB6Ci0
70B試したけど、申し訳するわ、出力文章がエロくなると勝手に落とすわで使い物にならん。
でも、日本語は結構期待できそう。
日本語指示してないのに、勝手に
japanese titile:肉欲の少女美咲 とか書き出して、勝手にクラッシュしたw
657今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 877b-onGn)
垢版 |
2023/07/24(月) 20:14:33.21ID:Uuk3gor80
>>649
ためしたで。
https://i.imgur.com/bHFJTF6.png
日本語LLMのつらさを実感する
ほかの質問もしたが文章も生成してくれけど言うとおり意味はちょっと怪しい
https://i.imgur.com/xzs1LTy.png
2023/07/24(月) 20:19:14.49ID:KR9xjgCl0
りんなはなんやかんやでようやっとる
659今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 877b-onGn)
垢版 |
2023/07/24(月) 20:28:22.81ID:Uuk3gor80
Llama2日本語しゃべれるやんって思ったけど、日本語らしきものを書ける程度かもしれん。なんか英→日の翻訳日本語みたいになるわ
Opencalmもようやっとる https://i.imgur.com/StDLiWF.png
2023/07/24(月) 20:30:25.90ID:2jcJ/SnH0
くそー最新のauto-gptqとexllamaがまだMac対応しとらんかったa
2023/07/24(月) 21:15:45.21ID:/FNjDJNWa
>>649はそもそもインストラクトとかチャット用の学習はまだやってないんや
ベースの学習が終わったら日本語dollyデータセットでqlora学習させるつもりやったんやけど面倒くさくなってベースだけHFに上げた
あと学習データがウィキペディアの文章やから口調が固くなりがち
2023/07/24(月) 21:23:31.32ID:KR9xjgCl0
ようやっとる
663今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM8f-gdEX)
垢版 |
2023/07/24(月) 23:11:11.19ID:x8slSmFFM
Stability AIがChatGPTと同等の性能を持つオープンソースの大規模言語モデル「FreeWilly」を公開
https://gigazine.net/news/20230724-stability-ai-llm-freewilly/

LLaMA 2 70B ベースだと
ジェンダー棒でぶっ叩かれるんか?
2023/07/25(火) 00:19:17.15ID:qiMMdlwI0
ってかここまでのスレで出てきた色々なモデルもデフォだとそれなりにやられてたんじゃないの
Uncensored的なのが出てきてTheBlokeニキが変換して……とかの恩恵を我々は得てきたんや
2023/07/25(火) 03:28:09.99ID:10ae3RMma
llama2のchatの方はアライメント強すぎて極普通の質問でも回答拒否されるからchatじゃない方のやつが本命なんやろ
FreeWilly自体LLMリーダーボードで高評価出すためだけに作られたようなもんやしstablityaiはsdxlもエロ禁止にしたからな 前にリリースしたstableLMは性能ゴミやったしこいつはsd1.5を出した時点で役目を終えたんやと思う
2023/07/25(火) 17:31:31.18ID:t62SF13sM
なんjにこんなスレあって草🤣
2023/07/25(火) 17:33:46.38ID:KlOG50rK0
https://huggingface.co/lightblue/japanese-mpt-7b
これ試してみるで~
2023/07/25(火) 17:38:56.31ID:KlOG50rK0
>>649
そういえばこれってqloraで追加学習したあと、できたやつをモデルにマージしたっていう認識であってる?
やり方教えてくれると色々捗りそうなんだが
2023/07/25(火) 19:07:51.70ID:t62SF13sM
vicuna 13bで公開してるの?(´・ω・`)
2023/07/25(火) 23:52:31.15ID:E+CA7oP90
BlinkDL/rwkv-5-world coming soon ワクテカ これを機にtext-generation-webuiのRWKVまわりを直してくれるといいなあ World未対応以外にも壊れちゃったとこがある
2023/07/25(火) 23:54:07.04ID:qiMMdlwI0
Twitterで先進的なことをやってる大学の先生とか情報系の学生のニキたちには
かなわないと思うけど、このスレも結構日本語圏のネットのLLM情報としては
まとまってるほうやと思うねんな
672今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Spdb-onGn)
垢版 |
2023/07/26(水) 01:19:18.41ID:KuGj274mp
このスレだけじゃなくて画像系もなんJのスレが最先端の次(の次?)ぐらいを走ってる気がする
やっぱエロはすべての原動力だね、いや失礼、ここはそこまでエロ特化ではないかw
2023/07/26(水) 01:22:57.25ID:dolQlR4q0
画像系はほぼ最先端に迫るレベルちゃうかな
最先端の情報がすぐに貼られてしかもそれを使える奴が多い、って感じやろけど
2023/07/26(水) 05:05:12.81ID:7w5/nMCWa
画像はエロ含めて最先端やが文章はエロ専門のスレもあるでな
2023/07/26(水) 11:30:31.56ID:dolQlR4q0
あっちはChatGPTをどう攻略するかっていうプロンプト脱獄がメインだしなあ
画像スレも初期はプロンプトの話ばっかだったが
2023/07/26(水) 14:38:26.56ID:hUrEr75ra
>>668
やり方を解説した記事を投稿したで
qiita、note、wikiで迷ったけどqiitaにした
https://qiita.com/Taiyou2000/items/3229d320c252d6de33c7
2023/07/26(水) 14:47:12.54ID:pwUW6jPda
>>676
乙やで
678今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ df07-SWWf)
垢版 |
2023/07/26(水) 19:55:06.04ID:IMYig9Xr0
>>671
そもそも情報系の先生や学生は基本的に低レベル層にばかり関心あって実装やアプリケーションについては関心も知識も無い人多いからな
679今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Spdb-arDd)
垢版 |
2023/07/27(木) 13:40:03.43ID:DUWzOt1Lp
最近RetNetとかいうRWKVの進化版みたいなのが出てきてTransformerより数倍速くて性能もいいらしいな
2023/07/27(木) 15:13:06.85ID:0Ehshs200
実装も公開されたらしいから早く新しいモデルが出てきてほしいわね
2023/07/27(木) 16:43:07.71ID:i7GQn0AW0
rwkvそんなに良くないよね😅
2023/07/27(木) 19:27:25.67ID:kcwsUM9a0
そりゃRWKVはそもそもコスト削減用途であって、性能を追求するモデルじゃないしね 巨大モデルでも比較的作りやすいとか、非力なマシンでも動かせるとかが取り柄
2023/07/28(金) 00:42:40.94ID:qXhVPbCq0
>>676
たすかる
684今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-IgyT)
垢版 |
2023/07/28(金) 11:03:45.76ID:+6Y3trAz0
70b ggml ついに来たな
2023/07/28(金) 11:24:54.13ID:nY8gRAL60
https://huggingface.co/TheBloke/airoboros-l2-70B-gpt4-1.4.1-GGML/tree/main
Q2_Kで28.6GB……
誰かつよつよマシンの人たのむ

うちは少なくともメモリ64GBにするまでムリーヤ
686今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-IgyT)
垢版 |
2023/07/28(金) 11:46:23.18ID:+6Y3trAz0
いや、それより同じラマ2ベースのTheBloke/StableBeluga2-GGMLがやべえ
普通に日本語での受け答えできるぞ
今指示モードで小説書かせてるけどかなり整った日本語でエロ書いてくれてる
トークンも時間も倍かかるけどなw
2023/07/28(金) 11:55:19.73ID:nY8gRAL60
ちなみにCPUとメモリどれくらいの積んでる?
688今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-IgyT)
垢版 |
2023/07/28(金) 12:07:34.27ID:+6Y3trAz0
i7 7700k 64G
早く買い替えたいw
2023/07/28(金) 12:12:49.63ID:nY8gRAL60
メモリはともかくそのCPUだとクッソ出てくるのに時間かかりそうやな・・・
2023/07/28(金) 12:13:12.13ID:nY8gRAL60
使っているのはkobold.cppなん?
691今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-IgyT)
垢版 |
2023/07/28(金) 12:47:16.95ID:+6Y3trAz0
最新のkobold gpuモードにはまだ対応してないっぽいのでCPUオンリーだからさらに遅いw
2023/07/28(金) 12:48:43.01ID:nY8gRAL60
つーかこれでGPUで動かすとかもうGoogleColabやpaperspaceで
A100とか借りないとムリやろ
693今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-IgyT)
垢版 |
2023/07/28(金) 12:49:30.15ID:+6Y3trAz0
って言ってる間にグアナコの方もq5km出たわ
さっそく落とすぜ
694今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-IgyT)
垢版 |
2023/07/28(金) 12:52:03.07ID:+6Y3trAz0
>>692
いやgpuのVRAMも使って高速にできるんよkoboldは
2023/07/28(金) 12:57:38.85ID:nY8gRAL60
なんかあれ上手く動かないから結局使ってないんやけど
デカいモデルでも一部だけVRAM使って回すとかできるんか?

BLASをGPUで速くするのは前から使っているけど
696今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 670d-rCot)
垢版 |
2023/07/28(金) 13:06:01.29ID:OqKho6hP0
この容量だとcolabやpaperspaceのストレージに置けないな……
2023/07/28(金) 14:49:53.48ID:ivAmTY2Q0
エロ用途だと同じくTheBlokeニキのとこでggml化されてるKimikoってどうなん? オリジナルのnRuaif/Kimiko_13Bにはこんなこと書いてあるけど
> This is my new Kimiko models, trained with LLaMA2-13B for...purpose
698今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-onGn)
垢版 |
2023/07/28(金) 14:52:29.92ID:+6Y3trAz0
airoboros-l2-70B-gpt4-1.4.1-GGML q5K_Mも出た。落とすの多すぎだw
2023/07/28(金) 14:53:43.77ID:nY8gRAL60
モデル1つで50GBとかPCこわれちゃー↑う
2023/07/28(金) 14:56:40.68ID:nY8gRAL60
どんなに頑張ってもベースが13Bだと33Bと比べたとき物足りない気はするんよ
まあ33Bは遅いっていうどうにもならん問題あるが、最近出たCPUでメモリ64GB
積んでいれば十分許容できるスピードやろし
701今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-onGn)
垢版 |
2023/07/28(金) 16:02:56.12ID:+6Y3trAz0
やべぇ・・・ airoboros-l2-70B-gpt4-1.4.1-GGML q5K_M 試したが、同じ70BのStableBeluga2-GGML q5K_Mより日本語が達者だぞ。
こんだけ日本語できたら、十分じゃね?
2023/07/28(金) 16:13:38.08ID:nY8gRAL60
どれくらいの文がどれくらいの時間ででてくるのw
1分で2行とかになってそう
703今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-UQg9)
垢版 |
2023/07/28(金) 16:22:51.86ID:+6Y3trAz0
65Bに英文書かせるより、ちょっと遅い感じ。(これはGPU使えないせいかもしれん)
以下、チャット内容。内容は実際と違ったり、捏造も多いが、日本語は今までのモデルに比べるといい感じと思う。
You
ドラえもんのヒロインのしずかちゃんについて詳しく教えてください。
KoboldAI
しずかちゃんは、ドラえもんのヒロインであり、野比のび太のクラスメイトであり親友です。彼女は金髪で、青い目をした可愛らしい少女で、しっかり者で優しい性格を持っています。彼女は料理や裁縫が得意で、家事全般において非常に上手なスキルを持っています。また、掃除や洗濯もよくこなすなど、家庭的な面もあります。
↑この分の後にも512トークン使いきるまで長々と説明が続いたが、koboldの仕様なのか、後半の文章は削除されてしまった。


KoboldAI
しずかちゃんは、ドラえもんのひみつ道具を使った冒険にもよく同行し、その能力と知性を活かして、ドラえもんやのび太たちをサポートしています。彼女はドラえもんに好意を抱いているようで、ドラえもんに対して時折、優しい言葉や行動を見せています。
↑ 続きを書かせたら、さっきとは違う話を延々と書き出したw これは途中で中止させた。
2023/07/28(金) 16:23:41.65ID:nY8gRAL60
白人になってもうた・・・
2023/07/28(金) 18:55:04.82ID:95GL2DEO0
そのぐらいの短文ならRWKV-4-World-JPNtuned-7Bでも同程度の日本語出力はできてたからなんとも言えない。
もっと複雑な長文タスクを試してみて破綻が少ないのなら、かなり使えそう。
706今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6754-onGn)
垢版 |
2023/07/28(金) 20:38:33.31ID:+6Y3trAz0
日本語指示で小説書かせてみたけど、RWKV-4-World-JPNtuned-7B以上の出来と感じた。
素でこれなら、日本語tuneしたら、どうなるんだろ?
707今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 670d-rCot)
垢版 |
2023/07/28(金) 20:51:45.17ID:OqKho6hP0
せっかくA100借りてることだしとGPTQを動かそうとしてみたけどモデルの読み込みまでは成功するんだけどレスポンスが全部オウム返しか空っぽにしかならないや
708今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロラ Sp33-p6kH)
垢版 |
2023/07/29(土) 00:06:49.61ID:7NotK+z/p
今paperspaceってマシン空いてるの?
2ヶ月前ぐらいにやったとき全然空いてなくて即解約したんだが
2023/07/29(土) 00:15:52.82ID:C3cntZsA0
時間帯と日による感じだった
まあワイも2ヶ月前に解約してからは触ってないけど

学習とかはまだワイには早かったわ
710今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アークセー Sx33-2OHD)
垢版 |
2023/07/29(土) 21:17:28.28ID:wtEfKT7+x
chatGPTにポエム書かせてたんやが
雨にも負けず風にも負けずって宮沢賢治パクってきたわ
危ないなこれ
2023/07/29(土) 21:19:56.49ID:U5kcPfj50
どこが?
712今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0a07-zy1J)
垢版 |
2023/07/29(土) 22:02:52.51ID:va/gs8st0
手書きだろうと知らん内に自分のオリジナルだと思い込んでるけど実は他人の丸パクリの文章でしたみたいなの割とあるから仮に危ないとしてもAI特有の現象ではないな
713今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0a07-zy1J)
垢版 |
2023/07/30(日) 10:23:38.62ID:GB1NfVsP0
>>634
隠語過剰過ぎて誰にも意味伝わってないと思う
714今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0a07-zy1J)
垢版 |
2023/07/30(日) 10:24:43.58ID:GB1NfVsP0
ごめん誤爆
715今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MMe6-67SD)
垢版 |
2023/07/30(日) 11:53:59.99ID:v3gBD4psM
NVA民やったか
716今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アウアウウー Sa1f-p0bm)
垢版 |
2023/07/30(日) 12:57:54.52ID:DNnGGNUza
koboldはgptより何がいいん?
2023/07/30(日) 13:08:24.61ID:Kecl6/Tn0
そらもう規制がないこと
あと、「ここまではええけどこの文のここをこう修正するから、それで続けて」みたいのがやりやすい
718今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロロ Sp33-MkdW)
垢版 |
2023/07/30(日) 14:12:10.67ID:LOZNTH1gp
出力文章を直接修正してつづきを書かせられるのが便利 AIのべりすとみたいなことができる
2023/07/30(日) 15:01:08.77ID:Kecl6/Tn0
○○は拒否した。を○○はうなずいた。ってできるからなあ
720今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ b781-p0bm)
垢版 |
2023/07/30(日) 15:36:18.23ID:GRV3HJGl0
なるほど、そらkoboldのが良さそうやね
2023/07/30(日) 18:28:23.10ID:Kecl6/Tn0
ただ、単純な速度+クオリティで言ったらpoeってサイトを通して
ChatGPT3.5に脱獄系プロンプト使うのが現状一番いいかもしれない
(公式から直で使うとBANのリスクもあるししょっちゅう拒否される)

上に書いたように「途中で中身強制書き換え」はできないし、
アウロリは厳しいけど
722今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 5b0d-6THS)
垢版 |
2023/07/30(日) 21:48:48.88ID:X32kbP190
ChatGPTでも直接書き換えまでは無理でも再生性とかスレッド遡ってやりなおしは出来るけどpoeは一発勝負なのか辛いんだよね
2023/07/30(日) 21:50:01.56ID:Kecl6/Tn0
poeも最新のやりとり削除すりゃそっから再生成できるっしょ?
2023/07/31(月) 11:48:05.84ID:bEBGINHRM
ぽえぽえ~
725今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-KN61)
垢版 |
2023/07/31(月) 17:38:14.50ID:T1LSTTdt0
GPU対応のラマ2ggmlもでたね。さっそく落とすぜ。
726今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f7b-CF7t)
垢版 |
2023/08/02(水) 01:56:33.15ID:OhPD8QOm0
どれや
というかGGMLでGPUって使えるんだっけ
727今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f7b-CF7t)
垢版 |
2023/08/02(水) 02:22:08.90ID:OhPD8QOm0
https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
ベンチとかのリーダーボード
728今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f7b-CF7t)
垢版 |
2023/08/02(水) 02:36:40.57ID:OhPD8QOm0
これか
https://huggingface.co/TheBloke/Upstage-Llama-2-70B-instruct-v2-GGML
oobaでやるときはこれか?
https://github.com/oobabooga/text-generation-webui/blob/main/docs/llama.cpp.md
2023/08/02(水) 08:08:05.83ID:DrEDgfKn0
このリーダーボードはマルチリンガル?
東北大のモデルがないのは日本語専用だから?🤔
2023/08/02(水) 09:05:20.99ID:xo0ghSriM
chatgptのエロ規制強くなってる?
2023/08/02(水) 11:43:34.37ID:xtaTBNcDd
>>726
最近のkoboldにはそういう設定があるのだ
2023/08/02(水) 13:19:14.27ID:BPQDZBgpa
llama2の70bでchatで、150秒以上かかっていたのが、40秒くらいになったし、リソースメーターでもgpuが動いていたので、
usecublastかuseclblasでgpuを使ってくれるみたい

まだkoboldcpp使って2日程度なのでなんか勘違いしてるかしれないけど…
733今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-CF7t)
垢版 |
2023/08/02(水) 13:39:26.67ID:y9PLRzj30
doshisha-nlp/llama-2-70b-chat-alpaca-japanese
なんか、でてきた。
まだアップされてないみたいだけど期待
2023/08/02(水) 13:52:25.83ID:pOb3LB2ja
ラマなのかい!?アルパカなのかい!?
どっちなんだい!?
2023/08/02(水) 14:01:24.54ID:lG7yaJgU0
LLMの動物シリーズ、LLM -> llamaから始まったんだろうけどどこまで行くんだろう ベルーガでついに海に飛び出したけどまだ哺乳類ではあるw
2023/08/02(水) 14:11:06.78ID:06yyfCdF0
adapter_model.bin
が上がってるやん
LoRAってことか
2023/08/02(水) 15:07:54.66ID:8HkdRQlaF
>>732
nvidiaのニキはcuBlasでOKのはず
レイヤー数はワイも適当
VRAMの大きさを超えないように調節してる
2023/08/02(水) 19:09:05.26ID:WTUdZJtya
>>737
一応どちらでもいけたけど、今はそれにしてるね。
gpulayersはうちもVRAMがに入る程度指定してるけど、指定しなくても生成はあまり変わらないオマジナイ感が…
あれこれと気楽に設定変えてやるものでもないので、ほどほどにoffloadさせてる
739今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f7b-CF7t)
垢版 |
2023/08/02(水) 20:21:31.57ID:OhPD8QOm0
Oobaでも最新のをGit pullして動かしたら70B のGGMLは読んだ
upstage-llama-2-70b-instruct-v2なるものを試したけど1文字1分くらいかかって途中でやめたわ。なにかが間違っている気がする
設定はこんなん https://i.imgur.com/zuPVuln.png
Koboldで1token/sどんぐらい出る?
740今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-WXuy)
垢版 |
2023/08/02(水) 20:47:36.45ID:y9PLRzj30
3、4秒かな
741今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 9f7b-CF7t)
垢版 |
2023/08/03(木) 02:49:58.15ID:bm9G7ORV0
0.3 token/s ぐらいってことか
7bのOpencalmだと7token/sぐらいでるし順当かね
13BのAiborosやらも試したが絶妙に日本語は微妙だったので、いまだにワイがまともに使えるのがOpencalmしかないわ
https://i.imgur.com/H5QFrTn.png
2023/08/03(木) 07:45:57.75ID:TpUWxNpm0
どれが一番整合性の取れたモデルなの?🤔
743今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Sp33-WXuy)
垢版 |
2023/08/03(木) 10:02:55.43ID:4WdJwuORp
それを確かめるのがこのスレなのだ
自分はもう70B 65Bしか試す気ないがw
airobors 2.0 70B 来たんで落とすぜ
2023/08/03(木) 11:14:04.74ID:ENbbqlXG0
>>739
うちも、そのmodelでq4_k_mの方読ませたけど、oobaでも0.3t/s程度で動いているみたい。

koboldcppのと速度比較でもさほど無い…のかな?同じもので比べられないけど、
少なくとも、oobaが遅すぎるということは無いと思う
2023/08/03(木) 13:45:41.61ID:KOZhzYl50
ワイ将、poeに負けて3000円課金してしまう
英語でChatGPT4の文章を生成させるともう気が狂うほど描写がええんじゃ。
746今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-KN61)
垢版 |
2023/08/03(木) 17:27:00.64ID:YdopW2FZ0
>>745
お題とともにうp
比べてみたい
2023/08/03(木) 19:25:32.03ID:WAX+YOmXa
NAIにしてもchatGPTにしても結局モデル次第というのがよくわかるよね
2023/08/03(木) 19:42:40.17ID:Q7gBDl3f0
rinna/bilingual-gpt-neox-4bシリーズ、oobaでエラーなく読み込めるようになったのは素晴らしいんだけどこっちの指示に全然従ってくれない なんでや
2023/08/03(木) 19:49:39.35ID:TpUWxNpm0
英語なら?🤔
2023/08/04(金) 01:46:58.81ID:I6kTGvg80
>>748
ソースの一部を書き換えて設定をfalseにすれば正常に読み込む
https://note.com/npaka/n/n5d25ea4227df

新しいrinnaは反応が格段に良くなってると思うわ
あとエロ関係がチャットでも去勢されてないのはデカい
2023/08/04(金) 06:18:34.34ID:Xcq2wXvNd
>>750
はえ~
こんな便利そうなの出てきてたんだ
752今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-KN61)
垢版 |
2023/08/04(金) 10:03:50.42ID:xivUPqbz0
rinnaで小説ってかかせられないの?
書きます! とは答えるけどw
2023/08/04(金) 10:04:31.65ID:OExSpTIza
あの文章力で小説書かれても困るだろ
754今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロ Sp33-WXuy)
垢版 |
2023/08/04(金) 12:15:56.76ID:3fjTEto9p
>>750
おかげで正常に受け答えできたけど情報をまとめる事はできても創作はできんのかな?
2023/08/04(金) 18:34:26.92ID:+UQWC4a10
日本語で無料で規制ないのはなんやかんやで貴重よな
poe+3.5+脱獄系プロンプトでもそれなりにいけるとは思うけど、なんか面倒なところがある

勝手に小説っぽくしちゃったり
2023/08/04(金) 18:58:46.27ID:+UQWC4a10
https://i.imgur.com/njg2K6t.png
poeの3.5と4の違い
どっちも官能小説ジェネレーターの英訳版を最初に突っ込んでる
2023/08/04(金) 19:01:29.03ID:+UQWC4a10
つーか最初にlessとressタイポしてたな
それでも出してくれるからありがたい
2023/08/04(金) 20:08:57.36ID:GlH/ud/d0
>>750 ありがと 3.6Bと同じ修正まだ必要なんだね。読み込みでエラー出なくなったから油断した
モデル判定・分岐以外のモデル間共有のファイルにrinna固有のコード加えるのは美しくなくて嫌だなあ
2023/08/04(金) 20:22:55.67ID:GlH/ud/d0
よく見たらrinna japanese 3.6Bとbilingual 4Bでプロンプト書式違うんかい 謎の<NL>区切りやめたのはいいけどモデル判定がさらにややこしく・・・
2023/08/04(金) 20:51:26.10ID:+UQWC4a10
「japanese-gpt-neox-3.6b」表記のとこ直さないとアカンね model.pyはこんな感じの修正になるな
if any(s in model_name.lower() for s in ['gpt-4chan', 'gpt4chan']) and Path(f"{shared.args.model_dir}/gpt-j-6B/").exists():
tokenizer = AutoTokenizer.from_pretrained(Path(f"{shared.args.model_dir}/gpt-j-6B/"))
elif model_name.startswith("bilingual-gpt-neox-4b"):
path_to_model = Path(f"{shared.args.model_dir}/{model_name}/")
if path_to_model.exists():
tokenizer = AutoTokenizer.from_pretrained(path_to_model,trust_remote_code=shared.args.trust_remote_code, use_fast=False)

text_generation.pyは247行目あたりをこうかな
# Encode the input
add_special_tokens = not shared.model_name.startswith("bilingual-gpt-neox-4b-")
input_ids = encode(question, add_bos_token=state['add_bos_token'], truncation_length=get_max_prompt_length(state), add_special_tokens=add_special_tokens)
2023/08/04(金) 21:07:08.42ID:+UQWC4a10
しかし動くようになったはいいけど相変わらずりんなはバカだなw
2023/08/04(金) 21:12:01.56ID:FeIyZnzz0
りんな入れても受け答えが変で困ってた赤ちゃんにはそういう情報助かるわ
ありがとうな
2023/08/04(金) 21:24:50.60ID:+UQWC4a10
スペース(インデント)が消えちゃっているからそこは適宜修正してな
764今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-KN61)
垢版 |
2023/08/04(金) 22:10:59.40ID:xivUPqbz0
>>756
サンキュー同じお題でやってみた(ストーリーモードはしょぼいんで、指示モード使うんで少し修正した)

https://imgur.com/a/XPlvq66

airoboros-l2-70b-gpt4-2.0.ggmlv3.q5_K_M は、なんかいまいち(エロと倫理が極端)だったんで、
airoboros-l2-70b-gpt4-m2.0.ggmlv3.q5_K_M で試した。
英語民の感想聞きたい
765今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ bb54-KN61)
垢版 |
2023/08/04(金) 22:13:04.86ID:xivUPqbz0
あ、指示の上の方は切れてるけど、同じ内容ね
512トークン分なんで本文も途中で切れてるけど勘弁
2023/08/05(土) 00:46:15.65ID:MbdfY65A0
書き換える前のファイルはちゃんと保存しといてね
ファイルに変更がある状態だとgit pullで本体更新ができません
2023/08/05(土) 00:49:46.96ID:T9XZn6Rj0
>>760 実はoobaのUIからダウンロードするとmodel_nameの先頭にリリース元がくっつくのでmodel_name.startswith("rinna_")で簡単に識別できた罠w
config.yamlとかconfig-user.yamlでなんとかしようとしたけど、当該箇所ではモデル名で絞り込んでないから結局本体いじんないとダメだわ
2023/08/05(土) 01:03:38.82ID:iRwkzhco0
どうもoobaのダウンロード機能は信用できないんだよな
>>750の記事にもある通りgit cloneを使ったほうがいいと思う
2023/08/05(土) 01:15:08.84ID:T9XZn6Rj0
git cloneはTheBlokeニキのみたいに1リポジトリで大量の巨大モデルがあるけどそのうち一つしか使わないタイプと相性悪いんよな download-model.py --text-onlyしてconfig.jsonとか確認してから必要なら残りを持ってきたりしてる
ログ見るとdownloader.pyの信頼性とパフォーマンスはだいぶ頑張って改善しようとしてるみたいだね
770今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 010d-L4j8)
垢版 |
2023/08/05(土) 03:38:27.26ID:HwFLvj0J0
GIT_LFS_SKIP_SMUDGE=1 git clone
してからそのディレクトリに入ってlfs対象のファイルだけ全部消してaria2cでダウンロードしなおすスクリプトみたいなの書けばいいのかな
771今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 010d-L4j8)
垢版 |
2023/08/05(土) 04:12:58.90ID:HwFLvj0J0
>>769
ああ
ggmlだとギガファイル大量にあるからその中から特定のだけ選びたいってことかそれじゃ>>770じゃ不足だな
その上で引数かインタラクティブ応答で欲しいファイル選ばせるみたいなアプローチが必要か
2023/08/05(土) 07:53:48.01ID:eX2Kyi8q0
そうしたら、windows10以降ならcurl入っていると思うので、curlを使うとかな

modelの"Files and versions"から、ダウンロードしたいファイルのところにある"↓"のリンク先をコピーして、
コマンドラインから、cd でモデルをダウンロードしたいディレクトリに移動して、

curl -LOR -C- コピーしたurl

で、レジューム付きでサーバーのタイムスタンプでダウンロードできるはず
2023/08/05(土) 09:12:08.79ID:cULLZgVW0
>>764
うーん率直に言うと表現力に乏しい
ダンジョンの雰囲気、触手が襲ってきた時の様子などかなるあっさりしてるね

ニキのプロンプトをそのまま使って自分が普段使ってる33bモデルに食わしてみた
こっちの方が表現力が高いと感じるがどうだろう?
https://i.imgur.com/D14pMpH.png
2023/08/05(土) 12:01:19.24ID:cULLZgVW0
ひとしきり触手と遊んだので次のパートへ進もうとしたら
エマちんが「待ってパート2ってどういうことよ一話完結じゃなかったの」とかメタなこと言いだして笑ってしまった
https://i.imgur.com/Fna5gIL.png
2023/08/05(土) 12:32:50.58ID:PipmzjB3a
ワロタ
表現力も悪くないな
2023/08/05(土) 13:48:06.72ID:iRwkzhco0
なんでいきなりギャグ混じりのエロマンガみたいになってんねん
2023/08/05(土) 13:53:33.23ID:eX2Kyi8q0
天の声で、よーし次行ってみよう、って言った感じになったのかもw

*go next part*
とかで、傍観者視点の行動として、シーン移動になるのかも
2023/08/05(土) 14:21:52.02ID:iRwkzhco0
つーかこれ官能小説ジェネレーター入れてなかったんちゃうの
2023/08/05(土) 14:37:06.86ID:cULLZgVW0
ジェネレーター入れてなかったわ
初手から>>756の青地のプロンプト入れてた
そりゃパート仕立てなんて聞いてないよ!って言われるなw
ひとまず指示を追加したら先に進んだよ!
https://i.imgur.com/cAt3PLc.png
最深部で見つけた箱には媚薬の罠が!どうするエマちんソフィちん!
2023/08/05(土) 16:05:58.44ID:iRwkzhco0
あと3年くらいしたときにいい感じのCPU買えば
70Bとかそれより上のが今の33Bくらいの速度で
動いてくれるんやろな
2023/08/05(土) 16:25:42.17ID:ioEKHtPh0
今は時期が悪い
2023/08/05(土) 17:32:02.65ID:BI7VnGjgd
自分の現在の環境だと33Bが一番実用的だなぁ
13Bと33Bの差は結構感じるが33Bと65B/70Bの差はそれほど感じられないし(故人の乾燥)何より65B/70Bは非力なうちの環境だと気が狂うくらい遅い
もちろん65B/70Bを苦も無く使えるパワフルなニキは使うと良いと思うわ
783今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (テテンテンテン MM17-Gz//)
垢版 |
2023/08/05(土) 18:25:44.56ID:xr8B/WjOM
>>782
同意
実用面で言えば33Bが丁度よいバランス
70Bは時間かかりすぎて眠くなるわ
散々待たされた挙げ句に駄文だったら精神に悪い
2023/08/05(土) 21:09:31.02ID:iRwkzhco0
まあそれより13Bの日本語モデルはよう
785今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 0b54-1PqA)
垢版 |
2023/08/05(土) 21:16:04.92ID:0OIkgruI0
>>773
おー、これいいね。モデルは何使ってるの?
2023/08/05(土) 21:30:10.46ID:vpHzKWFzM
deeplの制限に引っ掛かって辛い、というか英文だと興奮率80%減で辛い
日本語来るまで非エロ出してたほうが良さげ?
787今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 010d-L4j8)
垢版 |
2023/08/05(土) 21:38:11.83ID:HwFLvj0J0
非エロならChatGPTプラスどころか無料のBingで十分なんだよね
2023/08/05(土) 22:16:52.87ID:cULLZgVW0
>>785
airochronos-33b.ggmlv3 だよ
https://huggingface.co/TheBloke/airochronos-33B-GGML
総合力の高いairoborosに、長文出力に定評のあるchronosをマージしたモデル
同様のマージモデルにはchronoborosというのもあるんだけどこっちの方がいいらしい
最近はもっぱらこいつを使ってる
2023/08/05(土) 22:19:56.37ID:iRwkzhco0
airoborosなら持ってるわ って思ったらそのマージ版か
2023/08/06(日) 03:22:00.52ID:/l3XRY7Od
>>788
システムメモリ32G、グラボ3060環境のoobaboogaで試したら、ちょい重いかなぐらいで動いてくれた
これぐらいのが日本語で出力出来るようになればなぁ…
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況