なんJLLM部
レス数が1000を超えています。これ以上書き込みはできません。
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
はい
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured なんか暑くなってきてローカルで動かすのが億劫になってきたんやが
調教の方がたのしい スレ伸びてるからついにlora成功ニキが来たのかと思ったらちゃうかってん🥺
今日ほぼ触れとらんけど>>930をwebuiでmodelとlora読み込みの両方試したけどあかんかったで
まだまだローカル学習の道は険しそうやね おそらくちょっとLLMデキる人なら突破してくれるレベルまでは来ているんや
ワイはダメなほう・・・ダメなほうなんや・・・! せやなぁ
あとはLLMに自信ニキがこのスレでワイらが積み重ねた失敗の数々を上手く使って、いつか〝次世代えちえちりんな〟へと継いでくれることを切に願うで……😭 WSLのサブシステム依存じゃないLLMはまだですか?
WSLが要件に入ってるとhyper-Vを有効にしたり既存の仮想環境を邪魔してしまう
cuda、Python、pytochだけで勘弁して下さいよ ワイは結局WSL習得できんかったで🥺
oobaのwebuiもwindowsとubuntu直でやったし今後WSL前提なんてなったら実機ubuntuだけで乗り切る所存や😤 なんとなくやけどppoはえちえち用途でも質がちょっと上がっている気がするな >>959
寝る前に気付いたのでちょっと触ってみた
確かにppoは語彙力上がってそうやな
自作のチーズケーキを無理やり食わせようとしてきて草
https://imgur.com/eBzycUe.jpg dialogでのsftv2, ppo変更点
197行目:tokenizer.encodeの引数
padding=False
201行目:model.generateの引数
repetition_penalty=1.1
あとの確認は明日にするで llama.cpp触っとる人おらん?stakaさんの機械翻訳モデルと英語言語モデル(vicuna-cocktail 13B)組み合わせて使ってみたら結構いい結果になった気がする
文面は機械翻訳丸出しやけど全体としては意味が通ってるし理解できなくはなかった
opencalmとかりんな使ってみたけど英語モデルメインで使ってきた身からしたら日本語のモデルは正直イマイチや 英語勢がllamaで盛り上がってる中でgpt-neoxつう一世代前のオーパーツ持ち出してなおかつパラメータ数も日本語モデルでは多い方とは言え7Bでも実用的なローカル向けモデルとしては最低ライン 商標とかライセンス気にしたら日本勢がllamaに手を出せんのは仕方ないんやろうけど
正直日本語LLM作るくらいならオフライン機械翻訳の精度上げたほうが良いんじゃないのかと思ってきた このスレ的には口調も大事やねん
それは機械翻訳では消えてしまう ppoって1つの問い追加に対して1つ返事するだけじゃなくて
その次のこっちの問いも勝手に追加して進めちゃうことが多いのよな
これなんかの設定で変えられるやろか
まあ最悪スクリプト書き換えて2つ目以降は手動でカットすりゃええんやろけど >>964
llama.cppはLLaMAリーク直後のdallaiで触ったきりやけどvicunaのuncensorはなかなか賢いと思ったで
ここらでまたllama.cppに立ち返ってみるのもええかもな >>965
わかる
えちえちさには口調も重要なファクターやけどまだそこを学習させるのに至ってないのが歯がゆい限りや >>966
おそらくmodel.generateの引数
repetition_penalty=1.1がその調整をしとると思うで 今更やがtransformerでローカルモデルが読み込まんのはおま環やったみたいや
パス通した環境で読みこせたら失敗するけど、デスクトップでフルパス指定したら普通に読み込んでたまげたわ
readme書き換えてくるンゴ repetition_penalty=1.1はくり返しペナルティなんやけど
1.1にしてみてもたまに起きるのよな
ChatGPTに頼んで、返事の後にこっちの再返事を自動生成しているときは
そこを削除するようにプログラム作ってもらったわ
。!? 話者1の名前 :
と来ていたら話者1の名前以降をカットって感じで >>972
ワイの環境やとpadding=Falseとrepetition_penalty=1.1で返答にユーザーの返事が混ざるのは再現できんかったけど、なにが違うのか気になるで
やりますねぇ!
そのアイディアもろてもええですか? >>974
サンガツ!
こちらの質問で相手の名前と自分の一人称が含まれてるとそれが混同して勝手に続きを書いちゃうとかやろか…… ppoで「続けて」からの記憶の維持も大丈夫そうやった
肝心の内容でシシャモが抜けてるのと最後でまた作り方を書いちゃうのはまだ残念ポイントやね
https://imgur.com/YaeW7IB.jpg エロ会話力調査してるけどいい意味でアホなgpt3.5に似てる。やたらゆっくり優しくマッサージしたがるしハピエン厨の傾向を感じる。 狂った常識を前提に質問するのも楽しいで
このクラスのAIは言われたことをなんでも肯定してそれを前提にしゃべるから
まあ2~3回質問していると破綻することが多いからそしたらリセットや 後で気づいたんやけど半角の!?とスペースで区切られることもあるから
そこも対応せんとあかんな >>977
ローカルでもいよいよGPT3.5に迫ってると思うとワクワクしてくるゾ 最終的にはデータベースモデルとかエージェントモデルっていうんかな、
質問の内容を短く解釈してデータベースから言うべき回答引っ張ってきて
その内容をLLMが再成形してくれる とかになるとはかどるんやけどな >>979
AI返答に追加されるユーザーの入力は末尾に追加される感じけ?
それやと"{user_name}:"に完全一致させてそこから文末まで削除でもええかもしれぬい セミコロンは他に使われることがないからそれでええかもな あと、AI側の返答としてもあんま長い文を返されるとだいたいおかしなことになるから
同様に!?。で区切って最大でも2文までで切るようにしてみたわ ai_responseのreturnまえに2行追記でよさそうやけど再現できんからちゃんと動くかチェックするのは時間かかりそうや……
if f"{user_name}: " in response:
response = response.split(f"{user_name}: ")[0] >>986
ええな
そっちのアイディアももろたで! ~~してください。とか頼み事すると発生しやすい気がしとる そういや新スレには何を貼ればええんや
rinnaのgpt2とsft・sftv2・ppo・OpenCALM系
>>2以降にdialogニキのギッハブ貼りたければ貼って貰うくらいか
その他有志で役立ちそうな奴を みたいな >>989
paddingとrepetitionコメントアウトしてうんちしてくださいいうてみたけどあかんかったで😭
https://i.imgur.com/pih0225.jpg
とりあえずそのまま直で (f"こんにちは。{user_name}: こんにちは!")をぶち込んでみたら大丈夫そうやった
あとは>>986ニキの出力文章制限とppo sftv2用のpaddingとrepetitionオプションも追加してgithub送りにするで >>990
次スレのことすっかり忘れてスレ消費すぎて申し訳ない……
スレ立てはおまかせしてええやろか?
自分で自分のgithub貼るのもなんかハズいけどこの際やし貼らせてもらうで
あとはwebuiとalpaca_loraと>>794ニキあたりやろか なんJLLM部 ★2
立てたんでとりあえず>>20までいかせてくれ 話題をローカルに限定したいんやったらスレタイもそうした方がええで まあ~>>1にローカルって書いたからどうにかなるやろ LocalLanguageModelや(デカいとは言ってない) このスレッドは1000を超えました。
新しいスレッドを立ててください。
life time: 77日 10時間 46分 10秒 5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/
▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php レス数が1000を超えています。これ以上書き込みはできません。