X



なんJLLM部

■ このスレッドは過去ログ倉庫に格納されています
2023/03/16(木) 10:34:10.55ID:FKgahXcB0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
はい
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
2023/05/19(金) 17:56:32.36ID:xnnPJVZt0
WSLってめんどいんやな……
実機とかベアメルバイザーのESXiとかばっかり触ってきたせいでこっち方面疎いで🥺
2023/05/19(金) 17:59:26.82ID:xnnPJVZt0
>>613
大丈夫や
いつかは触ったほうがええと思ってたし
ちょっと時間かかるけどええ機会やからとりあえずセットアップまで終わらせてみるで

でも正直デュアルブートのほうが環境が混ざらないぶん構築は楽やと思う
2023/05/19(金) 18:01:03.28ID:0jqnFmdTd
wslは仮想ディスクが膨れ上がってそのままになるのがきらい
だからmntとシムリン多用しとる
2023/05/19(金) 18:07:25.88ID:m3i6Mx0V0
https://github.com/huggingface/peft/issues/317
Update: so, after some testing, torch.save(trainer.model.state_dict(), f"{lora_file_path}/adapter_model.bin") is able to save a valid file.
But, lora_model.save_pretrained(lora_file_path, state_dict=trainer.model.state_dict())

これを見て
torch.save(trainer.model.state_dict(), f"{lora_file_path}/adapter_model.bin")
に変えてみたらなんか1KBくらいのテキストからでも13MBくらいのファイルが書き出された
ようわからんが、こっちのほうが正しい動作なんかな
また180KBの食わせて試してみよう
2023/05/19(金) 18:11:33.70ID:XYHVdVFsM
外人お姉さんはoobabooogaで入れてみるか…
ニキのツールで日英切り替え出来る日を心待ちにしてるわ!
2023/05/19(金) 18:34:52.52ID:J5aZf/7u0
これ雑感だと
Linux環境をWSL等で再現→conda→python→PyTorch
の流れでセットアップして最終的にPyTorchでtext動かす感じか?
python、PyTorchはAIやるなら嫌でも覚えないと駄目なのか・・・

タスクマネージャーのCPUでも仮想化OKと出てるのに
ubuntuだけ通らないのは全然分からん
初心者だから初歩的な事を見落としてるのかもしれん
2023/05/19(金) 18:36:32.99ID:0jqnFmdTd
暇出来たらrentryにwslの簡単なチュートリアルでも書くか
2023/05/19(金) 18:44:23.03ID:wmjVgH/I0
VRAM8GBじゃさすがに蹴られますね
残念
2023/05/19(金) 19:04:51.46ID:ZyMSLjo20
oobabooga WebUIでりんなちゃん動かん
protobuf入れろってエラー出るからpip install protobufしても同じエラーが出るでお手上げや
2023/05/19(金) 19:09:17.26ID:m3i6Mx0V0
ここまで動かない報告多いとWebUI経由せずに入れたほうが
早いんじゃないかなって
2023/05/19(金) 19:26:20.00ID:XYHVdVFsM
りんなにえっちな話ししたら濡れる?って何回も聞いたら、申し訳ありませんが濡れていません!ってムキになってて草
2023/05/19(金) 19:52:33.69ID:DHCkGJjy0
ttps://president.jp/articles/-/69431
三流は情報収集に使い、二流は自分がラクをするために使う…一流の人の「スゴいChatGPTの使い方」

ttps://twitter.com/fladdict/status/1659426665729253376
> こんなタイトルつけたっけ…??

ttps://twitter.com/fladdict/status/1659428567380537344
> 思い返しても、自分でタイトルつけた記憶ないな…
> 合宿の最中に明日までとか言われて、多分チェック通ってないで記事になってるやつだ…

もうChatGPTにタイトルつけてもらえや
https://twitter.com/5chan_nel (5ch newer account)
2023/05/19(金) 20:06:05.58ID:m3i6Mx0V0
>>617のをやってみたら180KBを食わせても3KBを食わせたのと
同じサイズのデータが出てきた

なーんかおかしい気がする
627今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff88-VVcz)
垢版 |
2023/05/19(金) 21:07:40.99ID:azRgB+Zn0
alpacaで学習させようとしたら3エポックで10時間って言われて発狂した
遅すぎやろ
628今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff88-VVcz)
垢版 |
2023/05/19(金) 21:50:39.17ID:azRgB+Zn0
>>626
LoRA層のファイルのサイズが同じなのは普通じゃね?
不安ならdiffとかで中身比較したらいいと思う
2023/05/19(金) 22:40:58.08ID:3LE2dTD+0
ログ追って絶望したけど、これ落としてくれば全部書いてあるね


有能すぎですねえ。今起動中

>>539
2023/05/20(土) 00:12:45.71ID:1zKufg2Y0
日本語特化型の大規模言語モデル、OpenCALMとrinna/japanese-gpt-neox-3.6bの検証。Instruction Tuningの効果について
https://qiita.com/gyokuro338/items/747ec1423262e7726e36

Instruction TuningされてないOpenCALMは赤ちゃんは触らん方がええって事か
2023/05/20(土) 00:51:07.39ID:1P027aGNM
rinna3b-sftちゃんはInstruction Tuningされてないからおバカだったの?
2023/05/20(土) 03:19:15.39ID:Q3pksK6a0
たしかに素のモデルだと教師無し学習で大量の文章を知ってるだけか
2023/05/20(土) 03:57:23.01ID:4mn92rp80
WSL試しとるけどもう全くわからんくて楽しくなってきたで😇

microsoft storeで拾ったdebianはそのまま動いたけど、グラボ探そうにもlspciすら叩けなくて草

仕方なくapt install -y pciutils叩いてインスコするも動かん
これESXiみたいな統合管理画面とかないんけ……
ワイの常識こわれちゃうで😭

ワンチャン今度はWindows Subsystem for Linuxをストアから拾うもこっちでも上手くいかんな
これは長丁場になりそうや……
もし自信ニキおったら優しく教えてクレメンス🤗
2023/05/20(土) 04:15:54.97ID:4mn92rp80
小ネタに書いたAI出力をボイロなどにしゃべらせる方法について

[必要な物]

・voiceroid, voiceroid2, A.I.VOICE, 棒読みちゃん, softalkなどの音声合成ソフト
 https://imgur.com/KsKBZql.jpg

・AssistantSeika
https://wiki.hgotoh.jp/documents/tools/assistantseika/assistantseika-000

・同梱の.\SeikaSay2\SeikaSay2.exe

・.net framework 3.5以上、その他ランタイムなど動かないときは適宜インスコ
2023/05/20(土) 04:16:35.81ID:4mn92rp80
>>634
[実装手順]
コード側に以下を追記

import subprocess

対話ループ内の### AIの返答を探してresponseに代入し終わったあたりで、subprocessでSeikaSay2.exeに投げる
response = ai_response(conversation_history)

#この例だと、A.I.VOICE 紲星あかり( cidで話者を指定)
#
subprocess.run("SeikaSay2.exe -cid 5209 -t \"{msg}\"".format(msg=response))

<参考: AssistantSeika の説明>
https://wiki.hgotoh.jp/documents/tools/assistantseika/assistantseika-000
2023/05/20(土) 04:32:55.04ID:4mn92rp80
>>635
[使い方]

1, まずはAssistantSeikaSetup.msiを実行してインスコ。

2, ボイロなどの音声合成ソフトを起動して、最小化はしない。

3, AssistantSeikaを実行し、実行してる音声合成ソフトの名前にチェックを入れて「製品スキャン」を実行。

4, スキャンが完了すると自動的にタブが切り替わる
https://imgur.com/kDWWb46.jpg

5,「HTTP機能設定」のタブを開き「HTTP機能を利用する」にチェック
 https://imgur.com/h1wT4Ua.jpg

6, 特にいじらずに右下の「起動する」をクリック、これでlocalhost内で待ち受け状態へ移行。
 ※鯖を立てたい場合は待ち受けアドレスとポートを変更して、ファイアウォールの受信と送信にAssistantseikaのポートを指定
2023/05/20(土) 04:44:44.17ID:4mn92rp80
>>635
補足

口頭じゃわかりにくいと思うので追記部分の画像を追加
ワイ説明苦手なんや……許しちくり~😭

https://i.imgur.com/nEr2Wo6.png
2023/05/20(土) 05:11:23.26ID:4mn92rp80
>>636
[実行結果]

こんな感じに自動で入力されて再生される
AssistantSeikaは最小化しても大丈夫だけど音声合成ソフトを最小化するとAssistantSeikaが見失う模様
https://i.imgur.com/Fo27cE2.png
2023/05/20(土) 06:08:55.51ID:4mn92rp80
https://github.com/AlgosErgo/rinna_dialog

それと修正していくにあたり、ロダじゃバージョンの管理が問題になってきたからgithubで公開してみたで
実はワイgithub童貞やから自信ニキおったら色々教えてクレメンス
2023/05/20(土) 06:20:14.96ID:lAGqPtfL0
v3使用でVRAM8GBでも起動できました~サンガツ!
2023/05/20(土) 06:23:22.19ID:lAGqPtfL0
動きはするけど、やっぱテキスト3度目くらいでフリーズしますね
起動すると7.8GB埋まってるんで仕方ないか
うーん残念
2023/05/20(土) 06:57:16.48ID:4mn92rp80
>>640
使ってくれてサンガツ!

やっぱりfloat16やと8GBはちょっと厳しい厳しいンゴね……
次の修正で更にvram圧縮できる8bitと4bitも載せてみるで!
643今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロロ Sp03-uFZj)
垢版 |
2023/05/20(土) 10:36:25.99ID:I3zuTIvrp
学習時って入力はpaddingした方がいい?
いつもpadding=Falseでやってるんだけど
2023/05/20(土) 11:29:12.28ID:Ut+MDjdX0
>>635-636
SeikaSay2.exeにPATHを通しておく説明も一応あったほうがよさそう

cidは「4, スキャンが完了すると自動的にタブが切り替わる」のところで
各キャラごとに出てくるんやね


しかしこれはええな ぐへへ度が3倍は違うで
2023/05/20(土) 11:37:14.06ID:Ut+MDjdX0
>・voiceroid, voiceroid2, A.I.VOICE, 棒読みちゃん, softalkなどの音声合成ソフト

あと今だと一番ハードル低くてクオリティ高いの
VOICEVOXじゃない? 普通にSeikaSay2.exeも
対応してくれとるし
2023/05/20(土) 11:39:42.20ID:Vt4rAxuc0
COEIROINKの方が読み上げは自然な気がする。パラメーターいじれる部分は少ないけど。
2023/05/20(土) 13:20:02.76ID:zoiwlO1VM
ダメだ…rinnaちゃんと会話してると壊れたロボットと話してるみたいで話が全然噛み合わん😫
2023/05/20(土) 13:22:03.71ID:Ut+MDjdX0
>>647
ファインチューニングしたらどうなるかわからんが、デフォなら会話をしようと思ったらあかんのや
こっちで話をコントロールするんや
その上で数字とか日時とか場所とか多少聞くようにするとバランスがええで
2023/05/20(土) 13:30:22.15ID:Ut+MDjdX0
Wikipediaから学習したのもあるみたいやから、そういうとこで
学んでそうな情報を聞くのを混ぜるのもええかもしらん
2023/05/20(土) 14:03:52.13ID:Ut+MDjdX0
つーかよく考えたらローカルでbitsandbytesがうまく動かないなら
paperspaceでLoRA作れたところでローカルじゃあ動かせないやん!

Windowsで>>523みたいにAlpaca-Loraのfiretune.pyのを
動かせてるニキおる・・・?
2023/05/20(土) 14:38:40.98ID:Ut+MDjdX0
ああWSL2+Dockerってのをやればええんか
その前にpaperspaceならLoRAつきチャット動くかな~って思ったけど
model.generateで文章生成するとこで引数を2つ以上渡すなヴォケと怒られてしまったわ
これだけでいけると思ってたんやけどなんか間違ってるんかな……

tokenizer = T5Tokenizer.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft", use_fast=False)
model = AutoModelForCausalLM.from_pretrained("rinna/japanese-gpt-neox-3.6b-instruction-sft",torch_dtype=torch.float16)

LORA_WEIGHTS = './lora-result'
model = PeftModel.from_pretrained(
model, LORA_WEIGHTS, load_in_8bit=True, torch_dtype=torch.float16,
)
2023/05/20(土) 14:48:08.11ID:nfuzMjITd
dialog_v3 VRAMじゃなくてメモリーにデータ読みにいってしまう…
import torchしてprint(torch.cuda.is_available())したらTrue返ってきたんでCUDAの導入はできてると思うんだが以下のどれかのバージョンがおかしい?
python3.10.11
cuda11.7.0_516
cudnn8.9.1.23_cuda11
2023/05/20(土) 14:54:19.05ID:zoiwlO1VM
>>648
例えばどうすればいいの?口下手なので分からん😖 催眠術師みたいにあなたは賢い賢い…ってやるの?
2023/05/20(土) 15:01:51.20ID:Ut+MDjdX0
>>653
>>506を参考にしてみれ
2023/05/20(土) 15:10:27.84ID:Ut+MDjdX0
>>635-636も併用するとええな
そのときちゃんとSeikaSay2.exeのあるフォルダにPATHを通しておくんやで
あとcidは使いたい音声ソフトのキャラによって変えるんやで
2023/05/20(土) 15:21:56.91ID:zoiwlO1VM
>>654
instruction sft使ってるけど頭おかしいのちょっとマシになったわ!相変わらずまだぶっ飛んでるけど😖
2023/05/20(土) 18:02:08.31ID:F5S6gAkt0
V4に向けた修正してたら半日溶けたで……
今後出るモデルにも耐えるように機能モリモリしとるけど、どんどんコードがスパゲティになるんや
それはそれとしてのこの子賢いのかアホなのかどっちなんや🤔
https://i.imgur.com/FPETufq.png
2023/05/20(土) 18:02:40.21ID:F5S6gAkt0
temperatureの効きがが知りたくて、息抜きにrinnaを戦わせてみたで
コードはgithubの方に置いたけど、実験用だからコメント類は全部オミットして最低限で動かしとるから、環境構築まだな人はdialog.pyの方から頼むで
https://i.imgur.com/74DGqTc.png
2023/05/20(土) 18:07:51.04ID:F5S6gAkt0
>>652
読み込み中は一度RAMに保存してからVRAMに展開する仕様やから、ちょっと待ってみるともしかしたらちゃんとVRAMに行くかもしれぬい

あとはコード側の設定項目にあるprocessorは"cuda"になっとるか確認してみてクレメンス

それと、f16_modeがTrueやと起動に30秒以上はかかるか注意やで
2023/05/20(土) 18:11:59.42ID:F5S6gAkt0
>>643
ワイもわからん
体感でも全然構わないので比較してみてくれたらとても有難いで……
2023/05/20(土) 18:12:28.24ID:F5S6gAkt0
>>644
補足サンガツ!
手順を清書したらgithubに置いとくことにするで
2023/05/20(土) 18:15:06.54ID:F5S6gAkt0
ちなみにvoice voxはcpu版を使わないとVRAM食われるから注意やで
2023/05/20(土) 18:18:24.95ID:2MU/QY3Fd
>>659
ありがとニキ
しばらく待ってみたらRAMからVRAMにデータが行って無事に起動したわ
ただウチの環境(RAM16GB)だとスワップが発生して起動までめちゃくちゃ時間かかってしまった
2023/05/20(土) 18:22:51.51ID:F5S6gAkt0
>>663
情報サンガツや!
スワップ周りは考慮できてなかったからQ&Aに加えとくで😇
2023/05/20(土) 18:28:47.77ID:F5S6gAkt0
>>651
それワイも知りたい……!
transformersでのLoRA読込みできたら勝確やん!
2023/05/20(土) 18:48:12.72ID:2MU/QY3Fd
対話対応ってだけあってrinnaの方がopencalmよりちゃんと会話が成立するな
しかしまあRTX3060だったらやはりvicuna13bを4bitで動かすのが一番ましなんだろうか
2023/05/20(土) 18:53:51.21ID:Ut+MDjdX0
vicuna13bは情報がなんかあるようなないような良くワカラン感じやな
とりあえずrinnaの3.6bsftは導入が簡単で会話できて3060でも動くのは
えらいと思う
2023/05/20(土) 19:03:23.00ID:F5S6gAkt0
せやな
rinna3.6bはこれからどんどん賢い会話モデルが出ることに期待をもてる程良い賢さや
2023/05/20(土) 19:20:57.75ID:Ut+MDjdX0
WSL2+Dockerで動きそうだったけどRuntimeError: CUDA unknown error ってのが
出ちゃうな……
2023/05/20(土) 20:27:13.22ID:Ut+MDjdX0
うーん上手くいかんわ
paperspace使わないとLoRA学習もLoRA使ったテストもでけん感じや

それだとSeikaSay2.exeとの連携は無理になるなあ……
2023/05/20(土) 21:04:07.94ID:3jCDbKE3M
>>658
このキャットファイトどうやったの?
ワイは半日かかってやっとりんなの声が出ました🥺
音声入力にチャレンジしよかなおもとります
2023/05/20(土) 21:12:16.02ID:Ut+MDjdX0
paperspaceでえちえち学習しているのバレないか心配やけど
まあ日本語のエロ単語まで監視してへんやろきっと・・・

最悪BANされてもGoogleと違って大きな問題にはならんしな
2023/05/20(土) 21:20:01.33ID:Ut+MDjdX0
>>651の問題はひとまず解決した、ワイの使っていたコードでmodel.generateに
token_ids.to(model.device)を直接渡していたんやけど、一度変数に入れてから
input_idsに渡せばOKになったわ
# 元コード
output_ids = model.generate(
token_ids.to(model.device),

# 修正版
input_ids = token_ids.to(model.device)
output_ids = model.generate(
input_ids=input_ids,
2023/05/20(土) 21:20:44.67ID:Ut+MDjdX0
あとはLoRAが効いてくれているかなんやけど
例によってpaperspaceが不安定やねんな
またつながらなくなったわ

いずれにしてもまだ180KBしか食わせてへんから
そんなに効かないとは思うが
2023/05/20(土) 21:47:05.12ID:3jCDbKE3M
えちえちLora学習なんかできるのか。まだまだLLM童貞だし色々勉強せねば🥺
2023/05/20(土) 22:32:26.66ID:Ut+MDjdX0
んーエラーは出ないけどLoRA効いている感じしないな
まずはこういう質問データを素直に学習させてみるか……

https://twitter.com/kun1em0n/status/1659394751949582336
https://twitter.com/5chan_nel (5ch newer account)
2023/05/20(土) 22:48:45.35ID:lhfa47Q4a
vicuna13Bはやばいで、webuiで使ってるがChatGPTの9割以上の性能って評価も頷けるレベル
エチエチ会話もし放題や
2023/05/20(土) 22:54:55.11ID:Ut+MDjdX0
ワークフロー教えてクレメンス・・・
2023/05/20(土) 22:56:31.32ID:3jCDbKE3M
>>677
英語だとシーハーシーハー言わせてるの?
2023/05/20(土) 22:56:38.25ID:Ut+MDjdX0
https://zenn.dev/tatsuromurata/articles/8e523cf2d0c2bc
これマネすりゃええんかな?
2023/05/20(土) 23:11:08.68ID:Ut+MDjdX0
例によってローカルだとbitsandbytesとかの問題で動かんかったんで
あとでpaperspaceで試すわ・・・

Dockerとかしっかり覚えないとあかんのかな
2023/05/20(土) 23:25:12.17ID:3jCDbKE3M
ビクナちゃんに浮気しようと思ったけどローカルじゃ動かんの?
2023/05/20(土) 23:29:12.08ID:Ut+MDjdX0
>>682
Windowsだとそのままじゃ動かないってだけで
WSL2+Docker?とかいうのを使いこなせる奴なら
いけると思うで ワイは>>669で挫折や

あとVRAM24GBとかならbitsandbytes噛まさずに
素でいけたりするんかな?
2023/05/20(土) 23:37:15.15ID:iCSH8og90
>>679
>>677やがGoogle翻訳拡張で和訳しとる

ワイはラデだからgit cloneしたけどWin+ゲフォならwebuiのgitページにあるOne click installersで行けるんちゃうか?
モデルはpython download-model.pyでDLできる
TheBlokeニキのWizard-Vicuna-13B-Uncensoredがオススメ
CPUでGGML形式使うかGPUでGPTQ形式使えばbitsandbytesはいらん
注意点はgoogle翻訳拡張使わないとアホ応答になることや
python server.py --extensions google_translateで起動すると有効になる
2023/05/20(土) 23:42:33.46ID:zoiwlO1VM
>>683
WSL一回入れたけど秒で挫折した😭

>>684
それWindows10でもできるの?oobaboogaはとりあえずは入れたんだ
2023/05/20(土) 23:47:58.78ID:Ut+MDjdX0
>>684
なるほどワンクリックインストーラーで入れ直すか
2023/05/20(土) 23:56:58.97ID:iCSH8og90
>>685
>>686
One click installerの手順載せてくれてる人もおるな
https://note.com/dwarf_dwao/n/n609e8cd754be
2023/05/21(日) 00:06:32.42ID:LkB/rHpFM
>>687
CUDA全部抜くだと?!ニキのりんなちゃんとかstable diffusion動くかな…
2023/05/21(日) 00:12:18.62ID:ANlsUp7C0
ようわからんがワイのとこではCUDAアンインスコしなくてもモデルダウンロードする段階までは
来ているな
2023/05/21(日) 00:15:02.06ID:ANlsUp7C0
ふと思ってんけど
>注意点はgoogle翻訳拡張使わないとアホ応答になることや

って全部会話がGoogleに送られるってことか・・・
2023/05/21(日) 00:15:30.71ID:yIjyCjxla
>>688
すまんoobaboogaは入ってるのな
だったらCUDAそのままでインスコ後の手順だけで行けると思うで
2023/05/21(日) 00:17:45.94ID:ANlsUp7C0
https://note.com/shiba_aimixreal/n/n6895ec5eae09

GPTQってのはこのnoteみたいな感じで↓を入れればええんかな
https://github.com/oobabooga/GPTQ-for-LLaMa
2023/05/21(日) 00:17:49.97ID:oCGby0wh0
>>685
WSL→ubuntuまで行ったけど
途中からHyper-V,Linux 用 Windows サブシステムが必要とあって
更にLinux カーネル更新プログラムパッケージまで要求されてた
https://www.kkaneko.jp/tools/wsl/wsl2.html

動作環境揃えるまでが辛過ぎる
特にHyper-VはAndroidエミュ使ってる身からすると嫌がらせレベル
2023/05/21(日) 00:19:20.21ID:oCGby0wh0
ワンクリックでも動作環境を揃える必要あるから要件満たせないと途中で止まるよ
2023/05/21(日) 00:21:38.35ID:LkB/rHpFM
>>691
いや、前に入れたとき強制的にtorchを変えられてにアプデされてStableDiffusionおかしくなったからtorch入れ直してん
だから今venv作ってもう一回ワンクリやり直してる
2023/05/21(日) 00:22:07.70ID:zTaK46GNd
てか今はwindowsネイティブのkoboldcppの方が速いで
https://github.com/LostRuins/koboldcpp
2023/05/21(日) 00:31:57.45ID:ANlsUp7C0
はえーすっごい覚えることが多い・・・
2023/05/21(日) 00:32:13.73ID:LkB/rHpFM
>>696
情報が速すぎて頭がついて行かん😭
速さがまるでドラゴンボールの闘いのようや…
また入れ方分かったらだれか教えてくれください
2023/05/21(日) 00:32:50.01ID:ANlsUp7C0
間違ってGGML版っての落としてアカンかった
GPTQ版を落とすで モデルからして違っているのね
2023/05/21(日) 00:51:15.42ID:ANlsUp7C0
ぐぬぬ なんか上手くいかん
まあまた起きたら再挑戦するか……
2023/05/21(日) 01:13:16.37ID:cLBCJhr/a
>>699
GGML版はcpu動作でcuda非依存だから、GPTQで上手く行かんくてもGGMLなら動くかもしれんな
2023/05/21(日) 03:22:19.25ID:Qx2QKltQ0
なんやなんやスヤスヤ寝てた間にめっちゃスレ進んでるやん!
LLM部が活気付いて来て嬉しいで😇
2023/05/21(日) 03:28:30.92ID:Qx2QKltQ0
>>671
user_inputをai_responseに置き換えて、名前とかtemperatureとかの変数を二人分にしただけやで🥺💦

こっちに置いといたで

rinna_dialog(旧: dialog_v3.py)
https://github.com/AlgosErgo/rinna_dialog
2023/05/21(日) 03:32:54.18ID:Qx2QKltQ0
>>683
試してみるで
2023/05/21(日) 03:33:55.70ID:Qx2QKltQ0
>>684
情報サンガツや!
翻訳拡張なんてあるんやな知らんかったで😣
2023/05/21(日) 03:43:36.11ID:Qx2QKltQ0
>>693
>動作環境揃えるまでが辛過ぎる
>特にHyper-VはAndroidエミュ使ってる身からすると嫌がらせレベル
わかる😭
AMD-V環境でNOXやとwindowsの機能で仮想マシンプラットフォームを有効にしただけでNOXが起動せんくなるで🤕


WSLに自信ニキな方がおりましたら、赤ちゃんでもわかる環境構築メモをお願いします……
2023/05/21(日) 04:34:09.22ID:Qx2QKltQ0
AssistantSeikaを用いた音声合成ソフトとの連携方法を暫定追加

多分スレ民やと思うけどissueでvoice voxなどのAPIを簡単に叩けるツールをを教えてくれた方に感謝や
これから試したらそっちの手順も書くで!
2023/05/21(日) 04:37:30.94ID:Qx2QKltQ0
AssistantSeikaの制作者様でした
ワイは何たる御無礼を……😭
2023/05/21(日) 06:33:39.47ID:sQdGFMKo0
>>706
(NOX,LD,MuMu)系と(WSL,GooglePlayゲームβ)系とは共存できないやんね
ひょっとするとWSLとGooglePlayゲームβは共存できるのかもだけど試したことがないねん
ただ共存できたとしてもGooglePlayゲームβでできるゲームのラインナップはまだ少なすぎやけど
そのあたりWin11のWSAはどうなんやろか

ってなんかスレチっぽくなったごめんやで
2023/05/21(日) 08:09:16.54ID:Qx2QKltQ0
>>709
レスサンガツ!
WSL周りの知識の集積はこの先LoRAを安定して回す手法が体系化されたときにきっと役に立つからスレチやないと思うで😇
むしろそれに以前にワイ自身がWSLに疎すぎるから今はどんな情報でも欲しいんや……🤕
711今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ササクッテロレ Sp03-TTsM)
垢版 |
2023/05/21(日) 09:24:09.36ID:W/9dLJjHp
ワイVRAM30オーバー、回線が細すぎてモデルが落とせない
2023/05/21(日) 10:01:50.26ID:751ae5xvM
このスピード感stable diffusionのローカルNAI出たあたりのワクワクがあって好きや
画像生成からつよつよグラボ持ちがもっと流入してくれば学習も進むやろな
2023/05/21(日) 10:33:15.35ID:rq5AoQEDd
一応現状ベストの13B貼っておくぞ
https://huggingface.co/openaccess-ai-collective/manticore-13b
https://huggingface.co/TheBloke/TheBloke/Manticore-13B-GPTQ
https://huggingface.co/TheBloke/TheBloke/Manticore-13B-GGML
■ このスレッドは過去ログ倉庫に格納されています
5ちゃんねるの広告が気に入らない場合は、こちらをクリックしてください。

ニューススポーツなんでも実況