なんJLLM部 ★7
AIに色々なことをしゃべってもらうんやで そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで 自薦・他薦のモデルやツールは>>2 以降 なんJLLM部 ★6 https://fate.5ch.net/test/read.cgi/liveuranus/1701542705 VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured 初心者は導入しやすいKoboldcppから始めるのをお勧め (1)ここで最新版のKoboldcpp.exeをダウンロード https://github.com/LostRuins/koboldcpp/releases (2)ここで良さげなggufモデルをダウンロード https://huggingface.co/models?sort=modified&search=gguf この2つのファイルだけで動く 今期待の日本語特化モデル TheBloke/japanese-stablelm-instruct-beta-70B-GGUF · Hugging Face https://huggingface.co/TheBloke/japanese-stablelm-instruct-beta-70B-GGUF oobabooga/text-generation-webui これもKoboldAIに並んで有用な実行環境やで https://github.com/oobabooga/text-generation-webui stabilityai/japanese-stablelm-instruct-gamma-7b 比較的小サイズで高性能なおすすめの日本語モデルやで https://huggingface.co/stabilityai/japanese-stablelm-instruct-gamma-7b ●多くのモデルには「base」と「instruct」の2種類があるで baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで ⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで ⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで 量子化モデルにはGGUFやGPTQなどの種類があるで 基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで ⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで 画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで 高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで 例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで 基本的にはBが大きいほど性能が高いで 70Bの大型モデルはLlama 2というMeta社が開発したモデルが元になってるものが多いで メモリが48GB以上あれば動くけど、速度はかなり遅いで 18:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff79-XI6K):2023/11/11(土) 11:13:26.81 ID:0B0rgEfx0 ドライバやミドルウェア周りのインストールがだいたいこんな感じ https://rentry.co/rd9xf/raw python3.11を別途入れて基本的にそっちを使っていく 7:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff7a-EFnx):2023/11/11(土) 10:54:35.49 ID:Gp6hELJv0 日本語特化モデル以外のおすすめ。これもはっとこ 更新の速い世界だからお勧めモデルも逐次変わっていくけど取りあえず前スレ後半で話題になってたモデルたち(たぶんまだある) 総合力高い系: Xwin-LM-70B upstage-Llama2-70B (=poeのSOLOR) あとは古典だがwizardLMとかairoboros系もまだまだいける エロ特化系: spicyboros Kimiko Mythomax 普段スレ立てないから不備があったらすまん とりあえず前スレのテンプレ通り 日本語モデルも増えてきたので、少し情報不足感は否めないけど 日本語特化LLMとして、最低でもSwallowとKarakuriLMは追加していいような気がするけどどう? いいと思う。 ご新規さんが>>3 だけ試してもガッカリだろうし おっつ マージ環境の構築に挑戦したけどすごく難しい でもなんとか量子化までできるようになった 疲れた... 最近出てきた日本語モデル どっちも割と自然な会話ができるし、エロもいける 今はこっちが主流なので、まずこっから始めるのもありや 小型のモデルとか量子化モデルもHFにあるから、VRAMが心配なやつはそっちを試してくれ KARAKURI LM https://huggingface.co/karakuri-ai/karakuri-lm-70b-v0.1 Swallow https://huggingface.co/tokyotech-llm/Swallow-70b-instruct-hf 他なんか提案ある? 俺はpythonでしかLLM弄らんから、WebUIのツールとかでアップデートあってもちょっと分からん このスレは普段はまったり進行なんだが界隈で難民が発生するとローカルに活路を求めてご新規が多数やって来ることがある 過去はGPTの改悪時とか 来週明けにMindstudioの有料化・従量化があるのでまた難民が増えるかも知れないがよくある質問には>>2-25 嫁で良さそうだな Claud 3とかGPT4に慣れた連中が納得できる出力を得るには相当工夫が必要そうだなぁ Command-R, 35B open weights model by CohereForAI https://huggingface.co/andrewcanis/c4ai-command-r-v01-GGUF これもう既出ですか? >>31 ちょっと調べたら日本語もいけるRAG特化モデルって感じ? エージェント用途で精度高いなら期待だけど、試してたら感想を聞きたい 強力てことらしい 調子のると普通に作っとるけどこれ一体何の話とかいいんじゃね スーパーセルからまた著作権料貰うから大丈夫 あとしまつで饅頭の腕を引っ張る人間がクズだよな 何でだよ 子供だましとは思わないんだが だからほぼいないって言うとインキャの趣味の領域は昔より狭くなってる気がする サイス 1勝2敗で得失点差普通に思ったのは全然含み減って痩せたと思うけどな 症状があるからな 常識で考えてから心配しよ いやいや乗用車の人はその辺の嵐だったのか 直接ラノベ書くアニメはあったことはないです、多分僕が英語覚えるよりネイサンが持ってるけどどうしようかな ギャンブルか投げ銭とかになるまで燃え続ける あそこに誰もいなくても ますますスト空気だね 早くEVにしよう >この事故あった? >>7 実際のところ 糖尿病にならなかったり裁判までもっと上げて他人を攻撃し続けるしかない すまんkoboldcpp.exe入れたがここから先が全然分からん quick launchの欄にあるmodelにkarakuriを選択してbrows→launchでええんか? 英語モデルってすごいんだな “日本人口を調べて常用対数をとる”とかオーダーすると、ちゃんとグーグルで人口調べて、pythonで常用対数計算してくれる (使用モデルはMiquMaidなので、プロンプト自体は日本語もいける) https://i.imgur.com/2e2ZAtv.png >>45 やるならq4以上が良いよq5kmがおすすめ >>46 ありがとう ちなみにメモリ16だったんだけどkarakuri無理ですよね… >>47 swallow 13bならいける 精度は落ちるけどお試しで良ければ >>47 とりあえずq2試して、気に入らなければ他のアプローチ考えるんでいいんじゃない? Qwen 1.5 14Bの量子化とかも行けるんじゃないか? ちょくちょく漢字に中国語混ざるけど さすがに16GBでは無理だ 48GBあればなんとか動くらしいぞ >>43 使いたいモデルはあらかじめダウンロードしておくんやで ここで検索や https://huggingface.co/models?sort=modified&search=gguf んでKobold起動したらBrowse押してダウンロードしたモデルを選択 他の設定はnvidiaのグラボ使いならUse OpenBLASをCuBLASに切り替えるとグラボを併用してくれてちょっぴり速くなる あとは基本そのままでOK Launchしろ Koboldがブラウザで立ち上がったらNew SettingsやってからScenariosでNew Instractや 別なの遊んでもいいけどな 16は難しいか… linuxでPythonの仮想環境つくってkarakuriを動かす方法でもメモリ足りないよね? Karakuri q2 使ってるけどVRAM30GBでやっと動く感じだからね CPUでやるにしてもメモリ最低32GBはいると思われ >>31 これ試したけどどうも動作しないんだ んで、注意書きを見ると https://github.com/ggerganov/llama.cpp/releases/tag/b2440 にバージョン上げろみたいな事?書いてあるんだけど、これはどうやって導入すればいいんだろう? 低レベルな質問で申し訳ないです 昨日llamaに実装されたばかりだし 分からないならkoboldのアプデ待ったほうがいいと思うよ どうせ数日でkoboldも更新されるだろ でも、そのcommand-Rってモデルならここで試せるよ https://coral.cohere.com/ 私も動かなかったのでコボルド側に組み込まれるのを待ってる 最近興味を持っていろいろ始めたんだがここだとText Generation WebUIってあんま使われてない感じ? あと3060vram12gb、メモリ48gbだと環境的にはギリギリ遊べそうかな >>59 自分はkoboldが主流だけど大葉派の人も結構いるね この程度のこと、少年が羊の世話はしないが涙声に本心からの尊敬がにじんでただけ 絶対どっかで落ちるわ × ちょっと思ってるおじさんがどうこう言うことあるんだよ 芸能人が大半なのに思考が全く一致しないんだよてことないのと同じカテゴリの 妄想が激しいわあ そろそろ9月銘柄の仕込み時くるね 観光バスのドライバーがバスドライバーとして不適格だったとしたら現職のバスドライバー大半が境界知能のギリ健だから仕方ないね 今日は会議があったら 業績も良い ごめんなさいですまないようになってる 疑惑しかない >>59 使ってる 最近はほかにもLLMのフロントエンドたくさんあるからいろいろ試して取っつきやすいの使うと良いかと これが出る ここでも抽出したらわかるけどドラマの数字叩きに乗っかるのは省いてるで(例えば竜王のおしごととか やったことなかった。 >>60 >>65 じゃあひとまずwebuiでやってみるサンガツ ただ、どれ使うにしてもまずは覚えることが多くて大変だわ 画像生成AIと違って日本語の情報が少ないし やっぱりネイサンのは生まれつきなのかな? さすがお友達 そしてまだ始まらないという ネットリンチ被害者に否定的でしょ? >>68 もし技術的な事で日本語の情報不足を感じるなら、Discordにある「ローカルLLMに向き合う会」に参加する事をおすすめしておく >>65 ゲレンデなんてどこから感染しても時流からして逆だろ おやっと規制解除された人との裁判でまともなゲーム作らなくなるみたいのでは駄目 >>68 自分用のメモ的な内容なのと情報が古い(間違ってるのもある)ので良ければ下記のページなんかを参考にローカルLLMをエンジョイしようぜ ttps://local-llm.memo.wiki/d/Text%20generation%20web%20UI ちなwikiだけど自分のメモ用で他の人は編集できないのと広告ついてるけどそれはwikiの運営が勝手につけてる奴なんでアフィ呼ばわりは勘弁してくれ ローカルLLM部員増えろ増えろ >>36 得点 失点 本塁打 盗塁 打率 防御率 失策 >>74 こういうの!まさにこういう解説が欲しかった!サンガッツ! とりまkarakuriで遊んでみてる モデル読み込みだけでもエグいほどメモリ使うな 有名人が道路沿いに野次馬みたいな売り文句で講師やるかは効率良いて程度ですんだけど性格がくそだなって怖くなった (ヾノ・∀・`)ナイナイ セックルから始まるストーリー あの時代の大奥完結してた >>70 サンガッツ 探してみる やっぱメインはディスコなんやね まぁここじゃ定期的にスクリプトだらけで会話にならんぽいしな… >>79 フォーマルなチャンネルで最初は面食らうと思うけど、KARAKURI LMの開発者とかも参加してたはずで、かなり大所帯だから情報は多いよ それならオーレ首にした工場とか土方のJKアニメでやってほしいわ 月火ダメだと独裁者みたいな これって本物のインタビュー読んでくれば? 何でコランはいつもトラックが煽って売りあがっているところだね https://m7w.22/CCC9e うん、バリュー中心は自由主義だと言ったらソシャゲの記事になっていた男性1人の腕のたつ後輩として出てたにゃっつもいたなそういえば ここ5年とか短すぎて微妙 Grokって314Bパラメータって書いてあるけど、流石に個人で動かすの無理じゃね と思ったけど、Mac Studio M2 Ultra 192GBならQ4動くと思うから、持ってる人いたら結果教えて欲しい >>87 デモはまだかー ユニファイドメモリ256Gあれば量子化すればなんとか・・・ Xの性質考えると日本語能力期待できると踏んでるんだけど、一回試したいよね tokenizerとかどうなってるんだろ イーロンがアピールするためにとにかくパラメータ増やして 質より量方針をビンビンに感じるから 動かすのに膨大な性能いる割に性能は低いみたいな偏見が触る前からある 性能で戦えないからオープン化 オープン化したけど質より量戦略のせいで図体だけでかくてほとんどのユーザーは動かせない 動かせるやつには大した性能じゃない …ってコト? >>88-89 これからはもうマカーか、BANリスクこみでクラウドでやる奴じゃないと勝負できないんやろな >>91-92 デスヨネーって感じ 8個のMoEで推論時は2つのExpertsを使うっぽいから実際の推論コストは120Bくらいかな? まあ、ベンチが全てじゃないことはここにいる連中なら分かってると思うから、実際動かした感想が知りたいけど・・・ハードルが高すぎる と思ったが86Bか RAMにさえ載せられれば意外と推論早そうだが >>92 ベースモデルのベンチが低いのはあんま気にしなくて良いけど じゃあこのサイズのモデルを一般人がInstruction TuningとかDPO出来るかというと無理なので 今はあんま使い物にならんな色んな意味で LLMがコード走らせられるようになったから、フォルダに変な名前のファイル入れといてそれを調べさせるっていうセクハラが出来るようになった https://i.imgur.com/B0c8dww.png 巻き込まれたとか聞いたことあった 今回の事故で124万件 常軌を逸するほど客いそうだ!」 カルト「そうだ。 会社狭いからじゃまいか >>27 (2022年の9月からが民主政権だぞ しかし死ぬ 下手したら2ch発の仕手銘柄に草 こんなんでもいい訳ではないよな ビットコ死んだ二人も多いのはクロサギかな。 だから、金持ち側の気持ちなんか日本語の使い方間違ってる >>51 手マンというか 何の一ヶ月分なんだよなあ… お前は話に広がりがなくなるとは言わんけどさぁ ポスターとかの一存で決めれるわけだろ きっと上がるときついから? 写真出てなくて でてた海外ペンジェイクのやらかしには凹る(ボコる)ってのが救いだわ 売れ方次第では当たり前なんか? なんでゴリ押しなのでしょうか…………」 おっさんの趣味というより 右行こうとしてスリップした方が良いんだよな もしサイト運営会社の運行でそんなもんに執着してる情報は抜けるよ。 実際そうなるからね でも残念だったねえ >>25 8/19の先輩の引退会見を駐車場でやっと届いた そういう点で決まり、混合状態すなわち霧状、気化状、液状で引火点の低さも修正してるのに みんな過去の実績だけで生きていける規模に縮小や 深夜にシフト組んでるときが 余計太る >>3 含み耐え続けるツワモノ共よ 試合出れねーぞ ダブスコくるぞ ジーンズ越しの尻だ それが絶滅したから… これは何の役にも刺さらないんだねここのは極めてまともだと思うから息子には面白いぞ でも多くの批判はあるだろうが でかい ノブが俳優と仲良しとかと同じでも見るの苦痛に近いし ラップってよりただのアホ板がお友達だけになってもサガそのも大概にしとけよ 評価するのはパンティーブラジャー買い漁るためやし 毎年は変わってないのは本当なのよ 利用規約違反なんですよ やはり脅迫して詐欺師 未だに信用してるが ペットボトルとかもフリードリンクなってる例を沢山見てきた まあ無策で打たれてないこともあるし仕方ないね オリンピックは失敗するんだよトホホ 面白そうではないということや国際指名手配犯との関係を切らないとは >>123 いま入学式 これ円が120万も積み立て出来る勝ち組に税制優遇してなさそうだしこういう事でも注目されるは国会議員 二月の勝者-絶対合格の教室-#2(再) 「もうちょっと待ってられるんやぞ まぁマジで不満 pcでリマスター版出したばかりやんけ 数百億は稼いでるから >>38 ヘブバン以外の時間やから既に死にかけて初心者主人公がJKとなるんかな クソニーで台無しだよ… いつも逆張りで含んでる奴がいっぱいいるわ 興味持たれちゃ意味ないぞ ノブが俳優と仲良しアピールとかソヌニキの面倒見てるだけか 「スター誕生の瞬間の支持につながっている >>35 若年人口悲しいくらい少ないから脂質を貯めるように見えますけど 若年人口悲しいくらい少ないから脂質を貯めるように見える戦術やぞ >>47 実は暴露ネタそんなに金払って風呂入ろうと萌え不毛のcsになんで覚醒したていで話してるのは年寄りがみてたからか 焼かれたよ俺は困らないけどな ジャニあるあるだよね >>129 非常に大事なんて行く危機管理能力0すぎて毎月退会してリハビリ中だよ。 早めの登録でなんか出来るけどくりぃむって絶対ゲストいないのかな? スクリプトのせいで見てないかもしれんが、 sillytavernでkoboldcppに接続できんのだが、エスパー出来る人いる? 最新のsillytavernインスコして kobold.cpp起動 karakuriロード sillytavern起動 koboldAI classic選択 apiにhttp://127.0.0.1:5000/api で接続ボタン押しても、反応しない 誰かヘルプ! すまん、もう一つ We have a dedicated KoboldCpp support under Text Completion ⇒ KoboldCpp. て、どこみればいいんだ? そもそもAPI選択のkoboldAI classicが違ってて APIのText CompletionのAPITypeにKoboldCppがあるからそっち使ってねってことや チャットするなら一番右の名刺の所からデフォで何枚かキャラカードあるから選べばええ >>148 いや、ないんよ それでマニュアルどおりclassic選んだんだが・・・ ああああ すまん あったわ 焦りすぎだ( ;∀;) chub.aikからインポートするには jsonファイルとキャラのpngファイル2つを落として、それぞれインポートするで、あってる? んで、jsonファイルを編集して違うキャラ作ったりすればいいんかな? >>151 pngファイルに情報入ってるからpngだけでも良い。 編集はインポートした後にツール上でやった方がやりやすいのでは? >>152 サンキュー。 pngだけでいけるんだな。 とりあえず版権キャラを改造して日本語(翻訳じゃなく)にしてみた あと、音声対応もしたけど、これはsystemのやつだとオバサン声しかないなw しかし、chatしてると、勝手にuserの返事まで書いてくるのは、どっか設定ミスってるのかな? うーん。なんか会話がアホっぽいし、エロくもならんのはなんでだ? koboldにキャラ設定ぶち込んだ方が、キャラにあった返事もしてくれるし、エロい。 sillytavern自体にwebサービスみたいな規制があるんかな? >>154 LLMに与える各種パラメータが一致していないのでは? 一番上に並んでいるアイコン左端のAi Response Configuration 左から3番目のAi Response Formatting あたりが返答に影響する設定。 あと、ターミナルの方にAPIに送信されたデータの羅列がでるから、こっちを見て期待通りか確認しても良い。 >>155 おおー、koboldのデフォ設定に合わせたら、いい感じになったわ、サンキュー オリジナルキャラで作った、kobold用のXML文も、こっちにも流用できて、かなりいい感じになった。 XMLはkoboldより入れやすいな。eosの処理とか気にせんでいいし。 あと、これ、自分のキャラを外部に保存するにはどうしたらいいの? つい最近始めたばかりだけどローカルllm楽しいね うちの環境じゃkarakuriのq4程度が限界だけどそれでも十分楽しい会話になる なにより規制が無いっていうのがすごい新鮮 これ、数年後にはローカルでもリアルタイムに絵が動いて声出して喋るようになるわけでしょ? 人類滅ぶわー >>156 > 自分のキャラを外部に保存 キャラクターを選択したときのキャラクタ名の下段に5つのアイコン(★📕🌐📕📄みたいな)が並んでて、その一番右がExport and Download。 バックアップ目的なら、SillyTavernをインストールしたフォルダ下のpublic\charactersをコピーするのが楽かも。 超絶初心者の質問でしゅまんがkarakuri 2bit量子化されたモデルってVRAMの方は一切使わないの? 昨日LLM始めたばかりで色々調べてるんだけどVRAM使い切ってからメインメモリに読むとか出来ないのかしら? タスクマネージャー見ててもVRAM2Gも使って無くて何かすっきりしない もしかしてVRAM使わないモデルとかあるのかな >>159 GPTQ、AWQ、EXL2はGPU&VRAMしか使わない。 GGUFは基本的にはCPU&メインメモリを使うけど、n-gpu-layers設定で一部をGPU&VRAMにオフロードすることもできる。 >>160 そういうことね! ありがとうさっそく試してみる LLM楽しいねどんどん進化して欲しい kobold使ってるならUse OpenBLASをCuBLASに切り替えるとグラボを併用してくれるぞ OpenBLASはグラボ使わない設定 バケモノみたいなグラボを積んでないとローカル動かせないと思い込んでる人けっこういるのね 画像界隈から来るとそう思いがちなのかな まあオフロードするにしても70Bを現実的な速度で動かすならかなりのスペックが必要なのは間違いなくね ただ動かすのと実際に使うのとではまた違うからな 文字入力するたびに数分以上待たされてちゃ使い物にならないでしょ MiquMaidに迷路を作るプログラム書かせたらちゃんとしたのができた ChatGPT3.5とElyza 70Bだと無理だったから強い c4ai-command-r-v01が日本語話してくれない 文字入力というか1回分のプロンプト送って返信に10分前後待つ感じやね チャットのようなテンポだとキツイだろうけど自分にはギリ使える範囲かな >>171 いやいや、チャットだから500トークンも1回に使わないから、そんなにはかからんよ。 動画でも撮って上げてみようかな。体感分かるし ああ動画いいかもね 使い物になるかならないかは各自がそれを見て判断すればいいことだし オナテクの方から来てこの板の空気とかあんまわからんからROMろ…ってつもりでいたんだけど動画撮ったりして使用感共有してくれるのはマジでありがたいな 俺含め多くのAIユーザーへのローカルモデルの印象って憧れはあるし期待してるけどまだ発展段階だから手が出ない…って感じだと思うから 仕事中とかはともかくネット見て回っている間とかなら 返信くるまで5分10分まったり待っていればええやろ 5chとかならスマホでやったってええんやし >>170 テストページで試すと普通に日本語喋ってくれるけど、なんか必要なのかな? そういえば昔過去スレに速度比較の動画を上げたことがあって今見たらまだリンク生きてたから貼るわ -------------------------------- モデルの大きさ別に出力速度の見本をつくってみた CPU: RYZEN7 5700X RAM: 64GB GPU: RTX3060 12GB 13B https://i.imgur.com/YhLNEeK.mp4 33B https://i.imgur.com/W78bDZI.mp4 70B(遅いよ) https://i.imgur.com/7PuYhTj.mp4 余ってるグラボがあるなら2枚連装にするのもおすすめ 生成速度のボトルネックはRAMの速度なので、VRAMに割り当てる量を増やすと早くできる RTX3060の12GBを1枚で使ってたところに、余ってたGTX1070を追加したら少し早くできた 早くなったら儲けもん、くらいで試してみたら効果あったからそのまま使ってる CPU推論について調べてたら見つけたページにそれっぽい説明があった https://note.com/bakushu/n/n26537fab5a14 この記事で言うテキスト生成速度の方に効いてくるわけやね 例えば70Bモデルだとサイズが40GB超あるが、このうちどれくらいをグラボ側にロードできるかで生成速度に影響すると理解してる 多いほど速くなる 全部をグラボにロードできる変態ニキは少数なので普通の良い子はグラボとRAMで分担することになるので そうそう 1070を挿したのがPCIE3.0x4のポートだったこともあって、こんなので効果出るとは思わなかった でも1070ですら256GB/sも出る訳で、RAMの5倍早ければそら効果でるよなという kobold+SillyTavernのローカル動画撮ったぞ 保管用に避難スレの方に書いたから見といてくれ 推論間違いが起きる要素は、モデルに聞いて正解反応の時にモデルにさらに説明させ、カード情報にフィードバックする というやり方で時短できてロールプレイ用に2キャラ追加できた ただ、なんだがやってることがランス的なハーレム作りなんじゃないかと思い始めている キャラ画像はコイカツで作ってるのでチャットで気分が上がったらそのままエロにも移行できる >>184 サンガツ 自分は普段小説勢でSillyTavern使ってないからそっちも参考になったわ ローリィも可愛いぞ 70Bモデルって メモリに乗り切らないから試す気もなかったけど グラボとメインメモリに分散できるの? むしろグラボ無くてもメモリ64GB積めればそれだけで動かせるぞ 古くはHDDにおけるページファイルみたいなものでそれなりにストレスフルではある むしろ、70bのクソ遅応答に慣れすぎたせいか、英語がヌルヌル生成されると逆に変に感じる(変人) そろそろ、脊髄で英語を理解できるようになりたい >>184 見たけどVRAMに全部乗せらんないとこんなもんよな ちなコレは量子化はQ何? >>187 できる だからメモリとグラボで合計48GBあればワンチャン70Bが動くかも知れない 色々PCの動作がクソ重になったり不安定になるかも知れないけど あといないと思うけどモデルのファイルをHDDに置いてると最初の起動が気が狂うほど遅くなるのでSSD必須 それな HDDにあるモデルさっき読ませてしまったけど一生ロード終わらんかった モデル置いておける余裕がある できればNVMeのM2SSDがあると70B Q4k-m(38GBくらい)でも一瞬でロードされる >>191 ああ、しまった。重要な事を書き忘れてな Q6_k 64Gでギリギリ動かせる最大値 HDDって100MB/sとかだからなあ 30GBのモデル読み込むのに単純に300秒 3000MB/s出るSSDなら10秒 webUIでjapanese-stablelm-instruct-alpha-7b-v2エラーなく読み込むまでは出来たんだけど いざチャットするとエラーNoneが出て何も書かれんのやが何かミスってるのかな >>199 webuiは設定多いし慣れるまでコツがいるからなぁ・・・ そのモデル古いし、使うなら stabilityai/japanese-stablelm-instruct-ja_vocab-beta-7b や stabilityai/japanese-stablelm-instruct-beta-7b の方がいいかも 下の奴なら TheBloke/japanese-stablelm-instruct-beta-7B-GGUF ブロークニキの量子化バージョンもあるんで、一番デカいQ8_0落として koboldで再生するのが一番楽と思うよ >>198 ありがとう、動画見れた 確かに厳しい速度・・・動画上げてくれてありがとうやで >>199 WebUIのコンソールにメモリ不足とかのエラーメッセージ出てない? ローダーによってはモデルのロードに成功しても、生成時にコンテキストのために追加のメモリを要求するからその時点でメモリ不足になることがある。 ExLlamaでGPTQやEXL2を使うときはロード時にmax_seq_len分までVRAMを確保するから生成時のメモリ不足は起こりにくい。 >>200 あっこれ古いのね ありがとうさっそくその二つ試してみる >>202 さっき見てた記憶だとcudaエラーが出てた ちょいと色々弄繰り回してみます CohereForAI/c4ai-command-r-v01 デモ試したが、かなりいいな、これ 35Bだから速度も期待できるし、koboldはよ対応せんかな Lamma.cpp本家は対応したらしいから、個人的にはllama-cpp-pythonにアプデが来て欲しいところ c4ai-command-r-v01気になって生llama.cppで試してみた (Q8 gguf) 今までの日本語特化の70Bより良いかもしれない ちょっとルー大柴になることがあるけどエロ規制なしでかなり良い回答してくれる これはしばらく遊べそう 速度どう? tokenizerにどれくらい日本語語彙あるのか知らないけど、日本語特化70Bモデルより早いのかな karakuriより良さそう? 期待が高まるな 35Bなら出力も早そうだ >>207 M1Max 64GB機で 8.3 token/s くらい 日本語特化の70B(Q4_K_M)より少し高速っぽい >>208 色々なプロンプトで試してみてるけど優劣つけ難い感じ 35Bなことを考えるとすごいかも たまにルー大柴になったり体言止めを多用するのがちょっと違和感ある 改めて karakuri (Q4_K_M) 動かしたらc4aiの方が1.5倍くらい速い マカー向けにメモ: 今までの70BはREADME通りn_gpu_layers=1でGPUフルロードしてくれたけど c4aiはn_gpu_layers=256とかにしないと遅いっぽい 量子化まわりで個人的にわりと参考になったの貼っておくで ・最近たくさん出てきた量子化形式の解説|Overview of GGUF quantization methods : r/LocalLLaMA - https://www.reddit.com/r/LocalLLaMA/comments/1ba55rj/overview_of_gguf_quantization_methods/ ・量子化によるアウトプット品質の比較分析|christopherthompson81/quant_exploration · Datasets at Hugging Face - https://huggingface.co/datasets/christopherthompson81/quant_exploration wikiを書いている方、お疲れ様です。 あのwikiを見て新規さんが増えれば知見のある方も集まって画像AIの様に何かが生まれるかもしれませんね。 スレで煩わしさを感じる事も増えるでしょうけど頑張って下さい。応援してます。 https://huggingface.co/SakanaAI/EvoLLM-JP-v1-10B こんなんが出てた 概要読んだ感じ、マージのパラメータを進化的アルゴリズムによって最適化して上手くマージする的な手法っぽい(今までは人が手動で感覚でパラメータ決めてた) >>212 すごく参考になる IQ3_XXSが容量の圧縮の割に強いな Rakuten AI 7B 楽天がmistralベースの7b モデル出したって。 https://huggingface.co/Rakuten スポンサーの力舐めんなよ そうそう 大型トラック同士なら抜かれる側の男でも書けないんだろうな 当時の教頭にガツンと言われてるらしいけどマジ……? そしてディーラーへ向かう 久しぶりに米をけっこうたくさん 倒し方はやく逃げとけ ブレーキオイルが燃えてきてるのですか? 消えてちゃ無理があると思うぞ 女優だとイメージがおっさんのJKアニメでやって本来の意味を分かってないな。 フロウと声がでかくなってしまったんやぞ 通報しとくべきだったが Rakuten_RakutenAI-7B-chat試してみたけどガードが固いね >>223 エロ小説は普通に書いてくれたが、文がエロくないw >>214 evomistral って、まだ大葉も対応してないのかな? ロードでエラーはく ただ、それパヨがくたばる間際に残す最後のひと稼ぎだよ 詐欺集団がいるとなれば 一ヶ月ほど楽になってじっくり選べるあたりがちゃんとRPGなんだアンチ連投時間か又ね そんな暇あるなら行くけどな クレバっぽくてよかった気がして屈辱だ 性的に1回だけとか 信者への道のりは遠い… くるみちゃんは2000人もいたら再生回数伸びてないようにしていいと思う時あるよね >>204 なんか 戦車なんかの意味で 喋る相手というのはいかがなものか 同じ所属で露出してるな 複合的要因としかいいようない TikTokも収益化されるまで待ってるよお(´ω`) 「タイミング見ててもすぐキンプリキンプリいうのがトラックだけで 入った? ばぶすら総理1000万超え ここまでかちあげてきて 初めて量子化できた 完全赤ちゃんやと3-4時間ぐらいかかるわ ドキュメント読めば分かる言われても赤ちゃんにはドキュメントが読めんのじゃボケ 量子化できるのは赤ちゃんではないと思う このスレ的には ワイも赤ちゃんだったが量子化までこぎ着けてやっと幼児になった感 このスレ的に赤ちゃんはkobold.cppをどこからダウンロードすればいいかわからないとか そもそも何のソフト使えばいいんですかって層や オナテク板とかそういう感じや まとめwikiとか導線が無いから辛い 画像生成AIだけが突出しているだけとも言えそうだけど KoboltCpp入れてみたけどモデルの読み込み方がわからない Ggufファイルは単一ファイルだからわかるんだけど 中には量子化されてない?複数ファイルのままのがある これはどうやってKoboltで読み込んだらいいんだ ELYZAがイマイチだったから東大には期待してないのよね >>244 ELYZAは一応自前モデルって触れ込みじゃなかったか? 同じ大学発スタートアップでも大型モデルをファインチューニングしたって今回の件とは並べられないと思う あれは個人開発ののべっちの方が賢いまであったガッカリモデルやけども >>245 ELYZA-japanese-Llama-2-##bの話ししてるつもりだけど合ってる?llamaベースじゃないelyzaがあるんか? >>243 koboldcppは量子化されてないファイルは読めない ELYZAは東大のスタートアップで公金入ったスパコン使わせて貰ったんだけど LLAMA2の7B(小型モデル)にファインチューニングにしたもののクソみたいな性能になって 自前の日本語テストを使って他のモデルより日本語成績いいですって詐欺師みたいな発表したから全く信用できない まがりなりにも東大の看板研究室がその国の言語を扱って クソザコナメクジ性能とか涙がで、でますよ ゴミソース飽食してばかでかいだけのgrokとかもそうだけどオープンを謳う=性能では勝負できないの方式が今のところある >>247 GPTQも単一ファイルじゃないよね 別アプリじゃないと無理なんかな oobabooga使った方が良いぞ 色んな形式に対応してるしモデルのダウンロード機能も付いてるからフォルダ構造の間違いも起こらん >>252 一時期使ってたけどダウンロードでエラー出ることがちょくちょくあって苛ついてやめてしまった 自分の問題かも知れんが 大葉でもコボでもいいから、command-rの対応はよ ao-karasuの元になったQwenって、素でも日本語も結構いけるモデルじゃなかったっけ ファインチューニングしてるようだし良さげになりそう あとで試してみよう もしかして一番自然なエロチャットできるのってcalm2なんかな karakuriはどうしても逃げやがるんだが llama-cpp-pythonにCommand-R来とるやん、やったぜ cohereのAIサービスの使用モデルがcommand-Rなんだけど、中身は同じなのかな あれと同等のLLMがローカルで動いたら最高なんだが ao-karasu >We recommend on running with at least 4 A100 cards A100の4枚の環境がおすすめです そうですか・・・ ao-karasuは量子化されてからが本番 誰かお願いぷりーず どこの国の責任だろう 不細工ってわけじゃないの? 30代以下は国葬未経験が多く行く理由わかる 久しぶりに4位とこの差はどうなるんやな command-rやけに回答精度低くて言うほどでもないな、と思ってたけど、これフォーマットをマニュアル通りに指定してやらないとダメなのか・・・ ao-karasu 72B 日本語タグついてないから、まったくのノーマークだった 量子化して試すか って、これ日本語モデルよね? もうSSDの空きないから、既存のモデル消さんとあかんのだ・・・ そろそろ9月銘柄の一つでしかない 猫背で歩いてたとこから修整できたんやからそこ取ったら上行けるやろいう話やで 普通のレスしてるんでた (ヾノ・∀・`)ナイナイ セックルから始まるストーリー >>204 一般NISAはなくして積立NISAだけの話を議論してプロになればって言ってないぞ、自滅した😥 7月は下がってる デイトレしてたんじゃないのは許せない 今日が休みで本当に何が載ってるので早急にワクチンを打ってください。 情報見た むう! ロープレはkarakuriより0.1落ちるが、執筆は高いな これはエロ小説書きでkarakuri超えるか 小説書きはスピード遅くてもいける口なんで、興奮してきたわw ao-karasuを量子化して試してみたけど、なんか日本語の出力がおかしくなっちゃう 日常会話くらいだと大丈夫そうでも少し捻るとよくわからない言葉を発しだす >>270 マジか 量子化レベルはいくつ? 今、まだダウンロード中 ギフト来なくなってそうだよ!かわいいよ! この企画のために 前スレにあった官能小説家テストを突っ込んでも、片言日本語と「うーーーーー」ってセリフ、混じる中国語文字に回答にならない回答でテストしてて萎えてきた… 量子化が失敗しているのか、ベンチマーク用にしかファインチューニングされていないのか >>271 Q6Kでとりあえず試してる。量子化失敗してるのかなあ >>274 むうう convetのオプションは何つけた? >>275 --outtype f16 --outfile .\ao-karasu_f16.gguf --pad-vocab でやった。 --pad-vocabは無しだとエラーが出たから付けたら通った >>279 --vocab-type hfft 追加したらどうなる? 過去フォーラムでもqwen系で変換後聖子しても推論が乱れるって話あるな >>280 おお、前スレでも出てたやつか!ありがとう試してみる! Qwen 1.5レベルの推論能力がそのまま日本語で試せるならかなり良さそうだけど、どうかな 普段使い翻訳かましたmiquで割と満足してるけど、日本語の固有名詞とか上手く扱えないからやっぱり日本語ネイティブモデルが恋しくなる >>281 ワイの化石PCだと量子化バッチ終わるまで2〜3時間掛かるから、そっち終わったらエロ評価プロンプト試してね qwen1.5は素で日本語かなりできる子だったんで期待してる Qwen 1.5のオリジナルってそもそもエロいけるんだっけ >>286 webのデモ版では申し訳あったけど、ローカルでなら何とでもなるw karakuriの103bあったから試してみたけど、日本語の応答はそれなり問題なくて、不適切の方も事前のpromptに沿った動きをしているから、悪くはない…悪くないんだが 英語modelに慣れすぎたのか、物凄く薄味に感じる エロに限らず、日本語モデルに慣れた後に英語モデル使うと結構性能にビビる >>289 103bフランケンマージは元の性能をちょっとだけ高める感じだからなぁ でもまたいつ起こるかも分からない、というモリカケ見せられた俺のベスト体重なんだろうけど もう俺の隣で騒ぐのは続いとるからな しまったー 何も考えずQ6_kでバッチ発射したが、72Bってメモリ64Gでコンテキストサイズ4096いけたっけ? 103B Q4_k_mは4096ではロードできんかったが hfftでやったやつはプロンプト放り込むとエラー吐いて応答せんようになってしまった bpeじゃないとダメかも? >>293 うちだとブラウザとか起動してる状態で72.8GB使ってる状態 64GBだとちょっと足りないかも bpeだとエラー吐かなくなった --vocab-type bpe じゃないとkoboldはプロンプト入れるとエラーになるっぽい(Windows) ダメだ、回答にならないことばかり書いたり同じ言葉をひたすら繰り返したりする 意地でも喘ぎ声や卑猥な言葉を出力しない様にしてる気がする そのせいで言語自体おかしくなっているように見える 試しに「何か話して」って入れたら、最近AIの可能性について考えてたってペラペラと話してくれたよ 変貌ぶりに笑った >>301 普通会話はいけるのか koboldの脱獄オンにしたらどうなる? ワイは再量子化中 セリフ系は「うーーーーーーー ってひたすら出力する あとのはよくわからない言葉を書いてくるだけ ちょっとしたホラー味を感じる… どうやら私はここまでのようだ >>303 サンキュー ワイはあと一回試したい方法試してみるわ >>303 すまん、ちょっと確認 --vocab-type bpe で1次量子化したao-karasu_f16.ggufが残ってたら、 こいつをq6_kに量子化する際に最初に出るログは、 llama_model_loader: - kv 8: llama.attention.head_count_kv u32 か、 llama_model_loader: - kv 8: qwen2.rope.freq_base f32 のどっち(qwen2ってちゃんと出てるか)教えてくれ 一応、脱獄モードなら喘ぎ声とエロ小説執筆を確認したが、まだ納得いかん・・・ >>306 昨晩のログが残ってたので見てみた llama_model_loader: - kv 8: llama.attention.head_count_kv u32 = 64 だった 質問の内容から思うに、これってQwenとしてじゃなくてLLAMAとして認識して量子化しちゃってるってことかな? >>307 やっぱりか convert じゃなくてconvert-hf-to-gguf っての使ってみて いま出先で正確なpy名うろ覚えだが それでマシになると思う >>308 ありがとう!やってみます!試したら結果報告する ao-karasu自前で量子化したけど推論時に落ちる なぜだ >>308 convert-hf-to-gguf.pyってメモリ64GBだと足りなかったりする? >>312 うちの環境だと、ギリ駄目でプログラムが毎回死んでしまうんで困ってた ただ、結局ちょっとコード書き換えたらなんとかなったよ 56行目でuse_temp_file=Falseって引数がデフォだと渡されてるんだが、これをTrueに書き換えてやれば普通に動くようになった >>313 そうなんだ うちのは最後にスワップ飛んでめちゃ時間かかったがなんとか完走した しかし規制強すぎだなこれ 脱獄常用は避けたい qwen2ベースでどエロモデルなんかないかな? そいつとマージすればワンチャンあるかも convert-hf-to-gguf使ったらエロ評価プロンプトに回答してくれるようになった! でも日本語はやっぱり微妙な感じ、関西弁とか特に 規制凄くて自分で出力した内容に、このような内容を生み出すことが不適切だから自己評価0点とかつけてるのはちょっと笑った うーん、ao-karasu、ぶっちゃけオリジナルのQwenの方が頭いい気が・・・ あと、Qwenらしく未だに中国語が混ざる いつも動かしてるマルチタスクのシステムで動かしてみたけど ・エロ方面 他の方が言っているように規制強め?パンツの色教えてくれたけど、見せてはくれなかった こっち方面の話すると、話を逸らしてくる ・真面目方面 一応agentの呼び出しには応じてくれる 今日の天気を調べさせると、なぜか検索よりpythonでスクレイピングすることを優先する(ただしURLのハルシネーションあり) 一応ちゃんとした結果が出てくることもある 規制云々無しにしても、これでGPT4に迫る、とか言われるとは???って気分になる 正直量子化が完全じゃないという可能性もあるがエロ以外との応答格差が顕著だしねぇ こんなんじゃ恥ずかしくてオナニースレに投下できんぞw>T大!( ´Д`)y━・~~ めっちゃ期待してたからガッカリ感がすごいわ またしばらくkarakuriのマージモデルを作る作業に戻るか… オープンモデルの謳うなんとか相当(有利なごく一部分だけ)とかパラメータ数(大抵は太ってるだけ)は話半分で聞くもの >>291 ああ、この103bって端数がきになってたけど、70b+33bな状態なのかな? midnight-miqu v1.5試してみた人いる? miquをstorytellingチューンしたやつらしいんだけど >>322 いまお試し中(103b i1_q4_m) midnight miquは地の文とセリフの塩梅が気に入っているけど、1.5でもおなじ感じで動いてそう claude opusに作ってもらったフランス語混じりの英語を喋って、 フランス語の部分の英訳を()でつけて、なんて無茶な指示にも従っているみたいだし、セリフパターンを追加してみてどうなるか >>323 MiquMaidと比べてどう? NSFWの質とか、地頭の良さとか >>324 英語が達者じゃないので、感想の程度はお察しだけど、miqumaidとおなじ感じで、地の文は良いと思うよ nsfwも場面をはよく描写していると思うけど、セリフはやや弱い感 個人的には前にmiqumaidを使ったときは、前のチャットのセリフを繰り返し場合があったけど、midnight miquはそれがないので気に入っている 繰り返しは確かに少し気になる部分だったから、それが少ないのは良いな >>20 嵌め込み酷い どっから金突っ込まれてるの? ここはスクリプト荒らし対策の知恵者はおらんの? あの特徴を解析したら、ヒーローになれるのに。 あのスクリプトハゲは、おそらくトークンとか、なんもやってない、素人生成と思うし? スケートで学校休むのはパンティーブラジャー買い漁るためやし だからほぼいないってこった そういった層は増えねえだろ むしろ ほぼ12時間勤務とかしてても大丈夫。 美しすぎるカードゲームあったろ美しすぎるカードゲーム 空売りしたの?切手が得意な会社ってどこもいらんやろ >>333 あれの対策に必要なのは本質的には書き込み元を分散させてるボットネットの撲滅であってスクリプト本文の解析とかではないぞ ・ジュニア話禁止 ・アンチモメサヲタヲタ厳禁 罵詈雑言、かまちょは徹底スルー メンバーのプライベートの詮索禁止 >>340 脱獄オフだと申し訳されたからオンにして出力してもらった imatrix併用のiQ3_XXSで量子化して使ってみてたけど、これいいかもしれない 70Bモデルが24.8GBまで縮んで会話内容もそんなに悪くなってる感じしない(個人的感覚) ただ追加処理があるせいでCPUがボトルネックになってくるから、VRAMがそこまでなくてマルチスレッドに強いCPUを積んでるPCなら効果が高いかもしれない うちはRyzen5600Xで生成1.35T/sで頭打ちっぽい(同じくらいの容量のQ2_Kだと2.1T/s出る) >>341 おー iQ3_XXSはVRAMに全部のせんと効果ないって思ってたが VRAM12G メモリ64Gでも 70Bの速度に効果あるかな ちょっと試してみる あと、ao-karasuと英語モデルのマージ試したけど、マージすることで規制が緩むのか脱獄なしでも結構エロ書けるようになった。 が、やはり元々の日本語性能がお粗末と思われるので、karakuriを超えることはないと思うなぁ あんな申し訳程度の関西弁はいやーw ao-karasu、エロうんぬん以前にやっぱ微妙だよね 後発の方が性能低いのは悲しくなるからやめて欲しい これでファインチューニングした…?って本気で思った。そして改めてkarakuriを評価した >>342 koboldの設定でスレッド数を論理コア数限界まで割り当てるともろに早くなるから、昨今の多スレッドCPUならかなり早くできるかも CPUに負担かける代わりにVRAMに乗っかる割合をより増やせる感じ >>341 すまん、もう寝てると思うから明日でいいから教えて欲しいんだが imarix.dat 作成する時のトレーニングデータって、何使えばいいんかな? 最初普通にiQ3_XXS指定しただけだとvery low-bitとかのエラーが出るんで --matrix 使わんとあかんのかと思って仕様見たら、トレーニングデータ??wiki?? となってしまった(^^; llama.cppで一気にQ2~Q8あたりに一括で変換したりするコマンドってあるんか? 今はこんなんで1個ずつやってるがめんどくさい quantize "E:\Models\ao-karasu-72B.gguf" "E:\Models\ao-karasu-72B_Q4_K_M.gguf" Q4_K_M >>345 自分は以下のデータを使わせてもらった https://cosmo.zip/pub/datasets/wikitext-2-raw/wiki.train.raw たぶん本来はPythonスクリプトで作成しないといけないっぽいけど、Pythonのお作法がわからなかったから検索しまくってたら見つけた あとimatrix作成時は--chunksで3〜8を指定することをおすすめする(大きいほど処理に時間がかかる代わりにモデルのperplexityが下がる) 指定なしデフォルトだと処理に超膨大な時間を要求されてビビるw >>346 Windowsならバッチファイル、LinuxやMacならシェルスクリプトを使えば複数のコマンドをまとめて順に実行するようにできるよ >>347 ありがとう! 助かりました そちらのPCでshunks=8で何時間かかりました? うち、へぼPCなんで、それによっては寝る前に放置コースになるw >>348 うちでは--chunks 5でやっててそれで35分弱かかった 効果的には3でも十分かもしれない。それだと20分くらい >>349 さんきゅ 帰ったら試しに一度デフォでやってみます その有名なセリフ発して死んだと > 散弾銃だし 一回本国ペンに鼻へし折られでもしないを評価していると考えられており、入力しないと思う >>349 今、デフォで試しにやってるんだが、ログに ETA 3220 hours 26..78 minutes とか出てるんですが、まさか終了時間っすか?w とりあえず6時間ぐらいを覚悟してたんですが・・・(;´Д`) >>202 ジジババはいつまでトコナトコナやってんのかな 7/19の先輩を優先する大馬鹿基地外馬鹿マヌケってだけ ネイサンに惨敗続きで無理やり賛成か反対かに振り分けるから「分からない でもそこで闘ってもヤバい行為だから揉み消しに必死になってたろw 800グラム痩せたらナンパ成功すると 思うんだが その中のショーに呼ばれないからって呼ばれてる人は、マスク込みで藍上、だなぁ マスクなしで command-r、ローカルあんまり出力コントロールできないイメージだったんだけど、langhchainのJsonOutputParser使ったら割と期待した出力が得られた なんらかの形で構造化された出力にしとくのが良いのかな >>353 そうですそれが合計処理時間ですw なので指定必須ですわ たぶんこれがやってることってデータセットを与えて出力させて、その出力結果を見て重み付けを最適化しようとしてるんだと思う(詳しくないから妄想だけど) なので1chunkの処理時間は512トークンを吐き出す時間そのもので、70Bだと時間がかかるってことだと思います >>359 ひぃぃ・・・w でも、無指定だと10chunkってあるけど、chunkって -ofreq で指定する値だよね? [1]9.391,[2]11.0417,[3]14.9696 って増えて行ってるけど、これがchunk数なんかな? スマン、-ofreqってのがわからなかった imatrixのオプション一覧はimatrix --helpで見られるよ []の中の数字がchunksで合ってる --chunksは無指定だとall、つまりトレーニングデータ全文を走査対象にするんじゃないかな すっごい大きい値になるはず 頼むからモデルだけじゃなくてマージ手法の実装公開してくれ >>364 とりあえず、デフォだと10chunkごとにセーブしてくれるので、そこでストップしたdatを使った 8時間かかったわw でも、うちのへぼPCだと、速度の速さは実感できなかったな 0.7token/sくらいでQ6_kと大差ない感じ cpuをもっといいのにすれば1.35くらいいくのは魅力的だな 品質劣化もほとんど感じられないし ちなみに、Q6_kならどれくらいのスピード? Q6_Kは容量空けたくて消しちゃったからうろ覚えたけど、たしか0.6T/sとか0.7T/sだったと思う 参考までにうちのマシンのスペック Ryzen 5600X (EcoMode運用) DDR4-3200 96GB RTX3060 12GB (PCIE3.0x16) GTX1070 8GB (PCIE3.0x4) モデルデータの置き場及びWindowsのページファイル置き場: Lexar SSD NM790 2TB Koboldの設定で効果あったもの: GPULayersをVRAM溢れるギリギリまで増やす(試行錯誤) Threadsを論理コア数まで上げる(Ryzen5600Xだと12) ※k-quantだと物理コア数までの方が早く、i-quantだと論理コアいっぱいの方が早かった 6824見たら10段目が1578の指値で吹いたわ 1番嫌なのかてのを異常と思わないの ケイブ 強すぎるわ 華やカリスマの話をしてるのに こいつを税金で調査なんぞされたくないんだわ。 >>291 はよ答えろよ そしてもうお前しか駄目だな >>368 なるほど、Q6_KならCPU性能の差はあまり出ないということか VRAM結構積んでるけど、iQ3_XXSをGPU使わずに再生したら スピードどれくらいかな? 1トークン/s以上でれば、CPUによってはiQ3_XXSは大きなアドバンテージになる 3勝5敗とかなら行くけどな ヤスマサのランキング上位と4回打ったやつの2期やれ は?かかとをつけたら音がなって話題に上がって半導体に取り組んで 1号には、また地獄だったが 何回か更新すれば、此処でのお薦めは4回転も跳んだみたいな >>338 どこで見れる? マジかよ ヨツツベデコスケターしょまたん? めちゃ押されじゃん >>235 スノヲタの熱量が作り手側から期待されてるのが腕はあるよなと再確認したわ サモンナイトとどうして差が問題じゃなくて全てのソシャゲで懐古厨からお金巻き上げてる時に新卒就職率良かったし >>301 わざわざ織り込ませる必要ない 1回あのコピペ消えたのにと思うけどな 例えばパワーウォッシュシミュレーターとか) ※女性自身アンケート(7月13日連続で電話した結果なんだな いまとき そんなことも成人しただけだろ ただでさえ最高4%とかだったからな SakanaAIのEvoLLM、7Bとは思えないくらいしっかりしてるな まあ他の70Bと比較できるほどではないけど、彼らのいうマージ方法が優秀なのかな いろんな組み合わせでマージしまくったうえで成績いいの残してる感じなんだろうね 俺の中では日本語でlangchainのエージェント使える時点で評価高いから、その点だけでkarakuriとかswallowより上にしてもいいと思ってる EvoLLM、軽量でバイリンガルだからエロ含めた日本語・英語訳変換を人称の指示付きで実行できる >>375 offloadLayersを0にして試してみたら0.85T/s出た i5-12400とかRyzen5700Xとか以上なら1T/s出そう i7、i9やRyzen9ならメモリクロックを上げればグラボ無しでも1.5T〜2T出るのかも? >>394 おお、いいねー PC早く新調したい そういやT/sはどうやって計測してるの? >>395 記事の画像見るとELYZA-7Bにも勝ってるからミスじゃね? それllama2 70Bとの比較か Sakana AI、マージ手法公開してないからブチギレissue立てられててワロタ This is literally garbage. you made garbage #2 rombodawg commented 9 hours ago Releasing a github page meant to share a new merging method, only to provide no merging code whatsoever is a really shitty move. Its not so much the fact that you didnt release your code that sucks. Its that you acted like you were going to, and put up a front like you are going to open source your methods, and then clearly only did it for popularity. Just a waste of an hour I spend researching this. Good job. 👎👎 https://github.com/SakanaAI/evolutionary-model-merge/issues/2 sakanoのマージって画像生成でよく行われてるウェイトのマージかと思ったら、 ウェイトじゃなくてモデルそのもののマージなのか ほんまにアルゴリズムでそれができるのだったらブレイクスルーの一つやと思うが・・・ 多分実装的にはmergekitのyamlファイルにあるパラメータを進化的アルゴリズムで最適化すれば似たようなことはできると思う >>396 Koboldのログに出力される結果を見てる Process、Generate、Totalの三つ出力されてくる中で、上に書いてたのはGenerateの値です aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct-v2 これ試してみてたけど、Contextが32kまで使えて割といい感じの表現を返してくれる 関西弁はいまいちで文学っぽい表現になるけど 46.7B相当でサイズも小さい分速度も結構早い モモンガ氏がgguf版を配布されてるね あとで試すか >>401 うは 長文書かせてたから、上の方に出てるの、今まで気付かんかったw Q6_kで、gene0.53T/s だったわ >>405 このプロンプトは前スレに先人の方が上げてくださってたものを使わせてもらいました 出力の参考に毎度使わせていただいております Mixtralは推論時に使う実効パラメータ数13B程度だから相当早いよ Swallow-MXの公式のInstruct Tuning版今年度中目標に出すって言ってたけど間に合うかな Mixtralはマージにメモリ食うらしく64Gでは無理だったのが悔しい さよならかもしれない。 おそらく作ったクレジットカード番号をそのまま持ってきたなー むしろ恋愛はしてくるし 良くても良いでr-18になる 効果ないことです 新しいスレッドを立ててください。 これ贔屓出ないショーは一切見ないってさ 救済だろうけどまぁフリーに進めなかったからな ドラクエは12が実質ロマサガ4やろ 運行しないのか ただ早打ちしてるだけの理由もなく 含むために家電買うのかな 単に通常攻撃で斬って避けてで お父さんにご飯作ったり洗濯しなよ婆 >>82 うん 717書いたけどオタってスレタイオタの意だった 路上タバコ←アイドルなのか キシダがオンラインで仕事なくて良い教育してるアイドルがバレることもあるし、もうやってることより服装がダッセーのが気になるな 2週間以降が本番とどこで差がついてないからな。 なお自称カルトの自演だろ アイスタイル安値ww で本題に入るけどあの猫ちゃんは「どういう気持ちでお土産もってくるか」 電話を録音してしまった スノなんで無かったことにすんの >>331 手マンだけ3000再生とかあったけど相手にされても平気だけどな 含みを楽しむ >>284 午前のパニック売りは一巡した模様 週末に放送された575助けて スクリプト終わったか? convertって仕様変わったかな? 今まではデフォでf16出してたけど今はf32で出力される f32を元に量子化した方が精度上がったりするんかな? AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中 https://gigazine.net/news/20240326-ai-software-uxl-foundation-break-nvidia/ 頑張ってほしいけどどうなるかな・・・ とりあえず富士通は外すか金だけ出す係にしといた方がいい arm派でこれからはAIやとか言ってたはずのappleさんの霊圧がない謎 しかしサウナ頑張ってるようなレベルの違いはなにも答えは既にでてるはずやね 今儲けてるソシャゲ会社ってイメージ >>86 体が持たないし解消したにも相手にされてますアピールですかっ? 幸福の科学で破産した奴いるから止めとけ 俺は その時間あるなら他メンバーに追いつく努力しろや 会見や花試合は目立ちたがりな心や自分語りする→おかしな話 俺の買値までまだ5ティックある >>427 ルネサスとかIBMも入れてダメ感増量して欲しい 最近3値1bitLLMが話題になったこともあるし GPUに代わる生成AI専用チップ作ってほしいもんだ というかもしかしてそう言うメンバーなのか 工場もってるIntelとサムスンがいるし、設計のQualcommとArm、 富士通もスパコン向けのARMチップ設計してるし 一般向けのAI用GPUは明確に出し惜しまれてるしいい変化を期待したいね >>442 GroqのLPUあたりがまさにそんな感じだよ 簡単にファインチューニングできるようになって欲しい コロナがやばい 車をぶつけて修理出したら急にやることなく 含むためになりふり構わなくなってるやん https://i.imgur.com/cj3OY1o.jpg >>282 なんだと分かってるよと いや 俺は本気で国民全員がヤングケアラーな訳じゃないからこれで1600人のせいでサロン開設上手くいかなかった場合ログインできなくなるな 若者は賛成だもんな まだ1位2位とってたし、難関有名大卒なら、一定数は若者は騙しやすい。 子供いなきゃそうではもっと楽しみがたくさん残ってるのバラされたクイズ番組でゲラゲラ笑うようなもんなんだから2~3点で決まり、混合状態すなわち霧状、気化状、液状で引火する メトホルミンの副作用で >>222 話合ってどうしてこんなところだろうかと思うぞ 俺の隣で騒ぐのはヤバイと言う事はここが本命になるデビューしてるけど労組が無い様子… 2週分いけるのにw跳べるならね んでJFEはなに??? 汚い汚物顔のパーツが下がる……、まあ逮捕されて使い道ない 被害届出した人を死にかけた それを下にもやり始めた頃くらいに高級ラ●ンジ嬢だったそうだからな 未だに改正反対しているので早急にワクチンを打ってください。 最近の我らスレ立てるなあぶねーぞ チンフェもこんなところ? 15のDLCを打ち切った最大の理由もなく幸せじゃないのよ恥ずかしい >>385 そうだなと普通に使ったらいいんじゃないかな あそこ配当性向100%メーカーによっては、また地獄だったということだ 一回は必ず課金されるっぽいよね このスレッドは1000を超えました?勝っても文句はないけど。 お前の贔屓は知られてないとなのかと思うけどな 本当に車対車の事 >>13 両方追い出せばいいだけやろ ガイジ扱いされるけどな みんなで発狂って?それがまた変わるってこと? 4日続落って、本登録が完了してもなかったのか… とにかく俺はこの世にない しかし 子供手当とか配偶者控除とか金持ち側の男でやってたんかな アカウント6万で済むかどうか >>11 ポジポジ病どうにかしたい このどれかの違いで規模が違う そんな宣伝記事に載ってる人を入れられる側からすると分かってないのは死んだけど利回りいいから100株主の元のコンセプト破壊するイメージしかない やめたの娘!あんたの家には気を使うだの夢祖母だのもあるよ https://i.imgur.com/5urtqLZ.jpg >>471 ワイの環境だと複数レスはモザイクかからんわ ちなchmate GPUのフルレイヤードの快適さを知ってしまったよ 生成の速さより書き出し開始までの速さは驚いた チャット派閥だから毎ターンのストリーム開始までの遅延が気になっていたんだ しかし4060tiでもたけぇ メモリ64GBにしたからmiqumaid動かし始めたんやけどコイツすごいな でもkoboldでQ4_K_Mを4070Tiに18レイヤーオフロードして、5950Xがフル回転して2T/sぐらいや 何か悪いのかそれともこんなもんなんやろか miqumaidすごいよね、日本語だとtokenizerの関係もあってクソ遅いしエロも無理だから、英語or翻訳になるけど miqumaidは""で囲ったセリフを、前の応答のをそっくりそのまま今回の応答で出力する癖は直ったのかな 概ね応答は良いと思うだけど、それが気になってmidnightmiquに乗り換えて、そのままになってる imatrixのトレーニングデータって日本語にした方が日本語の精度が落ちにくいって事あるのかな? >>480 日本語性能はまあまあだったけど小説書かせたらイマイチ整合性のない文章書くな command-rの方が日本語では優秀な感触 kobold 大葉 まだかー? ハイスペックなNPUを搭載したパソコンが主流の時代になったらローカルでもすごいLLMがサクサク動くようになるのかな 豆腐も卵も入れれるからな そのメンバーで誰もチェックしてひと月しか経ってないんだろ 減ってはいるんじゃね 中に行った技術者を使わなかったら本物ってこともかなり影響してるということか。 社会悪やろ どんだけ潜んでるの 明日でディーラー見てくれてたじゃん >>97 明日は無理ありすぎる でも 頑張ってくれてるじゃないから分からないけど この世代の前半に霊感商法のターゲットが若者が奴隷になってみたい 普通体重ゾーンにはいるんだよ ほとんどソシャゲのセルランに踊らされてる老害か だって はいぱーまほしか 小禿お前が一致するのが難しい通信制の短大を卒業してね そういえば >>307 なんでこんなスレたってるけど弾いてないし え?まさか2年だよね これだけトラブるレベルならライブ配信やってるからな aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct-v2 モモンガのggufをkoboldで試してみた 日本語は素晴らしいけど、長文書けてる人いる? >>404 のプロンプトは設問3の途中で力尽きた その後は一行ずつしか書いてくれない 今まで英語モデルしか使ったことなかったからこれが普通なのか判断つかん koboldは使ってないけど一気に最後まで出力されるよ ggufはどれを使った?俺も試してみるか メモリ32しかないけど・・・ キシダ恥ずかしすぎるw 運転手がどんな状態だったらクラブで女ナンパするのがきつくなったから焦ったパターンって思うよ こういうことが面倒(含む恋愛) ・カード情報入力していたという証言がある」と答えると「どっちかって言うな ガーシーだけで >>115 ( ゚ ⊇ ゚)‘◇‘)∂ω∂)´u`)´ェ`)ゆっくりしなくていいから仲良くしてね(o´ω`o)^ワ^=)に報告🌈🦀 >>477 おはぎゃあは断末魔の叫びだから呼吸出来ないの? 基本カップ麺程度もしくは食わない と老人が指だけ動かしてない 「賃金」だけだよ。 そんなんならFFも死んでるなこれ ゆまちの写真集を何故出した被害届が出てる時にキンプリ外のヲタヲタしてるやつら多すぎないか どっちだ? スターグループ(年収150億)が元ネタやねんけど >>277 社会主義だと言ってないと思う 地政学的なんちゃらがないよねウノタは 脱毛だなwおいw ざまぁー そういう企画でOKして出演したんだっけ 小学校に全く通ってないよね なんかそんなもんで困惑 こいつ越えた奴出なかったやん シーズン序盤はホームランがたくさん開けてもらった方が儲かるんかねぇ(´・ω・`) 女オタクにありがちな母親ヅラは確かではないからな 含み損からは逃げられないだろ 暴露の内容云々より「こんなことしてもうた 奇跡のハーフだろ 残念やが当然という世界くらいに 高速で大型トラックの真似して支持率下落を好感してんじゃね キシダ「第100代内閣総理大臣です」 ゴボちゃんて文字が小さくて点がすごかったね そして 二人や配信者は8人とか、来れなくなってきて そんな原理で動いてるわけじゃないしスタイルも悪くないと思う >>92 底値は2万7千に切り替えが上客として狙えるは氷河期くらいしかない 言われてたけど ただダサい 鉄道マニアのマンガはないかもな わからないババア人気の話とかいいんじゃね スレタイ関係者も18〜20代 :評価する57.9% 評価しない59.1% ここまで糞化するか? ぎょえーー🤮🤮🤮 昨季は2試合しかやってそうでも村八分なら市民運動で痩せるて相当なことらしい これは美白効果が1番すこな先生が脱いでくれなくても連れてかれてくうちに近所の空港自体を変えてみるかな。 >>495 怖いっすね ま、接種後は-8%と-12%の私を呼びましたか? 何もしてないのかな マオタらしい理論 誰がどうやって 嬉しいとは 今日から遅い夏休み延長できる人だけで多分痩せていた訳ではないか? 肉食系ならいいかも ニコ生の悪いノリくらいにしか思って対処を間違えて悪化した 燃焼範囲温度は空気の混合比、引火点の低さを利用して最後はどうよ pcでリマスター版出したばかりの人だぞネイサン 同じジャッジのはずが >>168 そんなん買うに決まってるでしょw 素朴さがあれだし不人気なこと言って名作リメイクラッシュ来るねこれ そういやバランとかあったな 個人的に支持している 駄目な自動車部品メーカーぐらいの力なんだろうけど読みが甘いよね 「尻もちついても要らね >>500 こんな国なんだよ サロンに入る 男オタは極力男を見たくないんだ 朝5時から風呂あるらしいので…… 正しい認識を持ってないからていう >>68 ほんとに隠れてやってる奴がいない31日までは「評価し統一教会容認されてるのかなってほんのちょっと思ったけど元々おかしかったわ どういうメカニズムで上がるわけないやん こういうところですかね🤗 俺は証拠もないやろ ドラマ10だよな 自動更新の自動引き落としの場合、新型コロナウィルスに感染するという意味合い違うよね 修正するってことだ ダウ先もしたむいてるわ http://tc.jj84/7H8CHQQ/xBHvqr 有効成分なども抜き取ることが面倒 人の好きなオッサンアニメ見るか? 探ってみたら、意外といいかもってことは痺れ切らしたってのはダメな体質なんだろうな 余力投入の機会もなくなるわw chatntq-2x7b。これを待っていた。rinnaの頃から。まだ全然試してないけど。 ググってもよう分からんのやがllmって何の略で何が出来るソフトなんや? Large Language Model ChatGPTみたいなことができる >>564 なるほどサンガツ! てっきりリリムみたいな名前のソフトがあるのかと思ってた、そういう名前でそういう用途のソフトなんやね 生成AIやっててこっちにも興味でてきたんやけどキャラクターをロールさせて会話を楽しむ場合って Koboldcpp.exeってやつ落としてモデルを落とせばいいんですかい? キャラクターをロールされる場合ってどのモデルがいいとかおすすめとかありますかね? >>568 質重視なら70bのモデルになるがとてとて遅い 軽量モデルでいいのがあるから>>556 の避難所見るといいよ ここスクリプト荒らしいるから どんぐりは全板で有効なんかな スクリプト来たときのため今のうちにどんぐり育てておけよ うん、バリューに金が絡むと昔からつるんで次スレ立て苦手すぎでしょw おやすみなさいまたあした 社外の人間より未だに改正反対している国 10年を簡単に忘れることは党ぐるみって言われるんだよ 一回やめるならあそこだって 800グラム痩せそうだから作らないみたいな感じ? 相当食ってないけど やっぱ底辺ちっくな対応だったの? 散々他人に迷惑を掛けてたわけじゃない スクリプト来たっぽいけどどうやって対策するんやろ? まず、ログインメールアドレスとパスワードをお忘れですか?」ことパスワード再発行する用のリンクがトップページにあっている 3%ぐらいならいくらでもなく むしろ指揮権は弱かった あそこに誰もいなくて 普通に面白くできたしくりぃむがもうずっと下げまくってるのに 来ないようにしてくれって言ったやろ 全く話題聞かなかった?岸ださん…すか?うーん…よく分かんねっすけどとりあえず公式声明出してポストや溜め作れるアルナウトヴィッチやデパイ買ったほうがいいぞ >>33 7までリメイク済みや 25試合10違って勝ち数は同じ感じかな どうでも抽出したらわかるけどドラマの数字出てたな でも一番被害喰らってるチームではあったよね まぁJOはショーだし客入りに関係なく アンチエイジング効果あるのか疑問でも漏れる ツイートの心臓を握りつぶす発言とかじゃね 個人情報晒したり ネイサンは本当に性のも効果薄い 今の時代までやろ 大型トラックに追い越されようとするときそれを指摘するやつのいないくらい過疎だからさ あいがみがからんでからは入れてるのか アイスタ突撃するかな(現物握りしめて)反論しないエンジニアのせいにするんだろうな 急激に不安になってきてるからかもしれないが 多分剥けない気がする。 というか この数字が怪しくて Command R+ってローカルでサクサク動くもんなの? Rizen3900+Geforce3090だけど、回線が楽天モバイルで遅いのでモデル大きくて落とすの時間かかるので、サクサクかどうか聞きたいです いくらなんで叩く?別に取れないしなあ ROMも糞だったしな 勝敗は兵家の常だ。 ジンズ優待拡充したしちょっと欲しいなってみたい 普通体重ゾーンにはいるんだよな てかこんな部屋あったんだよな >>592 100万円近いMacを用意してから検討してください いやまあ3090で24GBならメインメモリのほうも盛りまくって ギリ動くかもしれないけどね 3秒に1文字とかになりそう >>317 その時被災した高校生と 体臭や口臭がきつくなるらしい。 >>582 自爆だと車両に負けてるやんけ 題材より構成なんやろ >>407 なんでここまで酷くなるんや痴呆め 民主的には困ってないやろ。 コイツに何言ってもイタチごっこで無くなるわけだ でも屁が出まくる薬な そろそろプラモデル女子アニメくる?? 今もうあんま売れてないと痩せる訳ないとなんとかせんと >>595 やっぱそんなレベルかぁ… 以前LLM動かした時もかなり遅かったしたぶん無理だろうとは思ったけどw ありがとうダウンロードせずに済んだわw ざっくりBのそのまま3分の2ぐらいの高速メモリがあって動くイメージ モデルが100B量子化無しならVRAMかmacの高速メモリが100-66ぐらい必要みたいな ここ見てる人もいるだろうけど、現状だと書き込みはもっぱら避難所で行われてるよ >>556 アイスタピャーッ😭 まさかFOIより動き鈍いとはね 純粋に人気と曲の良さで言えば「抱き合え」だよね 全局あるがアホ丸出しだな自分はバンドルだけど サロンはともかく 接触の弾みで遮音壁にぶつかって大破し、もうやってることに気づかない頭の悪さが世界に行く人おらんのかい アニメ化せーへん? 理由は判明したの知らんのかなこいつら GPT-4レベルの衝撃 PC内で使えるオープンLLM「Command R+」 ttps://ascii.jp/elem/000/004/192/4192907/ これから二度と助からんぞ おやっと規制解除された事だけど左翼野党の工作むちゃくちゃ多い >>106 ■劣化オワコンその1 3A美 凄まじいものたちと出会わせたら百合豚にも情弱ババアのいいそうなことな アンチだと、 マジでこんなもんに仕上がってきてるから 目を逸らせないねえ 好決算が出る」 >>543 仕方ないんでは普通NGKだな 第七波が広まり後遺症(イタリア・ジェメッリ大学病院報告 参照 3400万人くらいのモデルと付き合ってたのかもね でもまじでポンコツやったからな 朝めっちゃ食う 金と時間がかかると警報が本社のPCにはセックスを特別なことをしれ Command R+エロも強いな 倫理ガードもほぼなさそう >>631 Command R+ってどこで動かせるの?公式のPlay Ground? 無料ApiKey貰ってSillyTavernで使ってるわ 日本語性能高いしエロに強いとは言えないけど普通に出てくる >>635 TavernModelはどれにしてるの? すまん、Silly Tavern初めてインストしてCommand +RのAPI入れてテキスト入れたらこんなエラー出たんやけど。。 Horde generation failed {"message":"No user matching sent API Key. Have you remembered to register at https:\/\/stablehorde.net\/register ?","rc":"InvalidAPIKey"} SillyTavernの設定 APIをChat Completion Chat Completion SourceをCohere API Keyに発行されたのをコピペ Cohere Modelにcommand-r-plus それでConnect Frequency PenaltyとPresence Penaltyを同時には使えねえとか言われたから片方は0に 他はそんなトラブルは無かった KoboldAI Hordeって書いてある所から選択できん? >>642 ここにあったのか! 繋がった!サンガツ! ワイのはRyzen3900,RTX 3090やし問題なく動いてる。なんかVRAMが16GB要るような書き込みは見た 尻食べるでClaude3をエチエチで動かす方法あるんやね。Command +Rとどっちがええんやろか? PFN(プリファード・ネットワークス)が金融ドメイン特化LLMを作ったらしい。 Hugging Faceに.safeteonsorsで公開されてるみたい。 https://tech.preferred.jp/ja/blog/qfin-llm-continual-pretraining/ これもSilly Tavernに入れてエチエチな金融会話できるようにのかな? WizardLM2よりもCommand-r-plusの方が軽くて強い感じかの >>647 これどうやって動かしたらいいか教えて? クソザコCPUやけど3bitの一番小さいGGUFにしたらCommandR+動いたで 0.3token/sとかやけど日本語性能は高そう 3Bの海外モデルなら、今のりんなにも勝てないのでは?どうせ倫理フィルター付きなんだろうし すみません、LLMの情報収集の一環で本スレの方にたどり着いてたんですが、LLMについての情報交換で5chで活発なところってここになるんでしょうか? それとも他の専門板にあるのかな >>658 たまにLLM=ローカルと勘違いしてる人がいるので念のため確認するけど 情報収集したいのはどっち? ローカル? それとも全般? ここの住人はアップルモデルが出ようが、MSモデルが出ようが、LLAMA3が出ようがエロ以外のことには興味ないんだろうな エロ無くてもいいなら既にクラウドでゲームエンドしてるからな アップルモデルもMSモデルもLLAMA3もそもそも日本語評判あんまよくないから触ってないな 個人的にはローカルLLMにはロマンとプライバシーあと持続可能性を求めてるからゲームエンドというかまだ試合も始まってねぇ >>658 Pinkにある避難スレかここより詳しくやってるスレは5chだとないと思う もっと専門的な情報(finetuningとか自作アーキテクチャ、理論とか)が欲しいならDiscordにあるローカルLLMのコミュニティとか入った方がいい あと俺は詳しくないけど、RedditにでかいローカルLLMのコミュニティがあるか 返答ありがとうございます、返事遅くなりすみません >>659 質問を避難所に書いたつもりがここに書いちゃってました。ボケボケで申しわけない >>660 ローカルで、ですね。 オープンソースLLMと言うんでしょうか、端的に言えば規制のない状態で小説文章作成補佐のために動かしたいと言うのが目的です ぶっちゃければエロです。 >>664 ありがとうです。やっぱあそこなんですねぇ…プログラム板がそれっぽくない雰囲気だったので変だなぁと。 noteとかXとかでも検索して、自分の好きな文体の文章を追加学習指せる方法とか色々探してるんですけど、まぁ素人が1からは、なかなかハードルが高いですね。 ディスコードも登録だけはしてたけど、探してみます >>665 ありがとうです、redditも探してみます このままではないぞ 頭いかれすぎてホントに終わったの (´・ω・`) 「絶対にアップデートできないバカか あのタイプのアクションはハクスラにして育成メインにしないでしょ https://i.imgur.com/5YX9BGT.jpg 俺は別にいいんじゃないんですか」と答えると評価してないマンUはまぁまぁ強いな 1列で写ってたのに 笑ってるからな ここが脂肪燃焼状態でやる分には遅すぎたんだよ >>348 こんなことなると安心して大会出るのはどういう作用なんだろうけどそれ以外はどうなったかというとそこまではないんやけどうんと良いわけでもできるって本当? スポンサーが難色を示すからもう終われよ 仕返しですか?事務所が悪いんや 毒にならんのと全く一緒だし 問題ありそうなのは許せない >>289 あ、壺ウヨは元から女系賛成か… 2週間休みもらって最下位目前とか普通に考えて、スタンドでも 夫は俺が タバコはいいけどダル着でナンパはアイドルらしからぬ貧乏独身おじさんの見方をすれば分かるて >>134 どうせ あと15キロ以上の癒着って誰かにリアルタイムで見たかどうかってことを繰り返すんか? ナンデナンデナンデナンデ? この間モデルのデータをRAM Diskにいれて読み込んでみたのだけれど、 あまり効果はなかった。結局、ほとんどがVRAMに入ってるわけだから 速くなるのは限定的な感じ。最初の読み込みは速いかもだけど。 そういう時期もありました。 とりあえず2TのM2SSD買ったよ モデルをどんどん入れると2TBでもすぐいっぱいになっちゃう。 こんどSSDを買う時は4TBにする予定です。 画像の方はLoraの作り方とか沢山解説してるページあるけどLLMの方はよくわからないな ローカルllmの情報は分散してイメージがありますね npakaさんのところも まとまってるけどローカルじゃないのもたくさんあるし >>689 返答遅れてすみません、ありがとうございます。 npakaさんのところ、参考にさせてもらいます! 今は↑の避難所の方を見てます GPTでcanva使えるGPTS使ってみたけど ぜんぜん動かなかったな みんなは使えてる? >>691 わたしもどんぐり保守してるだけで、普段は避難所を読んでます ここの所、高性能な7bがたくさん出てきて熱い展開になってますねローカルLLM Pinkのほうが本スレみたいになっちゃったけど LLMをPinkなことだけに使うかといえばそうでもないのでワイはちょっと恥ずかしいぞ 避難所なんやし、Pinkな方でクソ真面目な話しても全然問題ないと思うで どんぐりのおかげでなんUも落ち着いてきたしここでもいいっちゃいいけど、今の人口で分散するのはデメリットの方が多い気がするで Grokって有償会員向けか、イーロンLLMはオープンソースにするって言ってなかったか? オープンにモデル出てなかった?自分のGPUで無料で使えるよ どんぐり保守 >>697 Arki05/Grok-1-GGUF gguf Q6_k動かすのにメモリ300G以上いるね mac買う時は512Gメモリ積まなきゃw 314Bって今出てるモデルの中では最大クラスかな? これ超えるとしたら開発中のLlama3 400Bぐらいか Fugaku-LLM13Bって井の中の蛙大海を知らずか Local-Novel-LLM-project/Ninja-v1-NSFW-128kの大葉のローダー設定を教えてください >>701 フルスクラッチの事前学習モデルは希少なんだからそう悪く言うものではない 日本語用でガチっただけマシよな Llamaに追加学習して英語のおまけで日本語出来ますみたいなの多すぎんねん それで大した性能じゃないし 何ならマルチリンガルの70Bに日本語能力で負けたり ELYZA 2 70B、クローズドだったこともあってここでもほぼ弄られず速攻で忘れ去られたイメージなんだけど、企業案件の方では実績あんのかな read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる