Retrieval-based-Voice-Conversion──RVCについての情報交換とかのスレ
*これを使えばおっさんが誰でも自然な女性ボイスを出せるようになるわけではありません。
このソフトは特定のキャラや人物の声を出せるようになるためのソフトです
このソフトにしろ既存のボイスチェンジャーにしろ同様ですが、女性ボイスを出すためにはまずボイストレーニングが必要です。
wiki
https://seesaawiki.jp/rvc_ch/
※前スレ
なんJRVC部 4
https://fate.5ch.net/test/read.cgi/liveuranus/1699700267/
【ボイスチェンジャー】なんJRVC部 5
レス数が900を超えています。1000を超えると表示できなくなるよ。
2023/12/05(火) 17:00:39.54ID:NtbcvmEK
2024/01/31(水) 18:58:32.56ID:rKqYD+8m
他のスレだが反AIがまた激しくなってきたな
2024/01/31(水) 18:59:20.46ID:rKqYD+8m
揚げ足取ってAIは有罪!有罪!と釣りを楽しんでるように見える
2024/01/31(水) 19:00:57.93ID:rKqYD+8m
2024/01/31(水) 19:10:50.57ID:bLeW3YvY
2024/01/31(水) 19:13:26.94ID:bLeW3YvY
826今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/01/31(水) 19:36:48.84ID:785sP5hd なるほどじゃあ自分の声素材だけ30分くらいを使って同条件で学習データ出させても出てくるものはだいたいおなじになる感じか
多人数のを混ぜて使ってるとわからんって感じで
特定の短い言葉だけ妙にうまく出ないからなんとかならんかと思ってたけどもう何回か同じ条件で自分で確かめてみるかな
多人数のを混ぜて使ってるとわからんって感じで
特定の短い言葉だけ妙にうまく出ないからなんとかならんかと思ってたけどもう何回か同じ条件で自分で確かめてみるかな
2024/01/31(水) 19:59:24.65ID:itZflxuy
反ワクは専門家に逆らうことで"専門家より詳しい俺!"っていうのに酔ってるわけで、まあいかにも低学歴やなんの取り柄もないカスが好きそうな感じの動機だけど、反AIってどういう動機なんだろ
2024/01/31(水) 20:46:35.87ID:eIqjKucX
RVCなら学習より変換元のソースのほうが影響大きいのと過学習にシビア
30epと入力次第くらい、つまりトレーニング
学習は1本メインにして声のコシ求めるか音程上下求めて足すかどうかくらいかと
30epと入力次第くらい、つまりトレーニング
学習は1本メインにして声のコシ求めるか音程上下求めて足すかどうかくらいかと
2024/01/31(水) 21:25:58.33ID:mawgS5z0
ボイチェン興味あってRVC試してみたんだけど
明瞭にしゃべらないとちゃんと変換できないのはわかった
でもこれって学習している元の音声がそういう音声だからだとは思うけど
ボソボソしゃべりの音声で学習したら同じようなぼそぼそしゃべりでもいけるの?
明瞭にしゃべらないとちゃんと変換できないのはわかった
でもこれって学習している元の音声がそういう音声だからだとは思うけど
ボソボソしゃべりの音声で学習したら同じようなぼそぼそしゃべりでもいけるの?
2024/01/31(水) 23:53:00.13ID:bLeW3YvY
>>829
おそらくいけるとは思う
ただ、特徴的だったりわりと明瞭に喋るキャラを学習したモデルはどう喋ってもそれなりにその声が出るが、ボソボソ無感情に喋るキャラだけを学習したモデルは、喋り方もある程度本家のマネをしないと再現出来ないかも
おそらくいけるとは思う
ただ、特徴的だったりわりと明瞭に喋るキャラを学習したモデルはどう喋ってもそれなりにその声が出るが、ボソボソ無感情に喋るキャラだけを学習したモデルは、喋り方もある程度本家のマネをしないと再現出来ないかも
2024/02/01(木) 05:03:28.63ID:U06S5pIS
AIカバーも当たり強くなってきてるけど毎回モノマネ芸人とAIカバー似てるけどなんで後者だけそんな叩かれるんやろって思ってしまう
2024/02/01(木) 07:15:51.93ID:tztx1CCF
誰が何を叩いてようが勝手にやらせとけ、そんなの気にする意味ないわ
2024/02/01(木) 14:46:10.29ID:RhyxAkU6
https://huggingface.co/spaces/litagin/moe-speech-similarity-map
欲しいって言ってた人いたからMoe Speechの類似度グラフ部分だけ見れるようにしといたで
欲しいって言ってた人いたからMoe Speechの類似度グラフ部分だけ見れるようにしといたで
2024/02/01(木) 14:58:25.55ID:o+pWZavi
2024/02/01(木) 15:15:33.25ID:H7/y1xnp
>>833
正直助かるゥ!
正直助かるゥ!
836今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/01(木) 15:25:04.77ID:/kwvb+um Bert-VITS2の日本語特化版できたらしいやん
https://github.com/fishaudio/Bert-VITS2/releases/tag/JP-Exta
https://github.com/fishaudio/Bert-VITS2/releases/tag/JP-Exta
2024/02/01(木) 16:01:25.79ID:wmQwqYAF
よくわからんけど、styleのpretrainedフォルダのファイルと入れ替えればいいのかな?
2024/02/01(木) 16:15:38.08ID:RhyxAkU6
Bert-VITS2のJapanese-Extraは、本家Bert-VITS2のJapanese-Extraブランチでしか使えんで
(よさそうならStyleのほうもJapanese-Extraの構造やモデルを使うようにバージョンアップ予定やけどいつになるかは分からん)
(よさそうならStyleのほうもJapanese-Extraの構造やモデルを使うようにバージョンアップ予定やけどいつになるかは分からん)
2024/02/01(木) 16:52:38.57ID:dWuaE8uC
なるほど感謝やで
まあ自分はエロ専なので、通常会話の精度よりもnsfw音声のクオリティと量をどう高めていくかのほうに頭を悩ませてるで
まあ自分はエロ専なので、通常会話の精度よりもnsfw音声のクオリティと量をどう高めていくかのほうに頭を悩ませてるで
2024/02/01(木) 17:37:14.12ID:RhyxAkU6
Moe SpeechのNSFW版みたいなのも出したい気はするんやが、いつになるか分からん
適当なエロゲ買えば1つでもまあまあ音声データは多いから使える気するで
適当なエロゲ買えば1つでもまあまあ音声データは多いから使える気するで
2024/02/01(木) 18:32:08.67ID:D4t+FXZF
そもそもぶっこ抜きがどうやんのか分からねえよ!
2024/02/01(木) 18:49:08.36ID:H7/y1xnp
そんなお子様はとっととおうちに帰って suck your mama's tities!!!
2024/02/01(木) 19:44:51.96ID:bSO6H2+B
2024/02/01(木) 19:50:40.83ID:D4t+FXZF
Pub: 01 Feb 2024 10:37 UTC
妙だな、、、
妙だな、、、
2024/02/01(木) 19:51:34.32ID:D4t+FXZF
言う手持ってるエロゲサクレットの1個だけだけどためしてみるわさんくうー
2024/02/01(木) 19:53:07.49ID:z8PjzpdC
エロいこと言わせてシコってるだけなのにホンマ頭が上がらんな
ドチャクソエロいの作ったるで!
ドチャクソエロいの作ったるで!
2024/02/01(木) 20:01:59.73ID:7wYXzngL
エロゲってファイル名やフォルダで声優ごとに分けられてるからええよな
848今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/01(木) 20:42:18.50ID:rZIgo+l5 シナリオファイル読み込めればセリフも抜いてこれるしな
2024/02/02(金) 01:19:41.07ID:5M6F8/h0
2024/02/02(金) 09:16:59.45ID:2dS0uk0B
FANZAのエロソシャゲから持ってくるのもありかな、寝室は大体単一話者だし
2024/02/02(金) 09:46:54.19ID:3LyUPFnw
うーんそれも音声抜きがなあ
なんかいい方法ないかな
素人エロチャで一通り喋らせてからオナニーさせるとか…
あれはあれで高いけど…
なんかいい方法ないかな
素人エロチャで一通り喋らせてからオナニーさせるとか…
あれはあれで高いけど…
2024/02/02(金) 10:58:59.74ID:4VijEr4E
Applio 3.0.5キタで ようやく3.0以前と同じ機能になったかなってレベルや
ライブラリサイズが小さくなってるから前のと置き換えてもそろそろいい頃
https://github.com/IAHispano/Applio/releases/tag/3.0.5
ライブラリサイズが小さくなってるから前のと置き換えてもそろそろいい頃
https://github.com/IAHispano/Applio/releases/tag/3.0.5
2024/02/02(金) 13:07:04.89ID:ghzcTUQO
Bert-VITS2のJapanese-Extra、なかなか良さげやで。学習回していくとあった声のガタツキが少なくなってるっぽい。
あと日本語g2pが修正されたからイントネーションやアクセントも違和感少なくなってる気がするけどプラセボかもしらん。
あと日本語g2pが修正されたからイントネーションやアクセントも違和感少なくなってる気がするけどプラセボかもしらん。
2024/02/02(金) 13:36:45.29ID:ghzcTUQO
pytorchのバージョンが2.2.0になった影響でWindowsでは学習がうまくいかんっぽいから、
Windowsユーザーは
https://pytorch.org/get-started/previous-versions/#linux-and-windows-1
でtorchいれる必要があるっぽいことに注意
Windowsユーザーは
https://pytorch.org/get-started/previous-versions/#linux-and-windows-1
でtorchいれる必要があるっぽいことに注意
2024/02/02(金) 13:48:53.34ID:d0Chqpbz
856今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/02(金) 16:31:13.76ID:dj3s9Rzt2024/02/02(金) 17:58:09.66ID:X3B/EZfx
2024/02/02(金) 18:33:07.47ID:8cPy0C5M
Applio3.0.4にOv2superやったけどRVCからザラザラ感が減った気がするかもしれないくらいでほぼ一緒だった
学習スピードはApplioの方が30~40%早いけど
学習スピードはApplioの方が30~40%早いけど
2024/02/02(金) 19:15:38.89ID:d0Chqpbz
Applioだから速かったのか、superだから速かったのか
どちらにせよ明確な差は速度だけってことかな
なんだかんだでボイチャならRVCが一番精度高いからもっとバージョンアップして欲しいんだがなぁ
どちらにせよ明確な差は速度だけってことかな
なんだかんだでボイチャならRVCが一番精度高いからもっとバージョンアップして欲しいんだがなぁ
860今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/02(金) 20:58:51.45ID:mlNNC5wB2024/02/02(金) 21:09:03.97ID:d0Chqpbz
そもそも本家のRVCはコードがぐちゃぐちゃでかなり無駄が多いらしいよ
だだぱん氏もそれがイヤで書き直してたぐらいだし
だだぱん氏もそれがイヤで書き直してたぐらいだし
862今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/02(金) 21:55:13.01ID:eXFy0MzO Style-Bert-VITS2にJapanese-Extra搭載待ち
2024/02/03(土) 01:20:34.82ID:DORd/8Oc
https://github.com/litagin02/Style-Bert-VITS2/releases/tag/2.0
Style-Bert-VITS2にJapanese-Extra搭載したで
Style-Bert-VITS2にJapanese-Extra搭載したで
2024/02/03(土) 01:40:01.67ID:LZNcyo3a
>>863
乙やで!
乙やで!
2024/02/03(土) 02:08:43.70ID:DORd/8Oc
JP-Extra、かなり音質の自然性が増してアクセント抑揚も自然になる気がする。どこまでがプラセボか判断できんけどたぶんめっちゃよくなっとる。
ただ英語中国語が話せなくなるから、トリリンガルの売りは消えるな。
無理やり英語中国語のモデルから取ってきてマージして喋らせるということもできはしそうやけどちょっと無理がありそう
まあこのスレの人らなら日本語オンリーでもええやろ
ただ英語中国語が話せなくなるから、トリリンガルの売りは消えるな。
無理やり英語中国語のモデルから取ってきてマージして喋らせるということもできはしそうやけどちょっと無理がありそう
まあこのスレの人らなら日本語オンリーでもええやろ
866今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 07:05:31.45ID:EtEP7KDL >>863
colabにマージ機能もほしいな
colabにマージ機能もほしいな
867今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 07:50:36.31ID:EtEP7KDL 使わない方選ぶとエラーが出る
https://imgur.com/V795QbM.jpg
https://imgur.com/V795QbM.jpg
2024/02/03(土) 08:30:41.72ID:a/k4myDh
>>863
ありがとーやで!
ありがとーやで!
869今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 10:05:00.41ID:DORd/8Oc >>867
JP-Extra使うならそっちのセルを実行しろ(train_ms_jp_extra.pyて書いてある方)ってことやけど、それでもエラー出る?
JP-Extra使うならそっちのセルを実行しろ(train_ms_jp_extra.pyて書いてある方)ってことやけど、それでもエラー出る?
870今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 10:09:19.11ID:EtEP7KDL >>869
まずはJP-Extraなしで学習したい
まずはJP-Extraなしで学習したい
871今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 10:12:58.62ID:roxCT098 JP-Extra
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory ./slm/wavlm-base-plus.
リポジトリ見てもそんなファイルないんだがどうすればいい?
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory ./slm/wavlm-base-plus.
リポジトリ見てもそんなファイルないんだがどうすればいい?
2024/02/03(土) 10:15:58.23ID:DORd/8Oc
2024/02/03(土) 10:16:28.67ID:DORd/8Oc
>>870
構造がいろいろ違うから、無しなら無しの設定で最初から最後までやらんとだめやで。それでエラー出たら報告して。
構造がいろいろ違うから、無しなら無しの設定で最初から最後までやらんとだめやで。それでエラー出たら報告して。
874今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 10:18:29.16ID:EtEP7KDL よく見たら前処理に設定あったのか
すまんな
すまんな
2024/02/03(土) 10:21:12.89ID:7X5kEa/u
2024/02/03(土) 10:26:08.88ID:RY1STVNL
まだJapanese-Extra搭載のアプデはしてないStyle-Bert-VITS2だけど、「もう疲れちゃって、全然動けなくてェ…」で音声合成したらエラー吐いた
自分のクソモデルが悪いのかと思ったけどjvnvの4モデル全部で出た
テキストを削っていったら「んう」周りが怪しいと思った、だがその他一切のことはわかりません!
https://i.imgur.com/5d80Gl7.png
自分のクソモデルが悪いのかと思ったけどjvnvの4モデル全部で出た
テキストを削っていったら「んう」周りが怪しいと思った、だがその他一切のことはわかりません!
https://i.imgur.com/5d80Gl7.png
877今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 10:30:19.16ID:EtEP7KDL >>876
たぶん[n]が読めないっぽい
たぶん[n]が読めないっぽい
878今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 10:32:53.10ID:EtEP7KDL 「関羽」とか「懇意」は「カヌ」「コニ」になるな
2024/02/03(土) 10:32:56.86ID:DORd/8Oc
2024/02/03(土) 10:35:09.78ID:DORd/8Oc
「ん」の「n」がナ行になる読みの修正も今回でちゃんとされたはず(読み記号にNを使うようにした)
2024/02/03(土) 10:47:16.68ID:RY1STVNL
>>879
なおったァ!
なおったァ!
2024/02/03(土) 11:06:53.42ID:sp9zp5j3
2024/02/03(土) 11:17:16.94ID:hz5RLZAe
うーん、確かに調教にかかる時間が当社比で半分くらいになった気がするので精度上がったんだろうな
なんならもう調教しなくてもいいくらいやな
ただ、どうしようもないんだろうけど、漢字の読み間違いが結構あるやね
パンツの柄をえと言ったり
なんならもう調教しなくてもいいくらいやな
ただ、どうしようもないんだろうけど、漢字の読み間違いが結構あるやね
パンツの柄をえと言ったり
2024/02/03(土) 11:26:17.80ID:DORd/8Oc
読み間違えはなー。原理的には内部をいじれば感じそのままで読みのみを手動修正はできると思うんやけど、
UIでうまく実装するのが難しそうや
UIでうまく実装するのが難しそうや
885今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 12:20:54.55ID:Fw3xFpQl アップデートしたけど「○ん○」が直らない...
念のため新規で作り直したけど駄目だった、おま環かな?
念のため新規で作り直したけど駄目だった、おま環かな?
2024/02/03(土) 12:29:38.78ID:DORd/8Oc
>>885
ある特定の単語や並びによって駄目とかありそうやから、どの単語が具体的にエラーでたか報告してくれると助かる
ある特定の単語や並びによって駄目とかありそうやから、どの単語が具体的にエラーでたか報告してくれると助かる
887今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 12:41:00.88ID:Fw3xFpQl >>886
推論はエラーなくできるんですけど上で修正してもらった「ん」の「n」がナ行になる読みの修正の部分、
カンウ、コンイ、などの発音が「かんぬ」「こんに」になってしまいます
母音以外の「ん〇」だと問題なく発音してくれます
推論はエラーなくできるんですけど上で修正してもらった「ん」の「n」がナ行になる読みの修正の部分、
カンウ、コンイ、などの発音が「かんぬ」「こんに」になってしまいます
母音以外の「ん〇」だと問題なく発音してくれます
888今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 12:50:47.56ID:Fw3xFpQl2024/02/03(土) 12:54:42.97ID:DORd/8Oc
>>887
あーなるほど、推論はエラーはなくてアクセントのところの読みも間違ってないけど「懇意」の生成された発音が「こんに」とかになるってことかな
旧verモデルは、「懇意」の音素列が「k o n i」として処理されてて「ん」とナ行の区別がついてないから、それはたぶん旧verやとどうにもならん点やな
(事前学習モデルがそもそも「ん」を「n」で学習されていたことの弊害)
その意味でもJP-Extraのほうがええな
あーなるほど、推論はエラーはなくてアクセントのところの読みも間違ってないけど「懇意」の生成された発音が「こんに」とかになるってことかな
旧verモデルは、「懇意」の音素列が「k o n i」として処理されてて「ん」とナ行の区別がついてないから、それはたぶん旧verやとどうにもならん点やな
(事前学習モデルがそもそも「ん」を「n」で学習されていたことの弊害)
その意味でもJP-Extraのほうがええな
890今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 13:00:04.39ID:Fw3xFpQl891今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 14:12:23.84ID:EtEP7KDL JP-Extraは1ステップごとに経過が出るのかよ
892今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 16:23:56.05ID:vwCazGNV2024/02/03(土) 16:30:06.05ID:uNlSyu44
2024/02/03(土) 17:37:55.65ID:DORd/8Oc
両者ともにパンツにめっちゃこだわってて草
895今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 21:20:31.87ID:aJTOwX28896今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 21:26:38.97ID:aJTOwX28 NVAと間違たごめんちゃい
でもアクセラレーターさんダウンロード待ちなしで聞けたわ
でもアクセラレーターさんダウンロード待ちなしで聞けたわ
897今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/03(土) 23:54:14.96ID:zDr2/QIY898今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/04(日) 14:09:38.02ID:p9NOopAP VR機器本体のマイクで使ってたりするんだけど普通のボイスチェンジャーと違ってオーディミキサーとかマイクを使うことで遅延とかが改善されるとかはRVCでもあるのかな?
899今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/04(日) 14:10:26.91ID:p9NOopAP ごめん普通のボイスチェンジャーと同じように、です
2024/02/04(日) 14:14:45.22ID:kOuATE1e
遅延は純粋にマイクの遅延分が影響しそう。遅延よりもマイクの音質による質の差がありそう
2024/02/04(日) 14:33:36.85ID:+aLuUfsz
『普通のボイスチェンジャー』が何を指しているのかがまずわからん
察するに、quest2とかをPCに繋いでVRchatでボイチェンしたいのだが、quest2のマイクを通すよりPCのマイク直のほうが遅延は少ないのか?みたいな疑問かね
だとしたらもちろんそうだろうな、と
でもそれ以上にRVCの設定を詰めたりグラボ新調したほうが効果は大きいかな、と
察するに、quest2とかをPCに繋いでVRchatでボイチェンしたいのだが、quest2のマイクを通すよりPCのマイク直のほうが遅延は少ないのか?みたいな疑問かね
だとしたらもちろんそうだろうな、と
でもそれ以上にRVCの設定を詰めたりグラボ新調したほうが効果は大きいかな、と
2024/02/04(日) 14:44:24.82ID:pCDI+w5G
基本的にバッファを少なくした方が即応的になる
でもバッファが少ないとガビるから4090みたいな上位機種に買い替えてパワーで処理するしかない
安く済ますなら専用チップの載ったボイチェンインターフェースを買うのが待ち時間がない
でもバッファが少ないとガビるから4090みたいな上位機種に買い替えてパワーで処理するしかない
安く済ますなら専用チップの載ったボイチェンインターフェースを買うのが待ち時間がない
903今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/04(日) 15:30:49.96ID:a+skvKu1 遅延は入力遅延+ボイチェン処理の遅延+出力遅延
>オーディミキサーとかマイクを使うことで遅延とかが改善される
これで改善されるのは入力遅延と出力遅延
いまRVCの遅延がどのくらいあるかわからんけどRVCの遅延の方が遙かにデカイから
RVCの遅延を詰めれてないならオーディオインターフェース変えても大して変わらんと思う
>オーディミキサーとかマイクを使うことで遅延とかが改善される
これで改善されるのは入力遅延と出力遅延
いまRVCの遅延がどのくらいあるかわからんけどRVCの遅延の方が遙かにデカイから
RVCの遅延を詰めれてないならオーディオインターフェース変えても大して変わらんと思う
904今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/04(日) 20:57:24.89ID:15msUIb1 JP-Extraの学習で共有メモリの消費激しいのって仕様なんかな?
2024/02/04(日) 21:15:42.91ID:kOuATE1e
構造が一部ver 2.3みたいになっとるし、VRAM使用量増加とかはそれが原因やろうな
906今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/04(日) 21:52:04.75ID:15msUIb1 バッチサイズ2でVRAMと共有合わせて16GB超えるくらい派手にメモリ使うで…
2024/02/04(日) 22:14:04.57ID:7W0/eqdh
Extraでの学習し直し、まだ手つけてないけどそんなメモリ使うのか…
2024/02/04(日) 23:54:16.90ID:kOuATE1e
データ量にもよるから一概には言えんで、ワイのとこじゃ今までと同じバッチサイズで問題なく学習できとる
909今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/05(月) 00:16:07.44ID:38qfj2Y3 場合によるけどVRAMあふれてても速度低下はないから心配する必要はないで
とはいえ8GB勢ワイはVRAM不足で若干遅くなる時あって気になったから4ステップごとにempty_cacheさせてる
とはいえ8GB勢ワイはVRAM不足で若干遅くなる時あって気になったから4ステップごとにempty_cacheさせてる
910今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/05(月) 03:10:54.93ID:7X02jBbQ Styleの方は設定変えたりBatch size2でもメモリ不足になるようになったから本家の方で学習してる
この前までBatch size8でも出来てたんだけどなんでか急に出来なくなっちまったわ
この前までBatch size8でも出来てたんだけどなんでか急に出来なくなっちまったわ
911今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/05(月) 06:57:46.74ID:FgBYXr7X colabで学習したほうがいいかもしれないね
2024/02/05(月) 11:26:50.42ID:ZymMGHH/
本家JP-Extraと構造は同じ(というよりむしろ小さくなってる)はずなんやがなんだろうなあ……
913今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/05(月) 12:56:27.44ID:kpwt0Jhs 自分で音源抜いて学習テストしようとして文字起こしかけたらダミーのデータまで抜いちゃったらしくてめっちゃ時間かかるわ学習にも使えないわで辛えわ
2024/02/05(月) 13:13:38.51ID:wptVEXXj
nsfw の学習済みモデル消えちゃった?
915今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/05(月) 14:10:26.10ID:FgBYXr7X Extraだと学習が1ステップずつ表示されるのって変えられないの
2024/02/05(月) 16:10:29.42ID:ZymMGHH/
gc.collect()とtorch.cuda.empty_cache()って効果あるんかね
本家が消してたから消しちゃったけど復活させて試してみるか
本家が消してたから消しちゃったけど復活させて試してみるか
2024/02/05(月) 18:44:05.50ID:g0NVRHqc
RVCでもstyleのような声質とかの階層マージできるようにならないかな
ddpn版は互換が無いし
ddpn版は互換が無いし
2024/02/05(月) 18:56:39.53ID:TJX+/0UC
画像生成AIみたいに学習元の声をプロンプトで呼び出したいわ
いずれは全て統合されてそうなるのだろうけどまだ先だろうな
いずれは全て統合されてそうなるのだろうけどまだ先だろうな
919今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった
2024/02/05(月) 19:04:16.12ID:iK2MVaq02024/02/05(月) 20:44:41.28ID:ZymMGHH/
ddpn版で一応マージは本家RVCでも機能するで。
ただ階層マージ若干実験したことはあるんやけど、明確にどこになにが入ってるかとかはようわからんかった。
前書いた実験レポ
https://rentry.co/dkirg
ただ階層マージ若干実験したことはあるんやけど、明確にどこになにが入ってるかとかはようわからんかった。
前書いた実験レポ
https://rentry.co/dkirg
レス数が900を超えています。1000を超えると表示できなくなるよ。