>>519
検証おつやで
Prodigyでのデフォルト値は1e-08 ~ってのどこで見たかわかったりする?
わしもProdigyお勉強中なんだけど、いまだにコマンド直打ちマンでこのガイド ( https://civitai.com/articles/3105/essential-to-advanced-guide-to-training-a-lora ) みて引数↓追加してて学習しないのは回避できてたっぽいわ
"decouple=True" "weight_decay=0.01" "d_coef=0.8" "use_bias_correction=True" "safeguard_warmup=True" "betas=0.9,0.99"

あとは余談だけどとしあきによると「過学習と感じた場合は、主に下記の変数で抑制できる。
--optimizer_args "d0=1e-5" "d_coef=0.4"
・デフォ値は,d0=1e-6,d_coef=1.0。
・d_coefはLrと同じ感覚で変更。0.5~2.0が適当とのこと。」
ちなコマンドでepsなるものを設定するのはそのまま --optimizer_args "eps=1e-08"