>>690
--save_model_as=safetensors --prior_loss_weight=1.0 --max_train_steps=400 --learning_rate=1e-4 --optimizer_type="AdamW8bit" --xformers --mixed_precision="fp16" --cache_latents --gradient_checkpointing --network_module=networks.lora --caption_extension=.txt --save_every_n_epochs=1 --max_train_epochs=10
こんな感じでやってるんだがなんか変えた方がいいところある?
LoRa勉強し始めたばっかりでそこまで理解進んでなくてスマソ