SDXL学習、解像度上がったし細部の取りこぼしが少なくなってそうだから試しにepochを1/5ドン!LR5倍ドン!ってやったら見事に発散したわ
高解像度になってもやっぱり学習に近道はないやね・・・


>>458
>>484
前スレ868ンゴ、TE1とTE2の値を一応補足しとくやで
TE1はSD1.5に使われてたのと同じものが、TE2はなんかそれより高性能なやつが使われてるらしい
どうせSD1.5と同じでTEはunetに比べて早く過学習になるだろうから、とりあえずTE1はワイがSD1.5で使ってたunetの1/10のLRにしたんやけど
より高性能なTE2に無粋な学習をしたらなんかよくないのでは?と思ってとりあえずTE2のLRはTE1の1/10(=unetの1/100)に絞ってるやで
ただTEのLRはSD1.5の頃から破綻してないしまぁええか、で比較検証もなんもしてないマジの雰囲気やからもっとやりようあると思うわ