エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Stable Diffusion用LoRAのハイパーパラメータ備忘録|paseri
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Stable Diffusion用LoRAのハイパーパラメータ備忘録|paseri
バッチサイズ: 基本的に大きければ大きいほどよい(学習ステップ数がバッチサイズで除されるので計算時間... バッチサイズ: 基本的に大きければ大きいほどよい(学習ステップ数がバッチサイズで除されるので計算時間が短くなる)、out of memoryにならないギリギリを攻める。 エポック数: 学習強度を高める場合にはエポック数を多くしておく。1エポックごとに出力させておくと過学習にならないラインを把握できる。 繰り返し数: 正則化画像を利用しない場合には1でよい。その場合はエポック数を大幅に引き上げればOK(合計ステップ数が同じであればほとんど同じ学習結果になった) 正則化画像を利用する場合には主データセットとの枚数が等しくなるように調整する。 オプティマイザ: AdamW, AdamW8bitどちらを使っても良いが、AdamW8bitを使うとプロンプトへの応答性や手足の描画など、学習の精度が結構落ちた。また、VRAM削減効果は学習対象のサイズに依存するので精度低下とのバランスを考えるとAdamW