タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

loraとlcmに関するpcrdのブックマーク (1)

  • LCM LoRA の概要|npaka

    以下の記事が面白かったので、かるくまとめました。 ・SDXL in 4 steps with Latent Consistency LoRAs 1. はじめに「LCM」 (Latent Consistency Model) は、元モデルを別モデルに蒸留することで、画像生成に必要なステップ数を減らす手法です。25~50ステップかかっていた処理を4~8ステップで可能にします。 蒸留したモデルは、より小さくなるように設計される場合 (DistilBERT、Distil-Whisperなど)と、必要なステップ数が少なくなるように設計される場合があります。これは通常、膨大な量のデータ、忍耐力、少数のGPU を必要とし、時間とコストが必要でした。しかし、それも過去の話です。 11月9日 、「LCM」で蒸留したかのように「Stable Diffusion」「SDXL」を質的に高速化できる新手法「LCM

    LCM LoRA の概要|npaka
    pcrd
    pcrd 2023/11/25
    “2. LCM LoRA の概要 「LCM LoRA」のコアとなる考え方は、完全なモデルの代わりに、LoRA層と呼ばれる少数のアダプタだけを学習することです。その結果得られるLoRAは、別々に抽出することなく、ファインチューニングし
  • 1