
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Text-to-Imageモデルの変遷: DALL·EからStable Diffusionまで
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Text-to-Imageモデルの変遷: DALL·EからStable Diffusionまで
はじめに 本稿では、OpenAIの代表的なtext-to-imageモデルに焦点を当て、DALL·EからStable Diffusionに... はじめに 本稿では、OpenAIの代表的なtext-to-imageモデルに焦点を当て、DALL·EからStable Diffusionに至るアーキテクチャの変遷を体系的に整理することを試みる。 DALL·E [2] ADM (Classifier Guidance) [1] GLIDE (Classifier-Free Guidance) [4] DALL·E 2 (unCLIP) [5] Stable Diffusion (Latent Diffusion) [6] 狙いとしては、これらのモデルの進化の過程を連続的な軌跡として理解できるようにすることを目指す。 各アプローチの概要 最初に、これらのアプローチの特徴と課題について簡単に述べる。 DALL·E 特徴: 自然言語のプロンプトをもとにzero-shotで画像生成を行う、初期の大規模モデルのひとつ 手法: decoder-only