
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
オートエンコーダにアフィン変換を組み込む - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
オートエンコーダにアフィン変換を組み込む - Qiita
はじめに 前回の続きです。 前回の記事では、画像上の任意の点の座標$ (u, v) $をを入力として受け取り... はじめに 前回の続きです。 前回の記事では、画像上の任意の点の座標$ (u, v) $をを入力として受け取り、画像の値を出力するニューラルネットモデルを実装しました。 これをオートエンコーダのデコーダ部として使うことで、解像度に依存しない画像表現が行えます。 今回はこのデコーダに入力する座標値にアフィン変換を適用することを考えます。 各入力画像に対して適切なアフィン変換のパラメータを使うことができれば、画像の潜在表現が改善されることが期待できます。 実装(github) 実装 今回もVAEをベースにして、エンコーダ/デコーダともに全結合として実装しました。 エンコーダの出力: 潜在変数$ z $の平均/分散 + アフィン変換のパラメータ デコーダの入力: 潜在変数$ z $ + 画像上の座標値$ (u, v) $ となります。 アフィン変換のパラメータは スケール係数 scale 回転角