Augmentation-Aware Self-Supervision for Data-Efficient GAN Training 限られたデータで敵対的生成ネットワーク(GAN)をトレーニングすることは価値がありますが、そのような状況では弁別器が過剰適合する傾向があるため、困難です。最近提案された弁別器用の微分可能なデータ拡張技術は、GANのトレーニングのデータ効率の向上を示しています。ただし、単純なデータ拡張は、ディスクリミネーターへの拡張に望ましくない不変性をもたらします。不変性は、弁別器の表現学習能力を低下させ、それによって生成器の生成モデリング性能に影響を与える可能性があります。データ拡張の利点を継承しながら不変性を軽減するために、拡張された元のデータが与えられた場合に拡張のパラメータを予測する、拡張を意識した新しい自己監視型弁別器を提案します。さらに、予測タスクは、トレーニ