並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 2 件 / 2件

新着順 人気順

"batch normalization"の検索結果1 - 2 件 / 2件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

"batch normalization"に関するエントリは2件あります。 機械学習deeplearningAI などが関連タグです。 人気エントリには 『Batch Normalizationとその派生の整理』などがあります。
  • Batch Normalizationとその派生の整理

    概要 Deep Learningでは訓練データを学習する際は一般にミニバッチ学習を行います。 学習の1ステップでは巨大なデータセットの中から代表的なデータを一部取り出して、全体データの近似として損失の計算に使います。バッチことに平均の損失を計算することで、データ数に関係なく統一した学習をすることが狙いです。本記事ではニューラルネットワークの学習安定化を図るためのバッチ正規化手法“Batch Normalization”について議論します。 学習時の重みの初期値の重要性 勾配消失・過学習などに陥って学習に失敗した際、様々なことが要因のして考えられますが中でも見落としがちなのが重みの初期値です。各層の活性化関数の出力の分布は適度な広がりを持つことが求められます。適度に多様性を持ったデータが流れたほうが効率的な学習ができますが、偏ったデータが流れると勾配消失が起きる場合があります。そこで、初期値

      Batch Normalizationとその派生の整理
    • Batch Normalizationを理解する

      Batch Normalization 解決したい問題 - Internal Covariate Shift まず、Batch Normalizationで解決したい問題から説明したいと思います。 例えば、以下の図のように学習データとテストデータで特徴量の分布が違うということがしばしばあります。 この場合、学習データで多くみられた特徴量の値の領域ではテストデータの評価もうまくできる可能性が高いですが、学習データではあまり取らなかった値の領域を取るテストデータが多くなっていると、テストデータをうまく評価することができません。 これをCovariate Shiftと呼び(少し粗い説明にはなっています)、このCovariate Shiftを解決することをDomain Adaption(ドメイン適応)と呼んでいます。 さらに、ディープ・ラーニングではレイヤを何層も積み重ねます。 例えば2番目のレイ

        Batch Normalizationを理解する
      1

      新着記事