並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 9 件 / 9件

新着順 人気順

normalizationの検索結果1 - 9 件 / 9件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

normalizationに関するエントリは9件あります。 機械学習統計ruby などが関連タグです。 人気エントリには 『Demystifying Cache Normalization | Apollo GraphQL Blog』などがあります。
  • Demystifying Cache Normalization | Apollo GraphQL Blog

    Apollo Client has a particularly challenging responsibility: to make interconnected GraphQL data easy to use on the client-side. In most rich client applications, we need the ability to cache data and pass it to components. We also need to know when to re-fetch data vs. when to return what’s already cached; this helps to avoid making unnecessary network requests. This kind of caching logic can be

      Demystifying Cache Normalization | Apollo GraphQL Blog
    • CVPR 2021 Tutorial on Normalization Techniques in Deep Learning

      CVPR 2021, Tutorial on Normalization Techniques in Deep Learning: Methods, Analyses, and Applications Saturday morning (10:00 AM - 13:30 PM EDT), June 19, 2021 Slides and videos are available on this website. Normalization methods can improve the training stability, optimization efficiency and generalization ability of deep neural networks (DNNs), and have become basic components in most state-of-

      • 正規化(Normalization)/標準化(Standardization)とは?

        連載目次 用語解説 一般的に正規化(Normalization)とは、さまざまな大きさや単位の情報/データを、比べやすく考えやすくするために、共通の基準やルールに合わせること、つまりデータを「普通の(Normal)」状態にする作業のことを指す。例えば走った距離を比較する際に、メートル(m)単位とキロメートル(km)単位が混在していると理解しづらいため、共通の単位に合わせる(例えば全てをkmに統一する)ことで情報が扱いやすくなる。 「正規化」や「標準化」という用語はさまざまな分野で用いられており、各分野で意味も異なる場合がある。例えばデータベース設計の「正規化」は、同じテーブル内のデータの重複をなくすなどの目的で、データを複数のテーブルに分割したりして整理することを指す。以下では「数学/統計学/機械学習における正規化」について説明している。

          正規化(Normalization)/標準化(Standardization)とは?
        • High-Performance Large-Scale Image Recognition Without Normalization

          Batch normalization is a key component of most image classification models, but it has many undesirable properties stemming from its dependence on the batch size and interactions between examples. Although recent work has succeeded in training deep ResNets without normalization layers, these models do not match the test accuracies of the best batch-normalized networks, and are often unstable for l

          • Layer Normalizationを理解する

            今回は自然言語処理で一つのブレイクスルーとなったBERTについて解説したいと思います。 現時点で、BERTは極めて重要なモデルですので是非しっかり理解していただければと思います。 もちろん新しい仕組み ... Batch Normalizationとは ではまず、Batch Normalizationについて簡単に説明したいと思います(詳しくはこちら『Batch Normalizationを理解する』)。 Batch Normalizationは2015年に“Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift”というで最初に提案された仕組みになります。 https://arxiv.org/abs/1502.03167 タイトルにある通り、“Internal

              Layer Normalizationを理解する
            • Batch Normalizationとその派生の整理

              概要 Deep Learningでは訓練データを学習する際は一般にミニバッチ学習を行います。 学習の1ステップでは巨大なデータセットの中から代表的なデータを一部取り出して、全体データの近似として損失の計算に使います。バッチことに平均の損失を計算することで、データ数に関係なく統一した学習をすることが狙いです。本記事ではニューラルネットワークの学習安定化を図るためのバッチ正規化手法“Batch Normalization”について議論します。 学習時の重みの初期値の重要性 勾配消失・過学習などに陥って学習に失敗した際、様々なことが要因のして考えられますが中でも見落としがちなのが重みの初期値です。各層の活性化関数の出力の分布は適度な広がりを持つことが求められます。適度に多様性を持ったデータが流れたほうが効率的な学習ができますが、偏ったデータが流れると勾配消失が起きる場合があります。そこで、初期値

                Batch Normalizationとその派生の整理
              • 週刊Railsウォッチ: RailsにHealthControllerが追加、Active RecordのNormalizationほか(20230207前編)|TechRacho by BPS株式会社

                週刊Railsウォッチについて 各記事冒頭には🔗でパーマリンクを置いてあります: 社内やTwitterでの議論などにどうぞ 「つっつきボイス」はRailsウォッチ公開前ドラフトを(鍋のように)社内有志でつっついたときの会話の再構成です👄 お気づきの点がありましたら@hachi8833までメンションをいただければ確認・対応いたします🙏 TechRachoではRubyやRailsなどの最新情報記事を平日に公開しています。TechRacho記事をいち早くお読みになりたい方はTwitterにて@techrachoのフォローをお願いします。また、タグやカテゴリごとにRSSフィードを購読することもできます(例:週刊Railsウォッチタグ) 🔗Rails: 先週の改修(Rails公式ニュースより) 公式更新情報: Ruby on Rails — An endpoint for uptime mo

                  週刊Railsウォッチ: RailsにHealthControllerが追加、Active RecordのNormalizationほか(20230207前編)|TechRacho by BPS株式会社
                • Batch Normalizationを理解する

                  Batch Normalization 解決したい問題 - Internal Covariate Shift まず、Batch Normalizationで解決したい問題から説明したいと思います。 例えば、以下の図のように学習データとテストデータで特徴量の分布が違うということがしばしばあります。 この場合、学習データで多くみられた特徴量の値の領域ではテストデータの評価もうまくできる可能性が高いですが、学習データではあまり取らなかった値の領域を取るテストデータが多くなっていると、テストデータをうまく評価することができません。 これをCovariate Shiftと呼び(少し粗い説明にはなっています)、このCovariate Shiftを解決することをDomain Adaption(ドメイン適応)と呼んでいます。 さらに、ディープ・ラーニングではレイヤを何層も積み重ねます。 例えば2番目のレイ

                    Batch Normalizationを理解する
                  • UAX #15: Unicode Normalization Forms

                    Summary This annex describes normalization forms for Unicode text. When implementations keep strings in a normalized form, they can be assured that equivalent strings have a unique binary representation. This annex also provides examples, additional specifications regarding normalization of Unicode text, and information about conformance testing for Unicode normalization forms. Status This documen

                    1

                    新着記事