並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

正則化の検索結果1 - 12 件 / 12件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

正則化に関するエントリは12件あります。 機械学習学習回帰 などが関連タグです。 人気エントリには 『わしの思うリッジ回帰(L2正則化)と正則化法。 - Pseudo Theory of Everything』などがあります。
  • わしの思うリッジ回帰(L2正則化)と正則化法。 - Pseudo Theory of Everything

    1 はじめに 最近、我々+数名でスパースモデリングという分野を勉強しています。詳細はまた別の記事にて紹介するにして、今回はスパースモデリングの前段階に当たる リッジ回帰(ridge regresion) に脚光を当てます1。 読者には釈迦に説法かもしれませんが、リッジ回帰は L2 正則化とも呼ばれ機械学習の中でも非常にスタンダードな概念の一つになっています。しかし専門的に正則化法を扱ってみて、案外知らなかったことを知れたのでまとめました。 まず、リッジ回帰での損失関数は以下のような式で記述されます。 \begin{align} E = (y - X \vec{w})^2 + \alpha \vec{w}^T \vec{w} \end{align} 上記の損失を最小化するように係数の重みベクトル \(\vec{w}\) を推定します。解析的には \(\vec{w}\) について微分をしたもの

      わしの思うリッジ回帰(L2正則化)と正則化法。 - Pseudo Theory of Everything
    • タスクやモデルに依存しない新しい正則化手法: Flooding

      3つの要点 ✔️ 損失関数/入力空間/タスク/モデルに依存しない新しい正則化手法(flooding)を提案 ✔️ 「training lossが0になるまで学習し続けると汎化性が低下する」という自然な仮定に基づく ✔️ floodingを使った副次的な効果として、早い段階(epoch数100前後)でdouble descentという現象が確認できる Do We Need Zero Training Loss After Achieving Zero Training Error? written by Takashi Ishida, Ikko Yamane, Tomoya Sakai, Gang Niu, Masashi Sugiyama (Submitted on 20 Feb 2020) Comments: Published by arXiv Subjects: Machine Le

        タスクやモデルに依存しない新しい正則化手法: Flooding
      • 機械学習で「分からん!」となりがちな正則化の図を分かりやすく解説 - Qiita

        正則化、ムズいよ‥ 機械学習で過学習防止に使われる正則化 その例として、よく以下のような図が挙げられているかと思います この図を初めて見た時、少し考えて導き出した結論が以下です 「う~ん‥わからん!」 この図、解説が不十分なことも多く、初見で理解できた人って結構少ないのではないでしょうか‥ 図が理解できない事で正則化やリッジ回帰に苦手意識を持った方も多いかと思います(私もそうでした‥) この現状を打破すべく、図の解釈を自分なりに整理したので、分かりやすさ最優先で解説したいと思います。 正則化は機械学習では避けて通れないテクニックなので、皆さまの理解に少しでも貢献できれば幸いです。 ※注意 本記事は私の独自解釈が多く含まれています。 正確な記事を目指すためにも、「ここが間違っている!」という指摘は気軽に頂ければと思います 正則化とは? 前提知識として、過学習と正則化について解説します 過学習

          機械学習で「分からん!」となりがちな正則化の図を分かりやすく解説 - Qiita
        • GANへの新しい正則化「ICR」が期待大な件&解説 - Qiita

          (略称多すぎですね。) 0. 忙しい方へ GANにConsistency Regularizationを適用することで性能を大きく改善したよ Improved-CRは「balanced-CR + latent-CR」だよ bCRはリアル画像とフェイク画像両方にCRしたものだよ zCRはノイズ空間のCRをしたものだよ CRもICRも超絶シンプルで強力だよ CRとICRはSNとの相性が良く、他の正則化手法を大きく上回ったよ ICRはCIFAR-10(FID:9.21)とImageNet(FID:5.38)でBigGANにおけるSoTAを達成したよ "Improved Consistency Regularization for GANs", Zhao, Z., Singh, S., Lee, H., Zhang, Z., Odena, A., Zhang, H., (2020)より作成 1.

            GANへの新しい正則化「ICR」が期待大な件&解説 - Qiita
          • Implicit biasによる正則化効果 - Preferred Networks Research & Development

            本記事は,2019年度インターン生だった東京大学 D1 の中島蒼さんによる寄稿です.中島さんはインターンシップにおいて,畳み込みニューラルネットワークの学習について研究を行いました.この記事は,インターンシップ中に文献調査していたimplicit bias に関するレビューとなっています. NN の学習はなぜうまくいくのか 畳み込みニューラルネットワーク(Convolutional NN; CNN)は画像処理など様々な分野に応用され,大きな成功を納めています.すなわち,様々なデータについて,訓練データから学習したニューラルネットワーク(Neural Network; NN)を用いて未知のデータについての予測や分類が行われています.このようにNN の学習が上手くいく,すなわち未知データに良く汎化することは経験的には分かっていますが,理論的な説明はまだ完全には成功していません. NN に限らず

              Implicit biasによる正則化効果 - Preferred Networks Research & Development
            • 正則化項付き線形回帰は真の偏回帰係数を推定しているのか? - bob3’s blog

              最近、正則化項付き線形回帰についてちょっと調べてます。 それで以下の記事が気になりました。 qiita.com dropout009.hatenablog.com どちらも人工データを用いて、真の偏回帰係数を正則化項付き線形回帰で推定できるか?というシミュレーションをされています。 これは非常に興味深いので自分でもやってみようと思います。 先の記事はどちらもPythonを使われてましたが、私はR言語でやってみます。 試すのは以下の5つの手法です。 線形回帰 Ridge回帰 LASSO回帰 適応的LASSO回帰 Elastic net回帰 確認したいのは真の偏回帰係数に対する推定された偏回帰係数の分布です、 準備 まず下準備として、必要なパッケージの呼び出しと、必要な関数の定義をします。 パッケージの呼び出し。 if (!require("pacman")) {install.package

                正則化項付き線形回帰は真の偏回帰係数を推定しているのか? - bob3’s blog
              • 正則化をなるべく丁寧に理解する - 理屈編 - - 雑記 in hibernation

                機械学習における正則化の原理と挙動を理解するため、手法の概要をまとめると共に、実際に正則化を用いた最適化をシミュレートして挙動を確認します。 今回の記事では -理屈編- と題して、正則化の着想から具体的な手法(L1,L2正規化)の解説までをまとめます。最適化のシミュレートは -実践編- と称した次回の記事で行います。 なお、この記事は個人的な備忘録として作成しています。 1. はじめに 1.1. 過学習と正則化 機械学習や統計学においてサンプルデータからモデルの学習を行う際、過学習(モデルの形状がサンプルデータへの適合に特化しすぎてしまい、真に推定したい分布からかけ離れてしまう現象)がしばしば問題になります。正則化は過学習を抑えるメジャーな手法の一つです。正則化の考え方はシンプルです。学習時に損失関数に正則化項を加え、これを目的関数として最適化を行います。これにより正則化項がパラメータの大

                  正則化をなるべく丁寧に理解する - 理屈編 - - 雑記 in hibernation
                • マイナーな正則化手法「ラベル平滑化」は実は効果アリアリらしい - Qiita

                  教師あり学習のクラス分類タスクにおいては、既に様々な正則化手法が考案・実用化されています。 例えば、荷重減衰(Weight Decay)、ドロップアウト、バッチ正規化やレイヤー正規化などが知名度高いでしょう。 しかし「ラベル平滑化(Label Smoothing)」というのは、「あ~なんか聞いたことある」とか「何それ?」というくらい、認知度がありません。 なぜでしょう?実装は恐ろしいほど簡単で、ちゃんと 論文もある(※1) んですが。 ※1)「Rethinking the Inception Architecture for Computer Vision」のP6「7. Model Regularization via Label Smoothing」 本稿では、ラベル平滑化の正則化の効果をMNISTを使用して実験し、少なくともこの実験の条件下においては正則化の効果があることを示しています

                    マイナーな正則化手法「ラベル平滑化」は実は効果アリアリらしい - Qiita
                  • タスクやモデルに依存しない新しい正則化手法: Flooding

                    3つの要点 ✔️ 損失関数/入力空間/タスク/モデルに依存しない新しい正則化手法(flooding)を提案 ✔️ 「training lossが0になるまで学習し続けると汎化性が低下する」という自然な仮定に基づく ✔️ floodingを使った副次的な効果として、早い段階(epoch数100前後)でdouble descentという現象が確認できる Do We Need Zero Training Loss After Achieving Zero Training Error? written by Takashi Ishida, Ikko Yamane, Tomoya Sakai, Gang Niu, Masashi Sugiyama (Submitted on 20 Feb 2020) Comments: Published by arXiv Subjects: Machine Le

                      タスクやモデルに依存しない新しい正則化手法: Flooding
                    • 機械学習における正則化の意味を分かりやすく説明する - Qiita

                      はじめに 機械学習(ディープラーニング含む)に触れたことがある人であれば、正則化という言葉を一度は耳にしたことがあるでしょう。英語ではregularizationと言います。 一般的には、機械学習において過学習を防ぐための手法であると説明されています。さらに、損失関数を含んだ数式とともに、L1正則化やL2正則化などの正則化の具体的手法についても紹介されていることが多いです。ただ、そもそも過学習についてや、正則化を使うとなぜ過学習を防ぐことができるのかについて、イメージとともに分かりやすく説明されているものをあまり見たことがありません。 この記事では、機械学習における正則化の意味をイメージとともに分かりやすく説明します。あくまでも正則化の意味のイメージを掴むための記事なので、数式はあえて書きません。 過学習とは? 正則化の説明の前に、過学習について説明します。 例として、部屋の広さからマンシ

                        機械学習における正則化の意味を分かりやすく説明する - Qiita
                      • 三浦瑠麗 Lully MIURA on Twitter: "オミクロン感染のピークアウトを観測している国は、感染対策の差を問わず、世界各国とも流行開始から収束までほぼ3か月を要しているようです。 感染のピークを合わせ、正則化したもの。デルタ株の流行から切れ目なくオミクロン流行を経験している… https://t.co/fMH6QyiysU"

                        オミクロン感染のピークアウトを観測している国は、感染対策の差を問わず、世界各国とも流行開始から収束までほぼ3か月を要しているようです。 感染のピークを合わせ、正則化したもの。デルタ株の流行から切れ目なくオミクロン流行を経験している… https://t.co/fMH6QyiysU

                          三浦瑠麗 Lully MIURA on Twitter: "オミクロン感染のピークアウトを観測している国は、感染対策の差を問わず、世界各国とも流行開始から収束までほぼ3か月を要しているようです。 感染のピークを合わせ、正則化したもの。デルタ株の流行から切れ目なくオミクロン流行を経験している… https://t.co/fMH6QyiysU"
                        • CNNによる画像分類:背景の影響を低減させる正則化 - Qiita

                          はじめに CNNを用いた画像分類モデルを構築するときに、認識したい物体をちゃんと認識したモデルを作るのは結構難しかったりします。特に学習に用いるデータが少なくて偏りがあると以下の例のように画像の背景に基づいた分類モデルになってしまうこともあり得ます。 画像引用:https://arxiv.org/abs/1602.04938 この記事では画像の背景の影響を少しでも減らして認識したい物体を認識したモデルを作るための手法として、Orthogonal Sphere Regularizationという正則化があったので試してみます。 今回の記事で参考にした論文はこちら↓ 使用したコードは以下のGitHubリポジトリに置いてあります。PyTorchでCNNを構築し、学習はGoogle ColaboratoryのGPUを用いて行なっています。 Orthogonal Sphere Regularizat

                            CNNによる画像分類:背景の影響を低減させる正則化 - Qiita
                          1

                          新着記事