タグ

ブックマーク / www.hellocybernetics.tech (2)

  • 機械学習で抑えておくべき損失関数(回帰編) - HELLO CYBERNETICS

    はじめに ニューラルネットワーク 損失関数を考えるモチベーション 回帰の損失関数 色々な損失関数 二乗損失 分位損失 Huber損失 感度損失(ε-許容損失) 損失関数の図示 二乗損失 分位損失 Huber損失 ε-感度損失(ε-許容損失) 比較 損失関数の使い分け1 損失関数の使い分け2 損失関数の使い分け3 最後に 分類に関する損失関数 はじめに 機械学習における教師あり学習では、入力に対してパラメータを用いて関数を構築し、正解データに対して損失を定義し、これを最小化する手続きを取ります。 損失を、色々なとの組に対して計算し、その総和が最小化されるようにを決めることを学習と呼びます。これにより未知のデータを入力した時に、それに対する正解をが出力してくれることを期待するのです。 学習がの最小化という目標に従っている以上、このをどのような形にするのかが重要になるのは言うまでもありません。

    機械学習で抑えておくべき損失関数(回帰編) - HELLO CYBERNETICS
  • NIPSの採択論文から見る機械学習の動向 [更新] - HELLO CYBERNETICS

    12月に開かれる機械学習のトップカンファレンスであるNIPS。ここで採択された論文から、近年の機械学習手法の研究動向を見てみたいと思います。 NIPSとは 検索ワード ディープ(deep) スパース(sparse) 最適化(Optimization) 強化学習(Reinforcement learning) ベイジアン(bayesian) バンディット(bandit) リグレット(regret) グラフィカルモデル(graphical models) 劣モジュラ(submodular) SVM 所感 DEEPMIND ディープ 最適化 NIPSとは Neural Information Processing Systems(NIPS)は機械学習のトップカンファレンスです。名前とは異なって、必ずしもニューラルネットを扱っているわけではありません。あくまで機械学習の話題全般的に扱っています。

    NIPSの採択論文から見る機械学習の動向 [更新] - HELLO CYBERNETICS
    frasca
    frasca 2016/09/21
  • 1