タグ

ブックマーク / s0sem0y.hatenablog.com (3)

  • 機械学習で抑えておくべき損失関数(回帰編) - HELLO CYBERNETICS

    はじめに ニューラルネットワーク 損失関数を考えるモチベーション 回帰の損失関数 色々な損失関数 二乗損失 分位損失 Huber損失 感度損失(ε-許容損失) 損失関数の図示 二乗損失 分位損失 Huber損失 ε-感度損失(ε-許容損失) 比較 損失関数の使い分け1 損失関数の使い分け2 損失関数の使い分け3 最後に 分類に関する損失関数 はじめに 機械学習における教師あり学習では、入力に対してパラメータを用いて関数を構築し、正解データに対して損失を定義し、これを最小化する手続きを取ります。 損失を、色々なとの組に対して計算し、その総和が最小化されるようにを決めることを学習と呼びます。これにより未知のデータを入力した時に、それに対する正解をが出力してくれることを期待するのです。 学習がの最小化という目標に従っている以上、このをどのような形にするのかが重要になるのは言うまでもありません。

    機械学習で抑えておくべき損失関数(回帰編) - HELLO CYBERNETICS
  • 強化学習の基本、行動価値関数について - HELLO CYBERNETICS

    強化学習での行動評価 学習の仕方の違い(上記の記事の軽いおさらい) 教師あり学習と教示 強化学習と評価 評価をするための行動価値関数 知識利用と探査 行動価値関数 行動価値関数の考え方 報酬の標平均 漸化式への変形 行動価値関数更新の解釈と拡張 行動価値関数の更新式 指数減衰加重平均更新式 オプティミックス初期値 最後に 強化学習での行動評価 今回の記事は下記の記事の続きという感じで書きます。 以下の記事は強化学習の想定しているシーンや、その特殊な例であるn腕バンディット問題などについて紹介しています。 s0sem0y.hatenablog.com 学習の仕方の違い(上記の記事の軽いおさらい) 教師あり学習と強化学習の最たる違いは学習の仕方です。 どのような情報を元に学習を行うのかが全く異なります。 教師あり学習と教示 教師あり学習では、あるデータが入力された際にシステムが出力すべき答

    強化学習の基本、行動価値関数について - HELLO CYBERNETICS
  • 時系列データ:隠れマルコフモデルの基礎と、リカレントネットの台等 - HELLO CYBERNETICS

    はじめに 隠れマルコフモデル 確率分布として考える 隠れていないマルコフモデル 隠れマルコフモデル 隠れマルコフモデルの学習 隠れマルコフモデルでの予測 隠れマルコフモデルで何ができるか リカレントネット リカレントネットの構造 時間方向への展開 深層学習について 記事 はじめに 隠れマルコフモデルでは、時系列的に変動するデータを確率的なモデルで表現します。 通常の機械学習手法(例えばサポートベクターマシン)などでは、データは各時刻毎に独立したデータであると仮定しており、そのデータの順番に意味がないという前提を持っています。(厳密には更に強く仮定をし、各データ点はある一つの確率分布から生起しているとし、各データ点同士は独立であるとする。これを独立同分布に従うデータと言う。) 一方で隠れマルコフモデルでは、データの変動(隠れマルコフモデルでは遷移と呼ぶ)が確率的に起こっているとしてその部分を

    時系列データ:隠れマルコフモデルの基礎と、リカレントネットの台等 - HELLO CYBERNETICS
  • 1