タグ

ブックマーク / kento1109.hatenablog.com (3)

  • 識別モデルと生成モデル - 機械学習・自然言語処理の勉強メモ

    機械学習の分類問題は、識別モデルと生成モデルに大別される。 (識別関数によるアプローチもあるがここでは言及しない。) 自分の頭の整理のために、これらの違いをまとめる。 識別モデル(Discriminative model) サンプルデータがクラスに分類する条件付き確率を直接モデル化する。 分類時は、を選択する。 分類問題で求めたいのは、個々のデータがどのクラスに所属するかであり、識別モデルは所属確率を直接求めるモデルである。この考え方は最もシンプルで理にかなっており、機械学習で分類問題を解く場合、識別モデルによるアプローチが一般的な手法となっている。 生成モデル(Generative models) 観測データを生成する確率分布を想定し、観測データからその確率分布を推定する方法。 識別モデルと同様に条件付き確率をモデル化するがその方法が異なる。 (生成モデルでは直接これをモデル化しない。)

    識別モデルと生成モデル - 機械学習・自然言語処理の勉強メモ
  • Stan:隠れマルコフモデル① - 機械学習・自然言語処理の勉強メモ

    はじめに 今回は隠れマルコフモデルをStanで実装する。 隠れマルコフモデル自体は以前に書いた。 kento1109.hatenablog.com 今回は教師ありモデルを考える。 教師あり「隠れ状態」が既知のモデル。 前回の例で考えると、「晴れ→雨」などの遷移状態が与えられているモデル。 その状態から、「遷移行列」と「出力行列」を推定する。 モデル コードは以下のようにシンプル。 data { int<lower=1> K; // カテゴリーの数 int<lower=1> V; // 単語(word)の数 int<lower=0> T; // 時点の数 int<lower=1,upper=V> w[T]; // 単語(word) int<lower=1,upper=K> z[T]; // カテゴリー vector<lower=0>[K] alpha; // 推移(transit)確率の事前

  • gensimでDoc2Vec - 機械学習・自然言語処理の勉強メモ

    Doc2Vecとは Doc2Vecは、任意の長さの文書をベクトル化する技術。 文書やテキストの分散表現を獲得することができる。 *ベクトル同士の類似度を測定して、文書分類や似た文書を探すことができる。 Word2VecのCBoWにおける入力は、単語をone-hot表現した単語IDだけだったが、 Doc2Vecは、単語IDにパラグラフIDを付加した情報を入力とする。 下図のイメージ 下記、論文より抜粋 [1405.4053] Distributed Representations of Sentences and Documents 日語での要約記事としてはこちらが分かりやすい。 【論文紹介】Distributed Representations of Sentences and Documents from Tomofumi Yoshida www.slideshare.net Word

    gensimでDoc2Vec - 機械学習・自然言語処理の勉強メモ
  • 1