ANYGMA講義第1回 ミニGunosyをつくった。その解説と機械学習プロダクトで詰まる点Read less
ANYGMA講義第1回 ミニGunosyをつくった。その解説と機械学習プロダクトで詰まる点Read less
Pythonによるモンテカルロ法入門(2014/6/20)のつづき。3章のモンテカルロ積分について実験した。 モンテカルロ積分 モンテカルロ積分を使うと統計や機械学習で頻繁に出てくる期待値を求める積分が乱数生成で簡単に計算できる。期待値を求める積分とは下の形をした積分。 ここで、f(x) は任意の関数、p(x) は確率分布を表す。たとえば、のときは確率変数Xの平均、のときは確率変数Xの分散だった。実際、f(x) は上の二つに限らずどんな関数でもよい。 モンテカルロ積分のアルゴリズムは以下のとおり。確率分布から生成したサンプルの平均値で積分を近似するのがポイント。 確率分布 p(x) からサンプル X = [x_1, x_2, ..., x_N] を生成 E[f] の近似として を計算 PRML(パターン認識と機械学習)の19ページにも下のような記述がある。 ある関数 f(x) の確率分布
機械学習の問題 については以前に紹介したので、次はどんなデータを収集し、どんな機械学習アルゴリズムを使うことができるのかを見ていきましょう。本投稿では、現在よく使用されている代表的なアルゴリズムを紹介します。代表的なアルゴリズムを知ることで、どんな技法が使えるかという全体的なイメージもきっとつかめてくるはずですよ。 アルゴリズムには多くの種類があります。難しいのは、技法にも分類があり拡張性があるため、規範的なアルゴリズムを構成するものが何なのか判別するのが難しいということですね。ここでは、実際の現場でも目にする機会の多いアルゴリズムを例にとって、それらを検討して分類する2つの方法をご紹介したいと思います。 まず1つ目は、学習のスタイルによってアルゴリズムを分ける方法。そして2つ目は、形態や機能の類似性によって(例えば似た動物をまとめるように)分ける方法です。どちらのアプローチも非常に実用的
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く