タグ

2017年5月17日のブックマーク (4件)

  • 時系列クラスタリング手法の分類とその長短

    はじめに 近年IoTが流行ってきており, センサーデータなどの時系列情報から知見を取り出すことは有益である。そこで、時系列情報の解析において、代表的な操作である、時系列クラスタリングのための手法を紹介する。 時系列クラスタリング手法の3つの分類 距離に基づくアプローチ 系列間の距離を定義し、特徴を作る。用いられる距離の例としては、ユークリッド距離、DTWなどが存在する。 そして、それに基づき教師なしクラスタリングであればk-NN、教師ありクラスタリングであればSVMなどを用いる。 特徴抽出に基づくアプローチ 系列によって重要な特徴が既知である場合は、フィルターなどを用いて情報を取り出し特徴を作る。 その上で、距離に基づくアプローチ同様に、目的に合わせて解析を行う。 深層学習 end-to-endに深層学習を用いて学習させ、特徴の設計もある程度自動化させる。具体的には、1次元畳み込みを行う、

    hsato2011
    hsato2011 2017/05/17
    時系列クラスタリング
  • モデル選択_理論編 | Logics of Blue

    最終更新:2016年1月24日 ※フォントや参考文献などを修正しました 予測のためには、実世界をモデル化しなければなりません。モデル化することさえできれば、あとはそのモデルに数値を突っ込むだけで勝手に予測が出来てしまいます。 前回(単回帰)は説明変数が一つだけでした。一つの値からまた別の値を予測すると言うだけだったので、どのモデルにすればいいのか、どの変数を使って予測すればいいのか、ということを考えなくても済みました。 しかし、実際に予測をする場合は多くの変数を用いたほうが当てはまりもよくなるし、実用的でしょう。 どの変数を用いて、どの変数を使わないのか、それを決めるための色々な方法(検定とAIC)とRによる計算方法を紹介します。 特に最後の方に紹介するパッケージMuMInはお勧めです。簡単にモデル選択ができます。 ※ 2015年9月2日にMuMInの使い方を一部修正しました。 ※ コピペ

    hsato2011
    hsato2011 2017/05/17
    AICの使い方 モデル選択
  • 特徴選択 - 機械学習の「朱鷺の杜Wiki」

    特徴選択 (feature selection)† \(k\)個の特徴量(属性)のベクトルで記述されている対象に機械学習の手法を適用するとする.\(k\)個の特徴量を全て利用せず,その中で有用なものを選び出すのが特徴選択.その目的は次の二つ: 目的変数と無関係な特徴量を使わないことで予測精度を向上させる. 学習された関数を,定性的に解釈しやすくする. その実現手法は次の二つに分けられる: フィルター法:目的変数と各特徴量との情報ゲインなどの,特徴の良さの規準を使って選択する. ラッパー法:特徴量の部分集合を使って実際に学習アルゴリズムを適用し,交差確認法などで求めた汎化誤差を最小にする特徴量の部分集合を選択する. 学習アルゴリズムを適用する必要があるラッパー法の方が予測精度は向上するが,フィルター法の方がはるかに高速. 特徴量が\(k\)個あるとき,全部で \(2^k-1\)個の特徴量の部

    hsato2011
    hsato2011 2017/05/17
    特徴選択 対話で使えそう
  • いまさら聞けない機械学習のキホン

    「『内積』を知っている人に,深層学習の中身がだいたいわかってもらう」ことを目指しています.これぐらいをスタートに,理解を深めていけばいいのではないかと思いました.ちなみに学習(例えばback propagationあたりの)の部分については,特に触れていません.それ以前の基の部分です. (2017.1.28, 少々補足スライドをいれて,初学者向けにさらにわかりやすくしたつもりです.) なお,ここで出てくる数式は,せいぜい足し算と掛け算ぐらいです.

    いまさら聞けない機械学習のキホン