タグ

pythonとMLに関するsleepy_yoshiのブックマーク (5)

  • 異常検知(変化点検出)をPythonで書いてみた | Kitchen Garden Blog

    データマイニングについて勉強する機会があり、Python言語の練習がてら「変化点検出」と呼ばれる手法について、近似的ではありますが、試作してみました。 変化点検出とは 変化点検出とは、入力データの時系列的な振る舞いの変わり目(変化点)を検出する方法です(山西健司著『データマイニングによる異常検知』)。 データマイニングによる異常検知 山西 健司 Rank / Rating: 302282 / - ASIN: 4320018826 Price: ¥ 3,990 A unifying framework for detecting outliers and change points from time series (Google Scholar) DoS攻撃や新種のワームの発生による、急激な値の変わり目(トラフィック量の急増等)を検知するのに有効とされる手法です。 id:yokkun

  • 動く変分混合ガウス分布(実装編)- 動く PRML シリーズ(2) - Next MIDI Project

    こちらもどうぞ - 動く変分混合ガウス分布(導出編) 実装には python, SciPy と matplotlib を使います。 テストデータには Old Faithful 間欠泉データを使います。 また、データの読み込み、プロットは混合ガウス分布の際に実装したものを再利用しますので、こちらからダウンロードしておいてください。 必要な関数の読み込み はじめに、必要な関数を読み込みます。 from gmm import faithful_norm, init_figure, preview_stage from scipy import arange, array, exp, eye, float64, log, maximum, ones, outer, pi, rand, zeros from scipy.linalg import det, inv from scipy.maxent

    動く変分混合ガウス分布(実装編)- 動く PRML シリーズ(2) - Next MIDI Project
  • メタコマンド実行スクリプトを Python で書いてみた - ny23の日記

    半指導している学生が Python のライブラリを使って実験しているので,最低限の知識はあった方が良いかと思って,今週半ばぐらいから Python でプログラムを書いたりしている.以下は,Ruby で書いたスクリプトの中で,最も使用頻度の高いメタコマンド実行スクリプトの Python 翻訳. #!/usr/bin/env python # cont: execte meta-commands with disjunctive arguments import sys, re, os if len (sys.argv) < 3: sys.exit ("Usage: run [n][c|p] command") # handle options opt = sys.argv[1] nruns, flag = (int (opt[:-1]), opt[-1] == 'p') \ if re.ma

    メタコマンド実行スクリプトを Python で書いてみた - ny23の日記
  • OpenOpt使ってSVM書いた - きちめも

    追記(5/19):ガウスカーネル2乗してなかった。コード書き忘れ訂正--); ついでに画像も変更 SMO法使った前のエントリは、殆どpureにpythonでコード書いてたせいか、結構時間がかかっててイライラ。ということでOpenOptの二次計画のソルバー使って手抜きに疎な解を求めてみたの巻。 結果はテストデータ200個の↓の図だと200倍の差が…。scipy+OpenOptぱない コーディングもあっと言う間だし…その…何というか…一昨日の努力は…一体…。まぁデータ200個と少なきゃメモリにのるしね…。 以下適当に書いたpythonのコード。相変わらずグラフの描画とかのコードの筋が悪い気がしてもにょいぜ。 #!/usr/bin/python # -*- coding: utf-8 -*- from scipy import * from scipy.linalg import norm fr

    OpenOpt使ってSVM書いた - きちめも
  • Não Aqui! » 10行強で書けるロジスティック回帰モデル学習

    ロジスティック回帰(logistic regression)の学習が,確率的勾配降下法(SGD: stochastic gradient descent)を使って,非常に簡単に書けることを示すPythonコード.コメントや空行を除けば十数行です. リストの内包表記,条件演算子(Cで言う三項演算子),自動的に初期化してくれる辞書型(collections.defaultdict)は,Python以外ではあまり見ないかも知れません. リストの内包表記は,Haskell, OCaml, C#にもあるようなので,結構メジャーかも知れません. [W[x] for x in X] と書くと,「Xに含まれるすべてのxに対し,それぞれW[x]を計算した結果をリストにしたもの」という意味になります.sum関数はリストの値の和を返すので,変数aにはXとWの内積が計算されます. Pythonでは,三項演算子を条

  • 1