タグ

ブックマーク / www.yasuhisay.info (8)

  • Anomaly Detection in Streams with Extreme Value Theoryを読んだ - yasuhisa's blog

    Anomaly Detection in Streams with Extreme Value Theory Amossys-team/SPOT: SPOT algorithm implementation (with variants) KDD2017の異常検知の論文です。異常検知を行なうとき、何らかの閾値を設定しますがこの閾値の決定は難しいことが多いです(そして精度にはよく効いてくる...)。正規分布のように理論的によく知られていて、解析的にも扱いやすいような分布では、累積分布関数を逆に辿ると「99.9%に対応する閾値はこれ!」と設定することができます。しかし、確率分布を陽に仮定するとそれ以外の分布ではきちんと動かなかったり、データ毎にモデル化をする必要があります。陽に確率分布を仮定しない方法もありますが、そちらはデータが少ないor厳しめのパーセンタイルを指定したいときに難しさがありま

    Anomaly Detection in Streams with Extreme Value Theoryを読んだ - yasuhisa's blog
    xiangze
    xiangze 2020/10/25
  • すうがくぶんか 統計検定1級対策講座 第四回 - yasuhisa's blog

    前回はこちら。 今回は不偏推定量について詳しく見ていきました。いつも以上に盛り上がった! 平均二乗誤差とそのバイアス・バリアンス分解 推定量の「よさ」について 真のパラメータについて何も分からない場合 パラメータについて多少知識がある場合 所感 クラメルラオの下限 フィッシャー情報量 最良線形不偏推定量 次回 平均二乗誤差とそのバイアス・バリアンス分解 PRMLなど機械学習の観点でも頻出の話題。 推定量のよさの指標には色々あるが、真のパラメータと推定量の二乗の期待値である平均二乗誤差が小さければ小さいほどよいと定義する。すると、平均二乗誤差はバイアス(の二乗)とバリアンスに分解できる。平均二乗誤差が一定だとすると、バイアスorバリアンスのどちらかをよくしようとすると、どっちかが悪くなってしまうトレードオフの関係にあることは、推定量のよさを考える上では頭に入れておかないといけない。 そして、

    すうがくぶんか 統計検定1級対策講座 第四回 - yasuhisa's blog
    xiangze
    xiangze 2020/10/25
  • Rao-BlackwellとLehmann-Scheffeの違いについて - yasuhisa's blog

    現時点でなんとなく分かってきたようなことを書いてみる。たぶん嘘が入っているけど。プロセス大事だよプロセス。 似たようなことを言っているんだけど、前提条件とか言っていることに関する違いとかをしっかり把握しておくことが必要。 Rao-Blackwell数理統計学のP18より。 を確率密度関数からの標とし、をに対する十分統計量であるとする。をの不偏推定量とし、とする。すると である。 Introduction to the Theory of Statisticsとか理論統計のレジメとかには2つじゃなくて3つ書いてあったりする。抜けて(?)いるところは、 も統計量であって、それは十分統計量Tの関数である というところか。これだけだとよく分からないんだけど、Introduction to the Theory of StatisticsのP322にあるExample 31が分かりやすいと思った。

  • 社内でKaggleの布教活動をやっている話 - yasuhisa's blog

    最近、社内勉強会で機械学習についてエンジニアに説明する機会があり、その際にKaggleについても説明しました。一方で うーん、「Kaggler はパラメータチューニングやアンサンブル等の自明でインクリメンタルな改善『しか』できない」というような誤解はどうやって解いていけばいいんだろう。— im132nd (@im132nd) 2018年4月4日 という話もあり、(特にデータサイエンティスト以外の職種の人が)Kaggleをやる意義/メリットについてまとめてみました。ガッと勢いで書いたので、項目に結構被りがあります。なお、書いている人はKaggleほぼ初心者であまり説得力がないです。Kaggle Masterの人がもっといいエントリを書いてくれるのを期待しています、議論の叩き台エントリです!! Kaggleをやる意義/メリット 様々なデータセットを触ることができる kernelでデータ分析

    社内でKaggleの布教活動をやっている話 - yasuhisa's blog
  • Sparse Gaussian Markov Random Field Mixtures for Anomaly Detectionを読んだ - yasuhisa's blog

    異常検知の一環で外れ値検知をやっていると「どの事例が外れ値か分かるだけじゃなくて、どの次元がおかしくなったかも教えて欲しい。次元数が100とかあると、どの次元がおかしい動きをしているか人手で見るのは大変」というのをちらほら聞きます。Gaussian Markov Random Field (GMRF)を使うと、どの次元の動きがおかしくなったかも異常検知の枠組みで捉えることができる場合があります。 異常検知読書メモ Part 3(疎構造学習による異常検知) - yasuhisa’s blog グラフィカル Lasso を用いた異常検知 しかし、この方法は使える状況が限定的で、システムの状態が複数ある(例: 昼と夜で負荷が違うなど)場合にはうまく機能しません。システムに複数の状態が存在することは実データでは珍しくないので、そういった状況にも対応できる方法を探していたところ、ぴったりの論文が

    Sparse Gaussian Markov Random Field Mixtures for Anomaly Detectionを読んだ - yasuhisa's blog
  • 自然言語処理の深層学習において転移学習はうまく行くのか? - yasuhisa's blog

    このエントリはDeep Learning Advent Calendar 2016 5日目のエントリです。EMNLP2016に出ていたHow Transferable are Neural Networks in NLP Applications?を読んだので、それについて書きます。 [1603.06111] How Transferable are Neural Networks in NLP Applications? モチベーション 画像方面では、あるタスク(source side)で学習させた深層学習の結果を、別データセット(target side)でソフトマックス層だけ再学習させる転移学習(Transfer Learning)がうまくいっていると報告されています。 [1311.2901] Visualizing and Understanding Convolutional Ne

    自然言語処理の深層学習において転移学習はうまく行くのか? - yasuhisa's blog
    xiangze
    xiangze 2016/12/17
  • 実タスクで能動学習を試してみた - yasuhisa's blog

    実タスクで簡単な能動学習を試してみました。結論としては、1200件で到達できる精度に400件程度のアノテーションでも到達でき、それによりアノテーションに要する時間をかなり削減できそうということが分かりました*1。今後、アノテーションを必要とする機械学習タスクをやる際には能動学習で一手間かけるのを検討してみようと思います。 能動学習をする動機 ここしばらく仕事のタスクで機械学習の教師用のデータをアノテーションをする機会がありました。機械学習する上で、1000件程度は学習データ欲しいという想定でポチポチとアノテーションをしていました。一人1時間で大体100件くらいのデータが作れるようなタスクでしたが、1000件アノテーションするには約10時間の作業工程が必要です。アノテーション自体よりはコードを書いたり実験するのが好きな人間なので、5時間くらいずっとアノテーションしていると疲労します。同じ精度

    実タスクで能動学習を試してみた - yasuhisa's blog
  • はてな社内の勉強会で構造学習について発表しました - yasuhisa's blog

    先週末、はてな社内の勉強会で構造学習、特に実装が簡単な構造化パーセプトロンについて発表しました。発表資料と説明用にサンプルで書いたPerlの品詞タグ付けのコードへのリンクを張っておきます。 今日からできる構造学習(主に構造化パーセプトロンについて) from syou6162 structured_perceptron/structured_perceptron.pl at master · syou6162/structured_perceptron 「えっ、Perlかよ」という人がいるといけないので、Clojureで構造化パーセプトロンを使った係り受け解析のサンプルコードへのリンクも張っておきます(2種類あります)。PerlもClojureもあれば8割くらいの人はカバーできそうなので、安心ですね。 syou6162/simple_shift_reduce_parsing syou616

    はてな社内の勉強会で構造学習について発表しました - yasuhisa's blog
  • 1