タグ

ブックマーク / puyokw.hatenablog.com (3)

  • 次元削除 ( t-SNE ) - puyokwの日記

    今回は、kaggle のOtto Group Production Classification Challenge の上位の方々が次元削除の手法としてt-SNE(t-distributed stochastic neighbor embedding) を使用されていたので調べてみようと思いました。個人的には、pca(主成分分析) ぐらいしか思い付かなかったのですが、それぞれ比較しながら見ていきます。 t-sne の詳細についてこちらを参考にするといいかと思います。 http://jmlr.org/papers/volume9/vandermaaten08a/vandermaaten08a.pdf こちらに書かれているようにt-SNE は高次元のものを2 または3 次元に写像するように作られています。とりあえず、R のtsne package を試してみます。(あとでより高速なRtsne

    次元削除 ( t-SNE ) - puyokwの日記
    yukimori_726
    yukimori_726 2016/12/05
    [t-SNE][visualization]
  • カテゴリー変数に embedding layer を用いたNeural Net - puyokwの日記

    kaggle のRossmann の3 位のNeokami Inc(entron)さんの用いた手法が面白かったので、その概要の紹介などをしていきたいと思います。 まず手法の名前は、"Entity Embeddings of Categorical Variables" で、 [1604.06737] Entity Embeddings of Categorical Variables 論文にもなっています。コードはGithub にありますので、興味のある方はご覧ください。 github.com (これはPython3 を用いて書かれています。) embedding layer を用いた他のコンペでの有力なsolution。 kaggle のtaxi コンペ: Taxi Trajectory Winners’ Interview: 1st place, Team ? | No Free Hu

    カテゴリー変数に embedding layer を用いたNeural Net - puyokwの日記
  • stacked generalization - puyokwの日記

    [概要] 最近のkaggle のコンペのwinning solution で、stacked generalization がよく使われています。これの元になった論文は、1992 年のWolpert さんによるものです。 triskelion さんのブログKaggle Ensembling Guide | MLWave の中でもこの手法についての説明があります。 様々な学習器を上手く組み合わせて、より精度の良いモデルを作ろうというのが基的な考え方です。具体的には次の図のような感じです。 level 0 は、元となるデータです。またこの場合における各学習器はgeneralizer と呼ばれています。level 0 のデータにgeneralizer を適用して生成されたデータがlevel 1 のデータとなります。 その後も、同様に名づけられています。 [過去のコンペ] まずは、多層パーセプト

    stacked generalization - puyokwの日記
  • 1