タグ

2019年3月22日のブックマーク (5件)

  • FF5のレベル5デスと整数論 - tsujimotterのノートブック

    Final Fantasy Ⅴ(以下、FF5)というゲームをご存知でしょうか? 私が小学生ぐらいの頃に流行したロールプレイングゲームです。当時、私はFFの魅力がわからずプレイしたことすらなかったのですが、大人になってからその面白さに気づき、はまっています。 今回は、FF5にまつわるちょっぴり整数論っぽい問題についてです。 背景 さて、そのFFの5作目のFF5ですが、面白いシステムが導入されました。それが 青魔法 です。青魔法を使う青魔導士は、敵が使ってくる魔法を受けると、「ラーニング」といって、その魔法を習得し、次回以降の戦闘で使用することができるのです。もちろん、敵の扱う魔法すべてをラーニングできるわけではないのですが、バラエティ豊かな魔法を手にいれることができ、青魔法を収集することもゲームの楽しみの一つでした。 参考: FF5 青魔法の効果と習得方法 その中でも、特に面白いなと思ったの

    FF5のレベル5デスと整数論 - tsujimotterのノートブック
  • ggplot2 をもっとカンタンに plotly 化する

    TL; DR ggplot を対話的にしたい時, plotly::ggplotly() にわせるのが面倒だから, + ggintearctive() すればいいようにした (改善した実装). qplot(wt, mpg, data = mtcars) + ggtitle("マウスオーバーしてみてね") + gginteractive() はじめに plotly::ggplotly() を使うと,カンタンに ggplot2 を使ったプロットを対話的にできる.ズームしたり,点の座標を読めるようになって便利だ. ただし,利用には同関数に ggplot オブジェクトを与える必要がある.このため一度 plotly で必要な軸の範囲を調べてから ggplot として最終出力したいなんて時に不便だ.例えば以下の例では 3行目の ggplotly( と6行目の ) を最終出力時にコメントアウトしなければ

    ggplot2 をもっとカンタンに plotly 化する
  • XGBoostのお気持ちをちょっとだけ理解するためのメモ - Qiita

    現在、Kaggleにてよく使われる手法の一つにGBDT(Gradient Boosting Decision Tree)があります。さらにその種類の1つXGBoostはKagglerによりその効果を検証され非常に人気の高いアルゴリズム・実装です。このブログでは、XGBoostの論文からアルゴリズムを理解するための主要な部分、 TREE BOOSTING IN A NUTSHELL 2.1 Regularized Learning Objective 2.2 Gradient Tree Boosting を丁寧に解説することを目的に書いています。 また、ここで解説した理論、アルゴリズムについてはLightGBMにおいてもほぼ同じと思いますので、合わせて参考になるかと思います。 おことわり しかしながら、最初におことわりをさせていただくのですが、markdowntexでキレイにまとめる余裕が

    XGBoostのお気持ちをちょっとだけ理解するためのメモ - Qiita
  • PRML第10章のベイズ混合ガウスモデルに対する変分推論をPythonで実装 - Qiita

    この記事では、PRMLの第10章で述べられている、混合ガウスモデルに対する変分推論をpythonで実装します。 対応するjupyter notebookは筆者のgithubリポジトリにあります。連載全体の方針や、PRMLの他のアルゴリズムの実装については、連載のまとめページをご覧いただければと思います。 なかなか計算がハードな章ですが、ここでは結果だけを利用して、さくさく実装したいと思います。 なお、変分下界の計算については、PRMLの内容より少し詳しく扱っています。具体的には、教科書の式(10.70)-(10.77)の式をさらに変形し、実装に適した簡潔な形にしてあります。 1 理論のおさらい 1.1 設定 前回と同様、教師なし学習を考えます。 $N \in \mathbb{N}$ : データ点の個数 $D \in \mathbb{N}$ : データの次元 $x_0, x_1, \dots

    PRML第10章のベイズ混合ガウスモデルに対する変分推論をPythonで実装 - Qiita
  • Dirichlet Processでクラスタ数を自動的に割り出してみる - Qiita

    Dirichlet Processを使うモチベーション 以下の図のような1次元データをクラスタリングしたいとします。 明らかに3個のクラスタがあるっぽいので、$k = 3$としてk means clusteringをすれば解決。 ・・・なのですが、Dirichlet Processはクラスタ数を事前に指定しなくても使うことができます。この記事では、上記一次元データのクラスタリングをDirichlet Processにより実装してみます。 Dirichlet Processはベイジアンなアプローチですが、ベイジアンモデルを使うと何が嬉しいかはこちらで説明しています。 Dirichlet Processの概要 Dirichlet Processは、ベースとなる確率分布$G_0$とパラメータ$\alpha$で定義され、$n$個目のサンプル$\theta_n$を、

    Dirichlet Processでクラスタ数を自動的に割り出してみる - Qiita