abogadoroのブックマーク (4)

  • 階層ベイズモデルを用いた労働時間と知的好奇心の関係分析 - kivantium活動日記

    以前@berobero11さんに「StanとRでベイズ統計モデリング」をプレゼントしていただき、を読んだのですが解析したいデータがなかったため勉強した結果を活かすことができずにいました。 しかし今日Twitterを見ていたら 長時間労働は,知的好奇心を枯らすのか。 pic.twitter.com/NcuaLAgzpy— 舞田敏彦 (@tmaita77) 2017年11月13日 労働時間と知的好奇心には,国レベルでは非常に強い負の相関があるが,個人レベルでは逆に正の相関がある https://t.co/N8Z00ljFfB— Haruhiko Okumura (@h_okumura) 2017年11月15日 というまさに階層ベイズモデルを用いた解析にぴったりのテーマが流れてきたのでStanの練習として解析を行ってみました。 モデリング まずは奥村先生のPIAACデータ解析を読んでください。

    階層ベイズモデルを用いた労働時間と知的好奇心の関係分析 - kivantium活動日記
    abogadoro
    abogadoro 2017/11/22
    固定効果モデルを考えたほうがよさそう
  • Learn Git Branching

    An interactive Git visualization tool to educate and challenge!

    Learn Git Branching
    abogadoro
    abogadoro 2017/10/02
  • 深層学習による自然言語処理 - RNN, LSTM, ニューラル機械翻訳の理論

    稿ではニューラルネットワーク,誤差逆伝播法,言語モデル,RNN,LSTM,ニューラル機械翻訳の一連の手法について数理的に解説する. 前編の目次 ニューラルネットワーク 順伝播 (Forwardpropagation) 逆伝播 (Backpropagation) リカレントニューラルネットワーク (RNN) Recurrent Neural Network Language Model (RNNLM) Backpropagation Through Time (BPTT) Long Short-Term Memory (LSTM) Gated Recurrent Unit (GRU) RNN のドロップアウトとバッチ正規化 ニューラル機械翻訳 (NMT) Sequence to Sequence (seq2seq) 注意 (Attention) 双方向エンコーダー・多層LSTM 評価手法

    深層学習による自然言語処理 - RNN, LSTM, ニューラル機械翻訳の理論
    abogadoro
    abogadoro 2017/04/11
  • スペクトル分解を実際に行ってみる - malibu-bulldogの日記

    2008-05-31 - malibu-bulldogの日記 の続きです。 ラプラシアン行列から作り出した固有値と固有ベクトル。 このうち固有値は実対称行列なのですべて実数になり、ラプラシアンマトリックスの性質上最小の固有値は0というのは前回の日記で書きました。 さて、イエール大学(普通はエール大学だよと知り合いに突っ込まれましたがなんとなくイエールで通します)のDanさんの講義ノートSpectral Graph Theory and its Applicationsを読んでいくと、この固有値に対応する固有ベクトルについての説明があります。 固有値ベクトルは、グラフ構造でいう各ノードに対して新しい意味のある値を与えていると。 どんな意味があるのかはまだはっきりしたことは言えないそうです。(これからの研究らしいです) さて、僕の身近にあるグラフ構造というと…3DCGのメッシュデータがあります

    スペクトル分解を実際に行ってみる - malibu-bulldogの日記
    abogadoro
    abogadoro 2017/03/23
    なるほ
  • 1