タグ

2019年5月20日のブックマーク (4件)

  • 論文紹介: Deep Graph Infomax - 理とかなんとか

    Deep Graph Infomax (https://arxiv.org/abs/1809.10341) について今回紹介します. 個人的に,とても注目している技術なので,まとめてみました. もし,間違いなどがあれば,ご指摘いただけると大変助かります.よろしくお願いします. この論文は,ICLR 2019のポスターに採択されており,Graph Attention Networks (https://arxiv.org/abs/1710.10903) や GraphSAGE (https://arxiv.org/abs/1706.02216) といったGraph Neural Networksの代表的な論文の著者達による研究になります. 概要 最近提案された"Deep Infomax"と呼ばれる教師なしの表現学習手法を,グラフデータに適用したもの. 何がすごいのか? 得られた表現 (特徴量

    論文紹介: Deep Graph Infomax - 理とかなんとか
    xiangze
    xiangze 2019/05/20
  • 高性能計算

    Skip to the content. 高性能計算 名古屋工業大学 情報工学科 ネットワーク系分野 3年後期 ネットワーク系演習II 導入 各プロジェクトは,Makefile(g++)でコンパイルできるようになっています. おそらく,clangでも動きます(検証していない.Macの人はclangになっている人が多いです.) また,Windowsでは,Windows Subsystem for Linux (WSL)をインストールすれば,g++などのLinux環境が使えます. さらに,Windows用にVisual Studio 2019でもコンパイルできるようにしています. 下記のファイルはVisual Studio 2019用のファイルです.必要ない人は無視してください. *.sln *.vcxproj* ただしファイルの文字コードや改行コードには注意すること. Linux用に改行コー

    xiangze
    xiangze 2019/05/20
  • Fixing a Broken ELBOを読んだのでメモ - 機械学習とかコンピュータビジョンとか

    はじめに Fixing a Broken ELBOを読んだのでメモ. 気持ち 教師なし表現学習の一般的なアプローチとしてデータをで表現される様な潜在変数モデルにフィットさせる方法があげられる.通常はこのモデルを真の分布とのKLダイバージェンスを最小化する様に学習することでデータの潜在表現を獲得する.ただ,このKLダイバージェンスはほとんどの場合扱いにくく,代わりとしてevidence lower bound (ELBO)を最大化することでモデルの学習を行う.ただ,根的な問題として,目的関数はに関する式であってに関する式にはなってないため,不自然な目的関数になっていることがあげられる.実際先行研究の結果からも,ELBOが良い表現学習をするためには十分でないことがわかっている.そこでここでは観測と潜在表現の相互情報量の側面から良い表現を導出するというのが話の流れ.以前に読んだモントリオール大

    xiangze
    xiangze 2019/05/20
  • Andrew vs. the Multi-Armed Bandit | Statistical Modeling, Causal Inference, and Social Science

    Andrew and I were talking about coding up some sequential designs for A/B testing in Stan the other week. I volunteered to do the legwork and implement some examples. The literature is very accessible these days—it can be found under the subject heading “multi-armed bandits.” There’s even a Wikipedia page on multi-armed bandits that lays out the basic problem formulation. It didn’t take long to im

    xiangze
    xiangze 2019/05/20