タグ

kernelに関するwerdandiのブックマーク (3)

  • Kaggleに入門したい人におすすめするアプローチ法 - Drumatoの独り言

    注意: 2019年11月12日追記. 非常に多くの方にご覧頂いているこの記事ですが, 私が機械学習・データサイエンスの勉強をし始めた時期に執筆したものであり, また現在は低レイヤー,システムプログラミングの勉強をしており,この分野についてはノータッチです. 内容については 信憑性に欠ける記事 というのを念頭に置きつつ, あくまでKaggle入門者が 「どうやってKaggleを始めるか」を考えていく記事だと考えていただければ幸いです. 目次 目次 概要 簡単な経歴 Kaggleに対するアプローチ 結果よりもプロセスを意識する Python、R関係無く読む コミュニティに入る オススメ環境 高スペックマシンを扱えるカーネル NoteBookの管理にGit 実際の流れ 参加するコンペを選ぶ Kernelを見る 高スパンにカーネルを訪れて、最新の手法を真似し続ける Tips よく使われるアルゴリズ

    Kaggleに入門したい人におすすめするアプローチ法 - Drumatoの独り言
  • 特異値分解 - Risibletons

    「特異値分解」の英名は、Singular Value Decomposition(SVDと略される)。 また、エッカート・ヤング分解(Eckart and Young)とも書かれる。応用として、データ分析等がある。 特異値分解の資料が少なくて困ってます(特に応用例に関する記述を読みたいと思っています)。など、紹介して下さい。 擬似逆行列(一般逆行列)と零空間は、もっと使い道があるのではないかと思ってます。 計算は、FORTRANやC言語のライブラリとしてLAPACK、お金を出せるならIntel Math Kernel Library(IMKL)*1、計算ツールはMATLABやMahematicaなどを使えば簡単にできます。 学生時代はMathematicaで確認して、MKLを使って計算していました。2002年頃の話でうろ覚えですが、MKLはしっかりしたドキュメントが良かった憶えがあります

  • A Complete Recipe for Stochastic Gradient MCMC

    Authors Yi-An Ma, Tianqi Chen, Emily Fox Abstract Many recent Markov chain Monte Carlo (MCMC) samplers leverage continuous dynamics to define a transition kernel that efficiently explores a target distribution. In tandem, a focus has been on devising scalable variants that subsample the data and use stochastic gradients in place of full-data gradients in the dynamic simulations. However, such stoc

  • 1