ひと月ほど前になりますが、基礎からのベイズ統計学入門 輪読会で発表させて頂きました。 タイトルは「階層モデルの分散パラメータの事前分布について」で、Andrew Gelman の論文 Prior distributions for variance parameters in hierarchical models (PDFリンク) の内容をまとめたものです。 ベイズ統計において、パラメータの事前分布に何を使うかというのは重要な問題です。 分散パラメータの事前分布には伝統的に逆ガンマ分布が使われますが、この論文によると半コーシー分布を使いましょうとのことです。 発表資料は SlideShare に上げています。 階層モデルの分散パラメータの事前分布について from hoxo_m ベイズ統計に興味のある方は、5/19 に 基礎からのベイズ統計学入門 輪読会 #5 最終回 が行われますので参
§1はじめに Deep Learningってどのくらい理論的に解明されているのか?ってやっぱり気になりますよね。 それに関して、次のQuoraのスレッドに非常に有益なコメントがあります。 When will we see a theoretical background and mathematical foundation for deep learning? - Quora How far along are we in the understanding of why deep learning works? - Quora 深層学習界の大御所であるYoshua Bengio、Yann LeCunの二人が 実際ディープラーニングの理論的理解ってどうなのよ?? って質問に直々にコメントしています。 LeCunのコメントの冒頭を少し引用しますと; That’s a very active
あー、やっぱりこの国際会議は難しいな。日本人ほとんど通ってないしなぁ。結構頑張ったんだけどなぁ。でも査読者、なんか良く分からないことを言ってる。こいつ分かってないな。こんな査読者に当たるとは運が悪い。3人中1人はすごくいいコメントなのになぁ。ま、いいや、研究会論文でも書こう。 (※に戻る) 私も以前はこんな感じでした。主要な国際会議のレベルは高いと思ってました。今では、そうは思いません。何といっても、まずは完成度の問題です。 完成度を上げることの重要性 完成度を上げるとは、自分で修正するところがなくなるまで、修正を繰り返すことです。 上の例では、初稿の段階で投稿していますね。これで通せる人は誰もいません。ここで私がよく目安に使っている2つの経験則を紹介しましょう。 執筆時間の法則: 経験上、次のような法則があります。「書こう」と思ってから、初稿ができるまでの時間をa0とします。すると、第2
CMUに留学している時にFaloutsos教授に教わった論文の書き方をまとめる。この書き方に従うことで論文の採択率がかなり上がった。今となっては自分的に当たり前のことだし、できる研究者の皆様は自然と守っていることも多いと思うけど良い論文を書きたいと思っている学生とかに参考にしてもらえたらと思う。ただし、Faloutsos教授に教えてもらったことを一旦自分で噛み砕いてからまとめたものなので自分の主観とかが混じってしまっているかもしれない。 主語が大きくならないように予め断っておくけど、この書き方はもちろんすべての論文に対して当てはまるわけじゃなくて以下の前提条件がある。 国際会議論文である データマイニング関連分野の論文である 論文誌とか卒論とかもっと長めの論文を書くときは当てはまらない項目もあるし、データマイニング関連分野以外の論文を書いたことが無いのでそれ以外の分野の論文に当てはまるかも
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く