タグ

2018年4月7日のブックマーク (5件)

  • Rao-BlackwellとLehmann-Scheffeの違いについて - yasuhisa's blog

    現時点でなんとなく分かってきたようなことを書いてみる。たぶん嘘が入っているけど。プロセス大事だよプロセス。 似たようなことを言っているんだけど、前提条件とか言っていることに関する違いとかをしっかり把握しておくことが必要。 Rao-Blackwell数理統計学のP18より。 を確率密度関数からの標とし、をに対する十分統計量であるとする。をの不偏推定量とし、とする。すると である。 Introduction to the Theory of Statisticsとか理論統計のレジメとかには2つじゃなくて3つ書いてあったりする。抜けて(?)いるところは、 も統計量であって、それは十分統計量Tの関数である というところか。これだけだとよく分からないんだけど、Introduction to the Theory of StatisticsのP322にあるExample 31が分かりやすいと思った。

  • Stochastic Optimization with Importance Sampling

  • Homepage

    Comet’s machine learning platform integrates with your existing infrastructure and tools so you can manage, visualize, and optimize models—from training runs to production monitoring.

  • TechCrunch

    Developers have been increasingly using third-party APIs to build their applications, and depending on the API, the costs can escalate quickly. It’s been challenging for companies to find ways t Chptr, an app for sharing and holding onto memories of lost loved ones, has raised $1.5 million in seed funding. The app is designed to give people a way to encapsulate the life of their loved ones by

    TechCrunch
    xiangze
    xiangze 2018/04/07
  • 深層学習のモデル圧縮・高速化に関する論文80本ノック - そうだね

    こんにちは.無事に3年生に進級できてホッとしています. 昨年度から深層学習のモデル改変による高速化手法について調べていました.そんなわけで稿では深層学習モデルのパラメータ容量の削減や高速化を目的とした手法に関する論文を80紹介します. 一部, ハイパーパラメータ探索(Neural Architecture Search等)の論文を「高速なモデルの探索に使えないかな〜」というきもちで含めました. また, 蒸留に関する論文は必ずしも高速化を狙ったものだけではなく, 蒸留そのものの派生論文についても含めています. 全ての論文について詳解ではなく雑な概要のみ記載しています. サーベイする際のガイドにでも使っていただければ幸いです. サクッと読んだだけの論文も多々ありますので間違い等ございましたらご指摘ください. では参りましょう. 高速なモデルアーキテクチャ より良い速度と精度のトレードオフを

    深層学習のモデル圧縮・高速化に関する論文80本ノック - そうだね
    xiangze
    xiangze 2018/04/07