タグ

ブックマーク / www.hellocybernetics.tech (14)

  • 推定量の良し悪し:不偏分散を例に - HELLO CYBERNETICS

    はじめに 不偏性 推定量 不偏推定量 不偏性を有さない推定 正規分布の分散の推定 不偏推定量は必ずしも良い推定量ではない バリアンス バイアスとバリアンス 両者を考慮した平均二乗誤差 正規分布の不偏分散と標分散の比較 はじめに つい最近、統計を用いた分析の講義的なものを聴きました。 統計分析は目的に応じて手法を適宜使い分けなければなりません。 その講義では、分散の計算には標分散ではなく不偏分散を使いましょうという具合の話がありました。きっとその分野では不偏分散を扱ったほうが良い分析ができるということなのでしょう。ところが、多くの人は単にそれを鵜呑みにしているだけだったりしないでしょうか。 不偏分散がなぜ良いのか、あるいは当に良いのであろうか、ということは一考の余地があります。今回は推定量の良し悪しの基準の1つである不偏性について説明し、分散の推定を例にその不偏性をもたらす推定が必ずし

    推定量の良し悪し:不偏分散を例に - HELLO CYBERNETICS
  • 評価指標入門の感想 - HELLO CYBERNETICS

    はじめに 誰向けか 顧客や自身の部下などにデータサイエンスを説明をしなければならない立場の人 機械学習のアルゴリズムには詳しいけどビジネス貢献ってどうやってやるの?という人 データサイエンスのプロジェクトを管理する人 機械学習やデータサイエンスをこれから始める人 感想 はじめに 下記の書籍を以前(結構時間が経ってしまいました)高柳さんから頂いていましたので感想を書きたいと思います。 評価指標入門〜データサイエンスとビジネスをつなぐ架け橋 作者:高柳 慎一,長田 怜士技術評論社Amazon 遅くなった言い訳としては、「個人としては多くの内容が既知であったこと」が挙げられるのですが、この書籍に書かれている内容が未知であるかあやふやな人にとっては当然非常に有用になっています。そして、何よりもその伝え方(書かれ方)が今になって素晴らしいと実感できたためこのタイミングで書くこととしました。 誰向けか

    評価指標入門の感想 - HELLO CYBERNETICS
  • (データを扱う)ビジネスマン全てにおすすめの本 - HELLO CYBERNETICS

    はじめに データ分析:実用系 Kaggleで勝つデータ分析技術 ウェブ最適化ではじめる機械学習 データ分析:因果推論 入門 統計的因果推論 計量経済学 大人の教養 世界標準の経営理論 科学的に正しい筋トレ 最強の教科書 落合務のパーフェクトレシピ はじめに 今回は、特にドメインを指定せず、読むと間違いなく誰にでも勉強になるであろうと感じた書籍を紹介します。 データ分析:実用系 Kaggleで勝つデータ分析技術 Kaggleで勝つデータ分析技術 作者:門脇 大輔,阪田 隆司,保坂 桂佑,平松 雄司発売日: 2019/10/09メディア: 単行(ソフトカバー) "Kaggleで勝つ"と題名にはありますが、データ分析、特に予測モデルを作るようなケースで重要な基礎知識が実践的に学ぶことができる非常に良いとなっています。例えば、交差検証といえば、基的には汎化誤差の推定量として統計学の

    (データを扱う)ビジネスマン全てにおすすめの本 - HELLO CYBERNETICS
  • NumPyroの基本を変化点検知で見る - HELLO CYBERNETICS

    はじめに NumPyro基 ライブラリの準備 確率分布 transoforms モジュール (tfp.bijector相当) 変化点検知 データ モデル 事前分布からのサンプリングでモデルの動作確認 MCMC推論 結果確認 はじめに TFUGベイズ分科会にてPPLについて話しました。改めてPPLを複数比較してみたことで、一層NumPyrpの書きやすさにほれぼれとしました。 www.hellocybernetics.tech 現状、PPLをまとめると 通常利用:Stan より低レベルを触れる研究用途:TensorFlow Probability 深層生成モデル及びベイズニューラルネットの変分推論 : Pyro 上記及び高速なMCMC : NumPyro という具合です。実際、速度やインターフェースの書きやすさを見るとNumPyroが個人的には抜けているのですが、一方でバックエンドがJaxで

    NumPyroの基本を変化点検知で見る - HELLO CYBERNETICS
  • TensorFlow User Group ベイズ分科会の資料 PPLについて - HELLO CYBERNETICS

    はじめに はじめに 作って遊ぶ機械学習。 の須山さんにお誘いを受け、TensorFlow User Group(通称TFUG)でPPLについてお話をしました。 その資料へのリンクを貼っておきます。また、今後もこの動向について興味がある方はぜひconnpassのTFUGにもご参加ください。 tfug-tokyo.connpass.com speakerdeck.com

    TensorFlow User Group ベイズ分科会の資料 PPLについて - HELLO CYBERNETICS
  • ベイズ統計 - HELLO CYBERNETICS

    はじめに データとモデル 確率モデル 確率モデルを作る 複雑なモデルを使うことが最善手であるか モデルの具体的な作り方 モデルの仮定 アンサンブルモデル 点推定モデル 最尤推定 制約付き最尤推定※ (最大事後確率推定) ベイズ予測分布と点推定 ベイズ統計学 ベイズ予測分布を得ることの意義 ベイズ統計学の主題 特異モデルと正則モデル ベイズ統計学のまとめ はじめに ベイズだの頻度論だので盛り上がっているので、ぶん殴られる覚悟で書いてみます。 データとモデル 観測値がランダムに見える場合、それを確率変数 $X$ として扱います。 さて、今、$X$ には我々が知ることのできない真の分布 $q(X)$ があるとしましょう。もしも、$X$ を無限回観測し満遍なくデータを集められるとすれば、$q(X)$ の形状を把握することができるかもしれません。 ところが、そんなのは幻想であって実際に無限回の観測を

    ベイズ統計 - HELLO CYBERNETICS
  • TensorFlow 2.0 のコードの書き方基本集(PyTorchとの比較) - HELLO CYBERNETICS

    はじめに 線形回帰と学習のコード データセット PyTorch TF2.0 違い 些細な違い:層の定義の仕方 些細な違い:ロス関数の書き方 大きな違い:勾配計算とパラメータ更新 ニューラルネットワークの簡単な書き方 PyTorch TF2.0 違い 畳み込みニューラルネットワーク PyTorch TF2.0 違い パディング 畳み込み層→線形層 traininigフラグ RNN PyTorch TF2.0 違い 大きな違い:多層化 些細な違い:Bidirectional 大きな違い:戻り値の並び 学習 はじめに 最近KerasからPyTorchに流れていく人たちが多く見受けられます。その中でて「Kerasで書いていたコードをPyTorchのコードで実装するにはどうすれば良いんだろう?」という声があります。要は、今まで使っていたフレームワークでやろうとしていたことを、別のフレームワークでやろ

    TensorFlow 2.0 のコードの書き方基本集(PyTorchとの比較) - HELLO CYBERNETICS
  • TensorFlow2.0 Preview版が出ました! - HELLO CYBERNETICS

    TensorFlow 2.0発表! コード周辺の変更 tutorial TensorFlow 2.0発表! ついに動きがありましたね。APIは下記で見ることが出来ます。名前空間がスッキリしていることに気づくはずです。 www.tensorflow.org v1.12.0からv2.0へコードを書き換えるためのツールも整備されていく模様です。 tensorflow/tensorflow/tools/compatibility at master · tensorflow/tensorflow · GitHub また、2.0の発表して間もなく、githubにはチュートリアルのリポジトリが出現しました。さすがは注目度が高いですね。 github.com コード周辺の変更 さて、TensorFlow2.0でどのように書き方が変わったのかというと、以前からお伝えしてきたとおり、Eagerをデフォルトと

    TensorFlow2.0 Preview版が出ました! - HELLO CYBERNETICS
  • ディープラーニングのハイパーパラメータ自動調整の概要 - HELLO CYBERNETICS

    はじめに ハイパーパラメータ自動調整の概要 学習という関数 グリッドサーチ 関数近似器(ガウス過程)による方法 メタヒューリスティック最適化 強化学習 まとめ ライブラリ はじめに ディープラーニングのハイパーパラメータ調整がとんでもなく退屈なことは周知の事実(?)です。一度学習を回すとその経過が気になってログを眺めてしまう人も多いのではないでしょうか。どうも望みがなさそうならさっさと次の値を試したいという思いもあることでしょう。そして、なるべく数を打ちながら良さげなハイパーパラメータの範囲を早く絞り込みたいと思うのではないでしょうか。 こういうこと自体を上手く自動化するような試みが欲しくなります。古典的な方法ではグリッドサーチで、とにかく考えうるパターン全部試してやれ!というものがあります。しかしこの方法はディープラーニングのように一回の学習に時間が掛かる場合には有効ではありません。 今

    ディープラーニングのハイパーパラメータ自動調整の概要 - HELLO CYBERNETICS
  • TensorFlow Probabilityでガウシアンプロセス回帰の最尤推定を実行してみる - HELLO CYBERNETICS

    はじめに ガウシアンプロセスで最低限知ってほしいこと 線形回帰 ガウシアンプロセス回帰 ガウシアンプロセス回帰のまとめ ガウシアンプロセス回帰の推定 まとめ 1.ガウシアンプロセスのモデル 2.推定するべきガウシアンプロセスのパラメータ 3.カーネル関数でガウシアンプロセスのパラメータを書き換える 4.推定すべきパラメータをすり替える 補足 TensorFlow Probabilityで実践 必要なライブラリのインポート でたらめなガウシアンプロセス回帰 データの準備 パラメータをフィッティングしていないガウシアンプロセス回帰のサンプリング 学習したガウシアンプロセス回帰 データ点準備 ガウシアンプロセスのモデル構築 損失関数の設定 ガウシアンプロセス回帰のサンプラー いざ学習! 更に進むために はじめに TensorFlow Probabilityには様々な確率分布が実装されています。

    TensorFlow Probabilityでガウシアンプロセス回帰の最尤推定を実行してみる - HELLO CYBERNETICS
  • 確率的プログラミング言語 TensorFlow Probability【高レベルAPI、`tfp.glm`の紹介】 - HELLO CYBERNETICS

    はじめに APIの全体像 Layer 0 : TensorFlow Layer 1 : Statistical Building Blocks Layer 2 : Model Building Layer 3 : Inference techniques Layer 4 : Pre-built models + inference 高レベルAPItfp.glmの紹介 提供されている一般化線形モデル(GLM) ●class Bernoulli ●class BernoulliNormalCDF ●class Poisson ●class PoissonSoftplus ●class Normal ●class NormalReciprocal ●class LogNormal ●class LogNormalSoftplus ●class GammaExp ●class GammaSoftp

    確率的プログラミング言語 TensorFlow Probability【高レベルAPI、`tfp.glm`の紹介】 - HELLO CYBERNETICS
  • 大幅に進化するらしいTensorFlow2.0について - HELLO CYBERNETICS

    はじめに TensorFlow2.0がもうすぐ来るよ! APIs High level APIs Eager Exexution Reference Models Contribの扱い プラットフォーム TensorFlow Lite TensorFlow.js TensorFlow with Swift パフォーマンス Distributed TensorFlow CPUGPU、TPUの最適化関連 その他のパッケージ TensorFlow Probability Tensor2Tensor End to End ML systems TensorFlow Hub TensorFlow Extended はじめに TensorFlow2.0ではこれまでのTensorFlowから大幅に変化するので、その変更点について記しておきます。 基的には公式のRoadmapの和訳と思って差し支えあり

    大幅に進化するらしいTensorFlow2.0について - HELLO CYBERNETICS
  • 【Python】最低限抑えておきたいループの書き方 - HELLO CYBERNETICS

    はじめに while文 while文での基的なループの書き方 while文をbreakで止める continueで1回ループをスキップする ループが最後まで到達して終了したときにのみ処理を行う for文 for文での基的なループの書き方 for文の基はfor 変数 in イテレータ: 再び基のforループへ 要素の番号と要素をセットで取り出したいenumerate()関数 2つのリストから順次同時に取り出す 辞書のkeyとvalueを取り出す はじめに プログラミングというのは同じことを実現するにしても色々な書き方があります。 ではそれらすべての書き方を網羅していなければならないかと言われるとそうでもなく、むしろ同じ処理の書き方が何通りもあるのならば、 「効率の良い、読みやすい書き方」を1つ覚えておくことが重要だと思われます。 今回は初心者が抑えておくと良いループの書き方を列挙して

    【Python】最低限抑えておきたいループの書き方 - HELLO CYBERNETICS
  • 機械学習の分野別概要【ディープ〜ベイズ】 - HELLO CYBERNETICS

    はじめに ディープラーニング 概要 方法論 ツール 伝統的機械学習 概要 方法論 ツール ベイズ機械学習 概要 方法論 ツール 最後に はじめに 今回は機械学習のいろいろな分野(便宜的に分けているだけですが)についてそれぞれ概要とツールをまとめておきたいと思います。具体的には以下の3つに分けて書いています。 ディープラーニング 伝統的機械学習 ベイズ機械学習 注意点として、これらは来別々に完全に分けて考えるものでもなく、混ぜて使うことができたり、あるいは理論的背景を共有していたりするものです。しかし、現状多くの場面ではこれらは用途に応じて使い分けられているのが実体であるため、あくまで使う側の立場でこれらの概要とツールについて述べていきます。 ディープラーニング 概要 ディープラーニングは言わずと知れた、機械学習の大流行の引き金となった存在です。 ディープラーニングのメインとなる存在である

    機械学習の分野別概要【ディープ〜ベイズ】 - HELLO CYBERNETICS
  • 1