タグ

2017年6月8日のブックマーク (10件)

  • 調査観察データにおける因果推論(4) - Rで傾向スコアを出す際の共変量選択基準 - About connecting the dots.

    目次 調査観察データにおける因果推論(1) - 無作為割り当てされていないことの問題 - About connecting the dots. 調査観察データにおける因果推論(2) - 傾向スコアとIPW推定量,二重にロバストな推定量 - About connecting the dots. 調査観察データにおける因果推論(3) - Rによる傾向スコア,IPW推定量,二重にロバストな推定量の算出 - About connecting the dots. 査観察データにおける因果推論(4) - Rで傾向スコアを出す際の共変量選択基準 - About connecting the dots. はじめに 前回は細かい理屈をすっ飛ばして,全変数を共変量として突っ込んだロジスティック回帰を実行しましたが,当然そんなやり方はほめられたものではないわけです.今回は,この傾向スコア算出に使う共変量をどのよ

    調査観察データにおける因果推論(4) - Rで傾向スコアを出す際の共変量選択基準 - About connecting the dots.
  • シンプルなモデルとイラストでカルマンフィルタを直観的に理解してみる - Qiita

    はじめに カルマンフィルタは逐次ベイズフィルタの一種で,かつてのアポロ計画や,現代ではカーナビ等の身近な製品でも広く活用されています.モデルが線形である(あるいは線形に近似できる)ことや,ノイズがガウス分布に従うことを仮定する必要がありますが,その仮定が許容できるシステムでは実効性が高く,様々な場面で既に実用化されています. そんなカルマンフィルタの式や,その導出を初めてみた時,こんな風に感じました. 「なんか,よく分からんが,複雑そうだなぁ」 だって,こんなんですもの... 状態空間表現(動作モデル,観測モデル) \boldsymbol{x}_t = \boldsymbol{A} \boldsymbol{x}_{t-1} + \boldsymbol{B} \boldsymbol{u}_{t} + \boldsymbol{\epsilon}_t \\ \boldsymbol{z}_t =

    シンプルなモデルとイラストでカルマンフィルタを直観的に理解してみる - Qiita
    phare
    phare 2017/06/08
  • Data Science Podcasts

    Make the most of your commute! Posted on May 31, 2017 | 2 minutes (256 words) Podcasts are awesome. Especially when you’re stuck in traffic on the way to work. Below are some podcasts I listen to that relate to data science and statistics. Each of them has something slightly different to offer, so if this is an area of interest to you then I recommend you give these a try! Not So Standard Deviatio

    Data Science Podcasts
  • 正規方程式とは何か - 北野坂備忘録

    数学の得意な人間はだいたいにおいてそうでない人間から見るとたいへん冷たいです。 「正規方程式とは何か?」という文系からの問いに、「最小二乗法を勉強すれば分かるでしょう?」という、木で鼻をくくったような回答をします。 そもそも文系からすると「この『正規』という単語はどこから湧いて来たのか。どういう意味なのか」をまず知りたいのです。英語でいうとNormal Equationです。このNormalが何を指しているのかをまず知りたい。 しかしながらポンと数式を出して「これが正規方程式です」で終わる。 しかもその正規方程式が書籍やサイトによってまるで違う!(ように見える) 『はじめてのパターン認識』だとこうです。 (1) Wikipediaだとこうです。 (2) そして一番分かりやすいであろう「高校数学の美しい物語」ではこうです。 (3) 文系にはこれが全く違う式に見えます。せいぜい「(2)と(3)

    phare
    phare 2017/06/08
  • [PDF]最小二乗法の今と昔

    ‐‐ ‐‐ Yin Jun‐Feng (Tongji University) 5 . 6 . 2008 House Open NII • • • • ⎩ ⎨ ⎧ = − = + ) 2 ( 2 3 ) 1 ( 5 3 2 L L y x y x ⎩ ⎨ ⎧ = − = + ) 2 ( 2 3 ) 1 ( 5 3 2 L L y x y x 1 , 1 ) 2 ( 2 3 ) 1 ( 5 3 2 = = ⎩ ⎨ ⎧ = − = + y x y x y x L L 1 , 1 ) 2 ( 2 3 ) 1 ( 5 3 2 = = ⎩ ⎨ ⎧ = − = + y x y x y x L L x y 5 3 2 = + y x 2 3 = − y x ) 1 , 1 ( 0 ⎪ ⎩ ⎪ ⎨ ⎧ = + − = − = + ) 3 ( 1 ) 2 ( 2 3 ) 1 ( 5 3 2 L L L y x

    phare
    phare 2017/06/08
  • [PDF]カーネル法入門 1. - 統計数理研究所

    1 福水健次 統計数理研究所/総合研究大学院大学 大阪大学大阪大学大学院基礎工学研究科・集中講義 2014 September カーネル法入門 1.カーネル法へのイントロダクション 2 2 カーネル法: 近年 (1990年代半ばごろから) 発展したデータ解析の方 法論.非線形な情報や高次モーメントの扱いが容易. サポートベクターマシンの提案が発端となった. 3 3 線形なデータ解析,非線形な データ解析 データ解析とは? Analysis of data is a process of inspecting, cleaning, transforming, and modeling data with the goal of highlighting useful information, suggesting conclusions, and supporting decision ma

    phare
    phare 2017/06/08
    グラム行列
  • ガウスカーネルとその特徴ベクトル - 具体例で学ぶ数学

    ガウスカーネルとは ・$K(x,x’)=e^{-a(x-x’)^2}$ という式で定義される二変数関数のことをガウスカーネルと言います。$a$ は正の定数です。関数の入力は $x$ と $x’$ で、出力はスカラーです。このページでは一次元のガウスカーネルについて説明します($x$ と $x’$ はスカラーとします)。 ・ガウス分布(正規分布)の確率密度関数に似ています。 ・ガウスカーネル $K(x,x’)$ は $x$ と $x’$ の「近さ」を表します。 ・$x=x’$ のとき $K(x,x’)=1$ で、$x\neq x’$ のときは $K(x,x’)<1$ です。 ガウスカーネルの特徴ベクトルとは データ $x$ に対する特徴ベクトルが $\overrightarrow{\phi}(x)$ であるとき、それに対応するカーネル関数は、 $K(x,x’)=\overrightarrow

    phare
    phare 2017/06/08
  • 斉次とは?(漢字と意味)

    ご存じの通り、「斉次」=「次数が斉(ひと)しい」 でよろしいと思います(英語では、homogenous)。また、別の言い方としては「同次」ともいいます。 さて、お尋ねの次数についてですが、例えば、xとyの多項式の場合は、xとyを同じものとして扱って、同じ次数(xとyを掛けた回数)だけで表されるものを「斉次」といいます。 例)○ x^3+x^2・y+x・y^2+y^3   (x、yについての3次の斉次多項式) × x^3+x^2・y+x・y^2+y^3+5 (定数項の5は次数0で異なる次数のものが含まれているので。) http://ja.wikipedia.org/wiki/%E5%A4%9A%E9%A0%85% … また、微分方程式などで使われる場合は、y、y'、y''、y'''などを同等に扱って、同じ次数(y、y'、y''、y'''などを掛けた回数)だけで表されるものを斉次微分方程式とい

    斉次とは?(漢字と意味)
    phare
    phare 2017/06/08
    漢字の意味
  • Highest scored 'intuition' questions

  • What's an intuitive way to think about the determinant?

    phare
    phare 2017/06/08