タグ

2016年9月8日のブックマーク (4件)

  • Propensity scoreの図解まとめ

    Propensity scoreの図解まとめ 1. Propensity Score 図解まとめ “MIT白熱教室 これからの因果推論を考えよう”の 後半部分を切り出したものです。 日常診療で治療の割り 付けはランダムか? 2. 医師がよく考えて治 (はず) 療を決めている。 3. Causal Diagramの 説明はこちらを参考 http://www.slideshare.net/kaz_yos/20130921talktojapanesescientists20130921a 4. 重症度 性別 年齢 よく考えて治療を決めた結果... 薬剤投与 Yes/No ? 病気の改善 Yes/No 統計学的な関連は直接薬剤の効果を意味しない Association ≠ Causation 相関 ≠ 因果 相関 = 因果関係による相関 + 交絡による相関 5. そのまま比較できない 6. 重症度

    Propensity scoreの図解まとめ
  • 読書日記: Pearl(2009) 敵対的な審査者との対話、あるいは SEM サバイバル・キット

    « 読了:「ロミオとジュリエット」「黒い裾」「ぼくを忘れたスパイ」「二十一の短編」「スミヤキストQの冒険」 | メイン | 読了: Hampton, et al. (2014) ソーシャルメディアと「沈黙の螺旋」 » 2014年8月24日 (日) 金曜の夜にwebをぼんやり眺めていて、因果推論の巨匠 Pearl 先生が公開しておられるすごく面白い文章を見つけた。難解をもって知られる主著"Causality"の第二版に収録されている文章で、第一版の訳書にはみあたらない。 あまりに面白い文章なので、ずるずるとメモをとっていたら、結局だいたい訳出してしまった。貴重な休日の午後を費やし、俺はいったいなにをしておったのか、と窓の外が暗くなってから我に返ったが、あとの祭りとはこのことである。実際、今日は近所で夏祭りがあったらしい。 せっかくなのでメモを以下に載せておきます。ご関心あるかたはぜひ原文にあ

  • Hash2Vec, Feature Hashing for Word Embeddings

    In this paper we propose the application of feature hashing to create word embeddings for natural language processing. Feature hashing has been used successfully to create document vectors in related tasks like document classification. In this work we show that feature hashing can be applied to obtain word embeddings in linear time with the size of the data. The results show that this algorithm, t

    ohnabe
    ohnabe 2016/09/08
    Feature Hashing
  • DS LT祭り 「AUCが0.01改善したって どういうことですか?」

    This document discusses precision and recall, which are metrics used to evaluate the performance of classification models. Precision measures the proportion of predicted positive instances that are actually positive, while recall measures the proportion of actual positive instances that are correctly predicted to be positive. The document also presents formulas for calculating precision, recall, a

    DS LT祭り 「AUCが0.01改善したって どういうことですか?」
    ohnabe
    ohnabe 2016/09/08