連続的なリスクのどこに「線」を引くのか:米国EPAのPM2.5基準値改訂、その"正当化ロジック"を読むtakehikoihayashi
![なぜベイズ統計はリスク分析に向いているのか?-その哲学上および実用上の理由-](https://cdn-ak-scissors.b.st-hatena.com/image/square/7bfeefe3133e56cbf2552494d00bbfde896414c8/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2Fwhybayesv2hayashiti-100713155631-phpapp01-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
連続的なリスクのどこに「線」を引くのか:米国EPAのPM2.5基準値改訂、その"正当化ロジック"を読むtakehikoihayashi
< ---- < | > Naive Bayesの罠 > ================================================ Naive Bayes(NB,ナイーブベイズ)の実装についてメモ。 NBというのはベイズ則に基づく単純な分類器で lnP(Ci|D) = Σj{lnP(wj|Ci)} + lnP(Ci)で文書DがクラスCiに属する確率が得られるよ、というもの。(以下、Σiで添字iのすべての場合についての足し合わせを表す) これを実装する場合、まず手元にデータ集合を用意する。データ集合はクラスラベル(Ci)の付けられた単語(wj)、つまり(Ci,wj)のペアの集まり。例えば (甘い,りんご) (甘い,りんご) (甘い,りんご) (甘い,ハチミツ) (甘い,ハチミツ) (甘い,バナナ) (甘い,砂糖) (甘い,カレー) (辛い,カレー) (辛い,カレー)
ゼミのレジュメ集 2018年前期は、以下の本をやります 「Python ではじめる機械学習」 Andreas C. Muller and Sarah Guido (中田秀基 訳) オライリー・ジャパン (2017) 新納研新配属+ の Python 課題進捗状況 新納研新人の課題進捗状況(TeX) 分類問題の課題 2017年後期は、私の以下の本をやります 「Chainer v2 による実践深層学習」 新納浩幸 オーム社 (2017) 2017年前期は、以下の本をやります 「機械学習理論入門」 中井悦司 技術評論社 (2015) 新納研仮配属+ の Python 課題進捗状況 新納研新人の課題進捗状況(TeX) 分類問題の課題 2016年前期は、以下の本をやります 「実践 機械学習システム」 Willi Richet, Luis Pedro Coelho 著、斉藤康毅 訳 オライリー・ジャパ
Recently I was experimenting with ruby bayes classification. At first sight it looks like a difficult topic, but with the right libraries it is interesting and funny. Before you start experimenting, you have to install 3 gems. gem install classifier gem install madeleine Confirm the required stemmer gem. For the beginning, lets experiment with the plain bayes classifier. require 'classifier' bayes
Peter Norvig / 青木靖 訳 先週、2人の友人(ディーンとビル)がそれぞれ別個にGoogleが極めて早く正確にスペル修正できるのには驚くばかりだと私に言った。たとえば speling のような語でGoogleを検索すると、0.1秒くらいで答えが返ってきて、もしかして: spelling じゃないかと言ってくる(YahooやMicrosoftのものにも同様の機能がある)。ディーンとビルが高い実績を持ったエンジニアであり数学者であることを思えば、スペル修正のような統計的言語処理についてもっと知っていて良さそうなものなのにと私は驚いた。しかし彼らは知らなかった。よく考えてみれば、 別に彼らが知っているべき理由はないのだった。 間違っていたのは彼らの知識ではなく、私の仮定の方だ。 このことについてちゃんとした説明を書いておけば、彼らばかりでなく多くの人に有益かもしれない。Googleの
新はてブ正式リリース記念ということで。もうリリースから何週間も経っちゃったけど。 新はてなブックマークではブックマークエントリをカテゴリへと自動で分類しているが、このカテゴリ分類に使われているアルゴリズムはComplement Naive Bayesらしい。今日はこのアルゴリズムについて紹介してみる。 Complement Naive Bayesは2003年のICMLでJ. Rennieらが提案した手法である。ICMLというのは、機械学習に関する(たぶん)最難関の学会で、採択率はここ数年は30%を切っている。2003は119/371で、32.1%の採択率だったようだ。 Complement Naive Bayesの位置づけは 実装が簡単 学習時間が短い 性能もそこそこよい という感じで、2003年段階にあっても、絶対的な性能ではSVMに負けていた。しかし、学習が早いというのは実アプリケーシ
もしもこの世から「残業」が完全になくなったら 3年ぐらい前に読んだ本を思い出した。 1980−90年代の話ですが、残業について、 「時間外・休日労働の弾力的運用が我が国の労使慣行の下で雇用維持の機能をはたしている」(1985年労働基準法研究会報告)とか、「我が国の労働慣行の実情に合うような上限設定が可能かどうか定かでない」(1992年同報告)と、雇用維持の為のコストとして恒常的な長時間労働を是認する考え方が主流でした。 需要の低下に応じて、生産水準を下げなくてはならなくなっても、バッファがあるから解雇せずに大丈夫でしょ、という。。。 まぁ、 ところが、その後、労働法政策が内部労働市場の雇用維持から外部労働市場における移動促進に徐々にシフトしていったにもかかわらず、この長時間労働哲学には疑問が呈されないまま21世紀に至っているのです。 と著者は問題視しているわけだけど。 話変わって、最近友人
占い師がこう言った。 「AB型を一言でいうと「変人」となります。より正確にいうなら「AB型の常識、世間の非常識」ということです。AB型は知的活動に適応した人間です。頭で考えて生きる人たちです。怠け者で、執着心があまりありません。」 さて、これは正しいだろうか? http://www.catv296.ne.jp/~butakusa-no-niwa/kannjyou.htm こちらのページからの引用トリックなのだが、AB型を「AB型は社会の中では少数派です。」としている。 もし、貴方が血液型占いが大好きだったら、これが真であると思うかもしれない。だが、この占いは、巧妙なトリックがある。 それは、事前確率を織り込んでいる、という点だ。 http://www.fukushima-bc.jp/new_page_70.htm こちらのページで、日本人の血液型分布が見れるが、AB型の日本人は、全体の10
*********** お知らせ *********** YukiWikiによるベイズ統計ファンサイト を開設しました。 このページ「Bayesianってどういう考え方なんだろう」は、 以上のファンサイトへ発展的解消いたします。 どうぞご贔屓に! ********************************* ベイズ理論は、 普通の確率論とは一風異なる確率理論です。 この小文では、ベイズ理論の意味・意義について 私がこれまでに学び、考えたことについて整理を試みます。 とかく、<宗教的信念>のごとくに扱われがちのベイジアン思想ですが そのおかしいところ、よいところなど、基準を明確にして検証していけたら いいな、というのが目標です。 私自身勉強中の身なので定説と異なることを述べていたり、 明らかな間違いもあるかもしれません。 そのつもりでだまされ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く