タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

機械学習に関するhaneimoのブックマーク (6)

  • はてなブログ | 無料ブログを作成しよう

    オーベルジーヌ実レポ べ物の鼻塩塩(未だに通じるのかな) オーベルジーヌというカレーをご存知だろうか 都内にあるデリバリー専門のカレー屋で、 ロケ弁などで大人気の格欧風カレーが楽しめるらしい いいな〜 いいな〜オブザイヤー 都内の奴らはこんな良いモンってんのか 許せねえよ………

    はてなブログ | 無料ブログを作成しよう
  • 過剰適合 - Wikipedia

    英語版記事を日語へ機械翻訳したバージョン(Google翻訳)。 万が一翻訳の手がかりとして機械翻訳を用いた場合、翻訳者は必ず翻訳元原文を参照して機械翻訳の誤りを訂正し、正確な翻訳にしなければなりません。これが成されていない場合、記事は削除の方針G-3に基づき、削除される可能性があります。 信頼性が低いまたは低品質な文章を翻訳しないでください。もし可能ならば、文章を他言語版記事に示された文献で正しいかどうかを確認してください。 履歴継承を行うため、要約欄に翻訳元となった記事のページ名・版について記述する必要があります。記述方法については、Wikipedia:翻訳のガイドライン#要約欄への記入を参照ください。 翻訳後、{{翻訳告知|en|Overfitting|…}}をノートに追加することもできます。 Wikipedia:翻訳のガイドラインに、より詳細な翻訳の手順・指針についての説明がありま

    過剰適合 - Wikipedia
  • 共役事前分布 - 機械学習の「朱鷺の杜Wiki」

    共役事前分布 (conjugate prior)† 尤度関数と掛けて事後分布を求めると,その関数形が同じになるような事前分布. 指数型分布族ではこのような共役事前分布が存在し,次のような形.(表記は指数型分布族の項を参照) \[\Pr[\mathbf{\theta}|\mathbf{\eta},\nu]=f(\mathbf{\eta},\nu)Z(\mathbf{\theta})^\nu\exp(\nu\sum_{j=1}^p \theta_j\eta_j)\] ただし,\(\mathbf{\eta}=(\eta_1,\ldots,\eta_p)\) と \(\nu\) はパラメータ. 確率分布と,その分布に対する共役事前分布の例

  • 第2回自然言語処理勉強会@東京に参加してきた

    http://atnd.org/events/8140 「あずにゃんに関連する検索キーワード」→「あずにゃん ペロペロ」を実現するクエリ推薦技術について [twitter:@y_benjo]さん 発表資料:http://d.hatena.ne.jp/repose/20100925/1285399983 ユーザが入力したクエリに「近い」クエリを推奨する技術に関する二つの論文の紹介。 ここでいう「近い」とは、「意味的に近い」ということ。 今回の紹介論文で用いるデータは以下のとおり ユーザが入力したクエリ 検索結果からどのページに遷移したかという情報 論文1: Query suggestion using hitting time 論文PDFリンク:http://research.microsoft.com/en-us/um/people/denzho/papers/sugg.pdf 手法 ユー

    第2回自然言語処理勉強会@東京に参加してきた
  • 中学生にもわかるかもしれないナイーブベイズ - kogelab::memo

    というわけでナイーブベイズのおさらいを,直感的な説明でしてみます. 厳密な説明は数多あるので,僕の出番はございません. 間違い等沢山あると思いますので,気づいた方はご一報をお願いします. ナイーブベイズは,データを分類します.が,今回はテキストを分類する文脈です. たとえば,今受け取ったメールがスパムメールか,スパムじゃないかを判定(分類)するようなタスクを考えて下さい. なんだか勘違いが多い気がしますが,ナイーブベイズは2種類に分けるだけじゃなくて,もっと沢山の種類にも分けられます. スパムメール,彼女からのメール,お仕事のメール,とても人には言えない趣味のメールの4つに分類することも可能です. ですが単純のため,以下では2種類に分けたい場合のみに焦点を絞りますね. 分類しますといっても,何も情報が無いのに分類はできません. そこで,ナイーブベイズでは,あらかじめ分類されたテキストをたく

    中学生にもわかるかもしれないナイーブベイズ - kogelab::memo
  • [NLP] 第五回自然言語処理勉強会で発表してきました - tsubosakaの日記

    id:nokunoさんの主催する自然言語処理勉強会で、Infer.NETを使ってLDAを実装してみたというタイトルで発表してきました。 Infer.NETMicrosoftが公開しているグラフィカルモデル上でベイズ推定を行うためのフレームワークです。このようなものを使うことにより、具体的な推論アルゴリズムの導出を人が行うことなく、生成モデルを記述するだけで事後分布の推論が可能になり、簡単に確率モデルを問題に合わせて定義するということが行えるようになるといいなと思って、今回紹介しました。 Infer.NETを使ってLDAを実装してみた View more presentations from tsubosaka 参考文献 Infer.NETを使う上で参考になるかと思われる書籍をあげておきます。 パターン認識と機械学習 上 - ベイズ理論による統計的予測 作者: C. M.ビショップ,元田浩

    [NLP] 第五回自然言語処理勉強会で発表してきました - tsubosakaの日記
  • 1