250. Reference "Pattern Recognition and Machine Learning" Christopher M. Bishop Springer; 1st ed. 2006. Corr. 2nd printing edition (October 1, 2007) "Truth and Probability" Frank Plumpton Ramsey (1926) "The physical basis of IMRT and inverse planning" S Webb British Journal of Radiology (2003) 76, 678-689 251. Wikipedia 渡辺慧 http://ja.wikipedia.org/wiki/%E6%B8%A1%E8%BE%BA%E6%85 %A7 『No Free Lunch T
Project Welcome_to_Wakahara_Project.pdf Introduction_to_Handwritten_Character_Recognition.pdf IPTP CDROM1B cdrom1b.txt PGM_digit.c learn.pat test.pat C Programming Language Lecture Notes Cpro_1.pdf Cpro_2.pdf Cpro_3.pdf Cpro_4.pdf Cpro_5.pdf Cpro_6.pdf Cpro_7.pdf Cpro_8.pdf Cpro_9.pdf Cpro_10.pdf Cpro_11.pdf Cpro_12.pdf Cpro_challenge.pdf Human Computer Interaction Lecture Notes Hci_1.pdf Discrete
とりあえず1回目は、前に言っていたNLP Programing TutorialのCapter01(pdf)、1-gram言語モデルの勉強です。 では、スライドに沿って話を進めようと思います。 言語モデルって何? 1-gram言語モデルの前に、そもそも言語モデルって何? 具体例で説明すると。 音声認識システムにて、認識した結果の出力候補としていくつかの単語列があったとしましょう。 W1 = speech recognition system W2 = speech cognition system W3 = speck podcast histamine W4 = スピーチ が 救出 ストン 言語モデルは、これらの単語列に「もっともらしさ」を与えてくれるのです。 一般的には、各単語列に確率を与えてくれます。 上の各単語列は、ある言語モデルに基づくと P(W1) = 4.021*10-2 P
テキストマイニングに必要なパターン認識と機械学習について学びます。非常に初歩的な話から始めます。対象者は「テキストマイニングに興味があり、用いられる手法の中身を知りたい(けれど高度な数学は厳しい…)」というビジネスマンや学生さんです。数式は出来る限り「使います」。使わないと意味するところは理解できません。ただし、愚直に数式の一行一行を手計算で順を追って解いていきますし、必要な数学知識はその都度説明し、前提知識は求めませんので「数式出てくるの?じゃあついていけないのでは…」という心配は不要です。この記事の特徴は「機械学習の手法をやたら冗長な数式と過剰なまでの例を用いて、くどくどと同じ話を何度も説明する」ことです。 筆者ことあんちべは純文系出身で、数学や統計学、プログラミングは全然学生時代やってこなかった上、業務でも機械学習を使うことなんて皆無、それどころか機械学習なんて言葉は就職してからよう
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く