タグ

svmとnlpに関するyassのブックマーク (4)

  • データマイニング2010 - データベース高度利用者養成

    レポート3について † ナイーブベイズでUSPSデータの予測をする問題は,現状のライブラリでは動かないことが判明しましたので,回答しなくて結構です. ↑ レポート4について † SVMのレポートの所,デフォルトでは回帰分類(regression)を行って数値予測をしてしまいます. 正しくクラス分類を行うために,モデルの作成の所は,以下の様に typeを追加してください. svm(training_data,training_class,type="C-classification", mode="〜") ↑

  • Survey1

    Survey1 SVMを用いた固有表現抽出に関する論文のサーベイ 1.Support Vector Machineを用いた日語固有表現抽出 2.Support Vector Machineの多値分類問題への適用法について 3.SVMに基づく固有表現抽出の高速化 4.日語固有表現抽出における文節情報の利用 5.Stackingの効率的な学習方法と日語固有表現抽出での評価 6.非頻出語に対して頑健な日語固有表現の抽出 7.大域的情報を用いた日語固有表現認識 SVMを利用した日語固有表現抽出に関する論文が中心です. 固有表現タグを入力文の解析単位毎に正確に付与することが目的です. チャンカーは基的にYamCha 1.Support Vector Machineを用いた日語固有表現抽出 山田寛康 工藤拓 松裕治 奈良先端科学技術大学院大学情報科学研究科 概要

  • 最大マージン kNN と SVM の関係: kNN も最近はがんばっています - 武蔵野日記

    先日書いた機械学習における距離学習の続き。 kNN (k-nearest neighbour: k 近傍法)は Wikipedia のエントリにも書いてある通り、教師あり学習の一つで、あるインスタンスのラベルを周辺 k 個のラベルから推定する手法。memory-based learning と呼ばれることもある。単純に多数決を取る場合もあれば(同点を解決する必要があるが)、近いインスタンスの重みを大きくする場合もあるのだが、いずれにせよかなり実装は単純なので、他の機械学習との比較(ベースライン)として使われることも多い。 簡単なアルゴリズムではあるが、1-NN の場合このアルゴリズムの誤り率はベイズ誤り率(達成可能な最小誤り率)の2倍以下となることが示されたり、理論的にもそれなりにクリアになってきているのではないかと思う。また、多クラス分類がちょっと一手間な SVM (pairwise に

  • しかしSVMも最近は速いらしい - 射撃しつつ前転 改

    Complement Naive BayesがSVMより速いよーと主張していたので、SVMもなんか最近は速くなってるらしいよ、という事を紹介してみたい。近年はSVMなどの学習を高速に行うという提案が行われており、実装が公開されているものもある。その中の一つにliblinearという機械学習ライブラリがある。ライブラリ名から推測できる通り、liblinearではカーネルを使うことが出来ない。しかし、その分速度が速く、大規模データに適用できるという利点がある。 liblinearを作っているのはlibsvmと同じ研究グループで、Chih-Jen Linがプロジェクトリーダーであるようだ。libsvmはかなり有名なライブラリで、liblinearにはそういった意味で安心感がある。(liblinearの方は公開されてしばらくは割とバグがあったらしいけど。) liblinearにはL1-SVM, L

    しかしSVMも最近は速いらしい - 射撃しつつ前転 改
  • 1