import HLearn.Models.Distributions import HLearn.Algebra.Models.HomTrainer dataset = [1,2,3,4,5,6] dist = train dataset :: Normal Integer Integer -- 引用元: http://izbicki.me/blog/functors-and-monads-for-analyzing-data -- いろいろな色のビー玉の定義 data Marble = Red | Pink | Green | Blue | White deriving (Read,Show,Eq,Ord) bagOfMarbles = [ Pink,Green,Red,Blue,Green,Red,Green,Pink,Blue,White ] -- カテゴリーデータ(このカテゴリーと
ICML2013読み会に参加して発表してきました.幹事の @sla さん,会場提供してくださった東大中川先生,発表者,参加者のみなさまに改めてお礼申し上げます. タイムテーブルは以下のとおり. 18:00-18:20 @sla : "Learning Spatio-Temporal Structure from RGB-D Videos for Human Activity Detection and Anticipation" 18:20-18:40 @beam2d: "Local Deep Kernel Learning for Efficient Non-linear SVM Prediction" 18:40-19:00 @conditional: "Vanishing Component Analysis" 19:00-19:20 @jkomiyama_ : "Active Le
今回はLASSOとリッジ回帰についてです。 パッケージは「glmnet」、「lars」、「lasso2」で実行できます。 glmnetとlarsの作者はFriedman、Hastie、Efron、Tibshiraniと有名な先生ですが、lasso2の作者は知らないです。。 内容もほぼ一緒なので、LASSOをするときはglmnet一択で良いと思います。 まずは使用例から。。。 データはLARSパッケージにあるdiabetesを使います。 このデータである結果変数y(中性脂肪?)をx(性別や血圧など)によって予測するモデルを作ります。 まずは単純な線形回帰をします。 library(lars) library(glmnet) data(diabetes) Linear <- lm(diabetes$y ~ diabetes$x) Linear$coefficients これが推定結果です。 (
2006年のデータマイニング学会、IEEE ICDMで選ばれた「データマイニングで使われるトップ10アルゴリズム」に沿って機械学習の手法を紹介します(この論文は@doryokujin君のポストで知りました、ありがとうございます!)。 必ずしも論文の内容には沿っておらず個人的な私見も入っていますので、詳細は原論文をご確認下さい。また、データマイニングの全体観をサーベイしたスライド資料がありますので、こちらも併せてご覧下さい。 データマイニングの基礎 View more presentations from Issei Kurahashi 1. C4.5 C4.5はCLSやID3といったアルゴリズムを改良してできたもので、決定木を使って分類器を作ります。決定木といえばCARTが良く使われますが、CARTとの違いは以下のとおりです。 CARTは2分岐しかできないがC4.5は3分岐以上もできる C
従来,機械学習における連続最適化の利用は,解きたい問題を線形計画,2次計画,半正定値計画など,特定の標準形に帰着させることによって内点法などの既存の高性能なソルバーを言わばブラックボックスとして使おうというものであった.一方ここ数年,スパース信号復元や圧縮センシングの流行とともに信号処理の分野でこれらの枠組みにこだわらない最適化手法が盛んに研究されている.この発表ではこの代表例として,拡張ラグランジュ法,双対分解,Forward- Backward Splitting 法,ADMM法などを取り上げ,応用例を紹介するとともにそれらの関係を議論する.これらの手法は1960年代から70年代に最適化業界で盛んに研究された古い手法であるが,実装が単純で並列化可能であり,また,問題の性質(スパース性など)をよりよく捉えたアルゴリズムとなるため信号処理だけでなく,多くの機械学習の問題に適用可能であると考
Advances in Neural Information Processing Systems 23 (NIPS 2010) The papers below appear in Advances in Neural Information Processing Systems 23 edited by J.D. Lafferty and C.K.I. Williams and J. Shawe-Taylor and R.S. Zemel and A. Culotta. They are proceedings from the conference, "Neural Information Processing Systems 2010." Repeated Games against Budgeted Adversaries Jacob D. Abernethy, Manfred
昨日帰るとき、katsuhiko-h くんが論文紹介に苦しんでそうだったので(先週、先々週と彼が紹介していた)自分がやってもいいよ、と声をかけたので、午前中がんばって読んで紹介。 Jason Riesa and Daniel Marcu. Hierarchical Search for Word Alignment. ACL-2010. 思いがけずおもしろい論文であった。 簡単にまとめると、機械翻訳では単語の対応付け(どの単語がどの位置のどの単語に翻訳されるか)が重要な問題なのだが、この問題は典型的には IBM Model というのを使って(GIZA++ というツールにより)計算するのだが、これは教師なし学習(人手による正解データを用いない)であり、単語対応(アライメントと言う)のデータを作る必要がないのが利点だが、自分が「こういう対応付けになってほしい」と指定することができない、という問
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く