機械学習に関するlist1569のブックマーク (7)

  • 少しでも研究に興味がある人,面白いテーマを探している人は「研究に必要なたったN個の事」とかいう記事を読まずに今すぐに"How to do good research, get it published in SIGKDD and get it cited!"を読

    言いたいことはタイトル. そもそもSIGKDDとはSpecial Interest Group on Knowledge Discovery and Data Miningというデータマイニングや知識獲得のトップカンファレンス.WWWについで読んでて興味が合う論文が多い. How to do good research, get it published in SIGKDD and get it cited!(pdf) 173ページあるスライドだけど良い事ばかり書いてあるし,読者を楽しませるような非常に多くの著者の実体験(成功したものだけでなく,失敗したものも)や,後半になるとダメな論文,間違っている論文,その例が大量に載っていて飽きずに読める.ただKDDに通したい人だけでなく,研究を少しでもやろうとしている人,論文を書こうとしている人,面白いことをやりたい人は必ず読むべき. 適当に面白か

    少しでも研究に興味がある人,面白いテーマを探している人は「研究に必要なたったN個の事」とかいう記事を読まずに今すぐに"How to do good research, get it published in SIGKDD and get it cited!"を読
  • Stability in Pattern Recognition

    不変則の紹介 [不変則の紹介] [不変則批判] [不変則批判再論] [対判定擁護] ←[パターン認識雑論] ←[中野の研究紹介] ←[中野の目次] 「パターン認識における不変則」は、安田道夫教授 (明星大学情報学部電子情報学科) によって、 1996年11月、京都大学数理解析研究所研究会で発表されたものである。 ただし、かなり昔の電子通信学会大会 (1972年頃) で基アイデアは提示されている。 1997年頃、あるところでこの理論が紹介され、 (電子メイルと参加者限定ウェブ上で) 議論が展開された。 そのときに作られた安田氏論文の電子テキストはあるが、 公開されたものではないので著作権の観点から紹介せず、筆者の理解したところを紹介する。 したがって、このページに誤りがあれば全責任は筆者にある。 読んで戴けばわかるように、光学的文字認識 (OCR) をパターン認識の例としてとってい

  • ブートストラップ法 - 元データ分析の会社で働いていた人の四方山話

    諸般の事情でブートストラップ法を利用する可能性が高いので復習をかねて書きます。 こちらがすごくまとまっていたので、参考にしました。 Web上であまり情報が見つからなかったのは探し方が悪かったのかな?? とりあえず パラメトリック・ブートストラップ法と、ノンパラメトリック・ブートストラップ法がある。 有名、というかよく使われるのはノンパラメトリック・ブートストラップ法の方で、今回書いているのもたぶんノンパラメトリック・ブートストラップの方 ブートストラップ法とは 標集団からリサンプリングを繰り返し(重複を許す)、得られた新たな標集団(ブートストラップ標)の統計量の分布が、母集団の分布に近いものになる、という性質を利用して、母集団に対する事前知識なし(確率密度関数を使わず)に、母集団の統計量を推定する手法です。 確認 Rのリハビリをかねつつ、確認してみます。 適当に与えたデータ(1〜10

  • TokyoWebmining#8 協調フィルタリングにおける希薄問題の解決法 - Random walk

    How to Leverage AI to Boost Employee Wellness - Lydia Di Francesco - SocialHR...

    TokyoWebmining#8 協調フィルタリングにおける希薄問題の解決法 - Random walk
  • netflix prize is over, 時間経過による嗜好性の変化 - DO++

    米国のオンラインDVDレンタルサービス「Netflix」が、現在利用しているレコメンデーションシステムの性能をはじめに10%改善したチームに100万ドルの賞金を与えるという触れ込みで始まったnetflix prizeは当初の予想よりも時間がかかったが、つい最近最初からトップを走り続けていたbellkorと、上位陣のコラボレーションのチームが10%の壁を破った(leaderboard)。 彼らの手法は「非常に多くの様々な種類のレコメンデーションシステムの結果を混ぜ合わせる」という愚直だがいかにも精度が出そうだという方法を採用している(、と昨年度の結果からは思われる。近々詳細は出るだろう。) 実際に使ってとどめになったかどうかは分からないが、彼らのチームの主要メンバーがKDDで新しい手法を発表しており、単一の手法による最高精度を達成している。ちなみに今年のKDD(データマイニング系の学会の最高

    netflix prize is over, 時間経過による嗜好性の変化 - DO++
  • 人手で頑張らない注釈付きデータの作成は可能か - ny23の日記

    忘れないうちにメモ.中国の学会で感心した発表の一つに以下のような研究があった. Discriminant Ranking for Efficient Treebanking ポスター発表を聴講しただけなので,誤解しているところもあるかも知れないが,話としては単純で,曖昧性解消の注釈付けをする際に,作業者自身の履歴から曖昧性解消モデルを学習して注釈付け候補をリランキングして作業者に提示する,というもの.実際の作業を通して効果を計測しているのも良く,約1.5倍注釈付けが高速化される上,inter-rator agreement も上がったとのこと. この研究自体も面白いのだけど,人を分類器とみなして,機械学習の文脈で対応する手法を考えるとさらに興味深い.アプローチとしては, Revision Learning and its Application to Part-of-Speech Tagg

    人手で頑張らない注釈付きデータの作成は可能か - ny23の日記
  • [授業]

    東京工業大学 2008年度前期(学部2年):確率と統計 2008年度前期(大学院):パターン情報処理(英語) 2007年度後期(学部3年):情報認識 (学生評価の高い講義に選ばれました!) 2007年度前期(学部2年):確率と統計, 宿題用のデータ 2007年度前期(大学院):データ解析特論(英語), 宿題用のデータ 2006年度後期(学部3年):情報認識 (学生評価の高い講義に選ばれました!) 2006年度前期(学部1年):5類F1ゼミ 2006年度前期(学部2年):確率と統計 (学生評価の高い講義に選ばれました!) 2006年度前期(学部3年):情報工学創作実習 2006年度前期(大学院):パターン情報処理(英語) 2005年度後期(学部3年): 情報認識 2005年度前期(学部1年):5類F1ゼミ 2005年度前期(学部2年):情報工学創作実習 2005年度前期(大学院):データ解析

  • 1