タグ

機械学習に関するlikesideのブックマーク (27)

  • パターン認識・機械学習勉強会

    2014年 パターン認識・機械学習勉強会 資料 第1回:イントロダクション 第2回:ベイズ確率・ベイズ識別・モデルの検証 第3回:モデル選択基準・MCMC法 第4回:ギブスサンプリング・線形識別モデル 第5回:線形識別モデル:ロジスティック回帰 第6回:線形識別モデル:ベイズロジスティック回帰,フィッシャーの線形判別 第7回:ニューラルネットワーク 第8回:ニューラルネットワーク(続き) 第9回:ニューラルネットワーク(続き) 第10回:カーネル法, カーネル密度推定法,カーネル回帰分析 第11回:カーネル法:ガウス過程 第12回:サポートベクターマシン, ソフトマージン 第13回:多クラスSVM, SVM回帰, 関連ベクターマシン 第14回:ベイジアンネットワーク 第15回:ジョインツリーアルゴリズム 第16回:ジョインツリーアルゴリズム(続き) 第17回:マルコフ確率場・ファクターグラ

  • 情報系主要国際会議2013のチュートリアルまとめ1: 機械学習、データマイニング、人工知能 | ぱろすけのメモ帳

    情報系の国際学会の多くでは、研究発表に加えてチュートリアル・セッションが設けられています。チュートリアルではホットなテーマの基礎から応用までが扱われ、要点を絞ってわかりやすく解説されており、初心者の入門には最適です。 学会に参加してチュートリアルを受けなくても、多くの場合はその内容を知ることができます。その概要は必ず会議のプログラムに掲載されますし、発表者がスライドを Web にアップロードすることも多く、発表の様子がビデオ配信されることもあります。 オンラインに情報があることは多いとはいえ、それらは基的には分散しています。会議のウェブサイトにはチュートリアル一覧が載っています。しかし、そこから発表者によるチュートリアルサイトにリンクが貼られていることは少なく、スライドの情報もないことが多い。これは非常に不便です。 というわけで、2013年の情報系主要国際会議で行われたチュートリアルのタ

    情報系主要国際会議2013のチュートリアルまとめ1: 機械学習、データマイニング、人工知能 | ぱろすけのメモ帳
  • 手元に置いておくと安心できる、情報系の人向けな日本語の本のリスト - EchizenBlog-Zwei

    最近、人にを薦める事が多くなった。とりあえずこの辺を読むといいですよ的なリストを作っておくと便利だと思ったので作ることにした。 以下、「事前知識のいらない入門」「事前知識はいらないけど格的な」「事前知識がないと何言ってるかわからないけど有益な情報が満載な」の3つにわけて列挙する。 事前知識のいらない入門 数式少なめ、脳負荷の小さめなをいくつか。何をやるにしてもデータ構造、アルゴリズム、数学はやっておくと幸せになれるよ。 情報検索と言語処理 データマイニングとか自然言語処理とかやりたい人にはとりあえずこれ。さすがに古い話が多くなってきたのでそろそろ新しい入門用情報検索がでないかなあと思っている。 図解・ベイズ統計「超」入門 伝説のベイジアン先生がベイズの基礎を教えてくれる。ベイズやりたい人はこれ。 珠玉のプログラミング データ構造とかアルゴリズムとかの考え方の基礎を教えてく

    手元に置いておくと安心できる、情報系の人向けな日本語の本のリスト - EchizenBlog-Zwei
  • 機械学習CROSS 前半資料

    Shohei HidoChief Research Officer at Preferred Networks America, Inc.

    機械学習CROSS 前半資料
  • 僕はもう、そんなにナイーブじゃないんだ - Qiita

    Machine Learning Advent Calendarの20日目です。 はじめに Naive Bayes(NB)とその改良版のTransformed Weight-normalized Complement Naive Bayes(TWCNB)、Averaged One-Dependence Estimators(AODE)という手法について解説と実装を書きます。 Naive Bayes NBはベイズの定理と特徴変数間の独立性仮定を用いた分類器です。文書のカテゴリ分類等でよく利用されます。 NBは、事例$X$に対し$P(y|X)$が最大となるクラス$y$を分類結果として返します。$P(y|X)$は、ベイズの定理を用いて、以下のように展開が可能です。 P(y|X) = \frac{P(y, X)}{P(X)} = \frac{P(X|y)*P(y)}{P(X)} \propto P

    僕はもう、そんなにナイーブじゃないんだ - Qiita
  • ディリクレ過程混合モデルへの変分推論適用について - old school magic

    この記事について ノンパラメトリックベイズは分かりやすいチュートリアルは良く見かけるのですが、そこから一歩進んだ(日語の)資料に行きつけなかったので、色々と論文読んで簡単に(数式を出さないで)まとめてみます。 ぶっちゃけるとCollapsed Variational Dirichlet Process Mixture Modelsの簡単な要約です。 あまり自信がないのでもし間違ってたりしたらご指摘お願いします。 前の記事よりはまともな説明ができれば...と思います。 Infinite Gaussian Mixture Model (IGMM) の情報まとめ - old school magic 事前知識としてノンパラベイズと変分推論の知識が必要ですが、ノンパラベイズは持橋さんの分かりやすい解説があるのでご紹介します。 最近のベイズ理論の進展と応用 (III) ノンパラメトリックベイズ デ

    ディリクレ過程混合モデルへの変分推論適用について - old school magic
  • これもある意味Deep Learning,Recurrent Neural Network Language Modelの話 [MLAC2013_9日目] — KiyuHub

    これもある意味Deep Learning,Recurrent Neural Network Language Modelの話 [MLAC2013_9日目] この投稿は Machine Learning Advent Calendar 2013 の9日目の記事です. 日は,Neural Network(NN)を利用したLanguage Model(LM),つまりNeural Network Language Model(NNLM)の一種であり, Recurrent Neural Network(RNN)を使ったRecurrent Neural Network Language Model(RNNLM)について説明します. RNNLMに行く前置きとしてざっくりいくつか用意したので,知ってそうな人は先へ進んでください. 前置きを入れているうちに長くなりすぎた.... しかも,そもそもNNの説明

    これもある意味Deep Learning,Recurrent Neural Network Language Modelの話 [MLAC2013_9日目] — KiyuHub
  • MLAC2013 数式を使わずイメージで理解するEMアルゴリズム - Wolfeyes Bioinformatics beta

    はじめに Machine Learning Advent Calendar 2013の15日目を担当する@yag_aysです.専門はバイオインフォマティクスという計算機を使って生物学をする分野で,生モノではなく遺伝子の文字列相手に格闘している大学院生です.今回は初心者の人を対象に,なるべく数式を使わずにEMアルゴリズムについて解説してみたいと思います. EMアルゴリズムは,SVMやニューラルネットワークといった華々しい機械学習の手法の一つではなく,機械学習の中で使われる尤度最大化という一部分を担当するアルゴリズムです.そのため多くの人にとってEMアルゴリズムは,それ単体を使ってみたりだとか独自に改良をしたりするような対象ではないでしょう.でも,EMアルゴリズムなんて仰々しい名前が付けられているだけあって,いざ自分の仕事に組み込む場合には中身を理解していないと「なぜEMアルゴリズムを使ったの

  • しましま/IBIS2013 - 機械学習の「朱鷺の杜Wiki」

    第16回 情報論的学習理論ワークショップ (IBIS2013)† このページはしましまが IBIS2013 に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. チュートリアル1:機械学習概要† 村田 昇(早稲田大学) 学習とは『賢くなる手続き』 スパムメール,Googleの検索,推薦システム,Watson将棋,徴税システム 計算論的学習理論 人工知能とアルゴリズムの初期研究:決定的 → 確率的・非決定的な考え方の登場 80年代の Valiant 十分な確率で正解に達すればよい → PAC学習 統計的学習理論 確率的近似法(統計的探索に確率探索の手法を導入)→ 学習系の平均挙動の統計的解析 → VC次元の理論と発展 学習問題の枠組み 教師あり(回帰,識別)・教師なし(クラスタリ

  • 確率的勾配降下法+α の話をしました - kisa12012の日記

    先日PFIセミナーにて,「SGD+α: 確率的勾配降下法の現在と未来」というタイトルで発表をしました!発表の機会を設定して頂いたPFIの皆様,ありがとうございます.スライドは以下になります. SGD+α: 確率的勾配降下法の現在と未来 from Hidekazu Oiwa 確率的勾配降下法(SGD)はシンプルで大規模データから”そこそこの”解を得るには非常に有効なアルゴリズムです.一度自分で実装してSGDを回してみたことのある人も多いと思います. 一方で 結局ステップ幅の設定が大変 正規化とか前処理しないとそれほど上手く動いてくれない などなどSGDには欠点も多く,たくさんの人が使う際に苦しめられてきた現実もあるのではないでしょうか. 今回の発表では,SGDの欠点を克服するため,およびさらなる長所を加えるための,最新の+α拡張研究について紹介しました. 内容は, ステップ幅設定に今後悩まさ

    確率的勾配降下法+α の話をしました - kisa12012の日記
  • 自然言語処理のためのDeep Learning

    1. 自然言語処理のための Deep Learning 東京工業大学 奥村・高村研究室 D1 菊池悠太 @kiyukuta at 2013/09/11 Deep Learning for Natural Language Processing 13年9月28日土曜日 3. 2つのモチベーション - NLPでニューラルネットを - 言語の意味的な特徴を NN→多層×→pretraining→breakthrough !! 焦って早口過ぎてたら 教えて下さい A yet another brief introduction to neural networks http://www.slideshare.net/yutakikuchi927/a-yet-another-brief-introduction-to-neural- networks-26023639 13年9月28日土曜日

    自然言語処理のためのDeep Learning
  • Amazon.co.jp: PRMLガール: 文芸部のマネージャーが「パターン認識と機械学習」を読んだら: 中谷秀洋: 本

    Amazon.co.jp: PRMLガール: 文芸部のマネージャーが「パターン認識と機械学習」を読んだら: 中谷秀洋: 本
  • IIR chap 14: ベクトル空間分類 - Qiita

    Introduction to Information Retrieval の14章輪読用 Gunosy研究会 #31 の資料です Introduction ナイーブベイズでは用語を用語列か2値ベクトルで表現した 章ではベクトル空間モデルを用いて文書を表現し,テキストを分類する. 基的な考え方 ベクトル空間モデルでは各用語に対して1つの実数値の要素をもつベクトルとして各文書を表現する 通常TF-IDFを用いる R^|V| のベクトルとして表現される ベクトル空間分類は連続性仮説(contiguity hypothesis)の元に成り立つ 同じクラスの文書は連続した領域を形成し,他のクラスの領域とは重なり合わない. 連続領域に写像されるかどうかは文書の表現方法による 重み付け・ストップワードなど ex: "グループによって書かれた文書"と"個人によって書かれた文書"を区別したいケース 一

    IIR chap 14: ベクトル空間分類 - Qiita
  • Active Learning を試す(Uncertainly Sampling 編) - 木曜不足

    教師あり学習の教師データの作成はとても大変。例えば、twitter 言語判定のために、訓練・テストデータあわせて70万件のツイートに言語ラベルを振った人もいたりいなかったり。 Active Learning(能動学習) はそんな教師データ作成のコストを抑えながらモデルの性能向上を測るアプローチの1つ。 具体的には、正解なしデータの中から「こいつの正解がわかれば、モデルが改善する(はず)」というデータを選び、Oracle と呼ばれる「問い合わせれば正解を教えてくれる何か(ヒント:人間)」にそのデータを推薦、得られた正解付きデータを訓練データに追加して、以下繰り返し。 しかし「こいつの正解がわかれば、モデルが改善」を選び出す基準なんて素人考えでも何通りも思いつくわけで、実際 Active Learning のやり口は幾通りもある。 Active Learning Literature Surv

    Active Learning を試す(Uncertainly Sampling 編) - 木曜不足
  • 機械学習におけるオンライン確率的最適化の理論

    3. 発表の構成 • 最適化問題としての定式化 • オンライン確率的最適化 – 確率的勾配降下法 – 正則化学習におけるオンライン確率的最適化 – 構造的正則化学習におけるオンライン確率的最適化 • バッチデータに対する確率的最適化 3

    機械学習におけるオンライン確率的最適化の理論
  • Deep Learning for NLP - NAACL 2013 Tutorial

    Deep Learning for Natural Language Processing (without Magic) A tutorial given at NAACL HLT 2013. Based on an earlier tutorial given at ACL 2012 by Richard Socher, Yoshua Bengio, and Christopher Manning. By Richard Socher and Christopher Manning Slides NAACL2013-Socher-Manning-DeepLearning.pdf (24MB) - 205 slides. Abstract Machine learning is everywhere in today's NLP, but by and large machine lea

  • 機械学習の理論と実践

    SACSIS2013でのチュートリアル講演資料です。機械学習の導入:背景、手法、理論、応用)、実践:オンライン学習+線形分類で実際作ってみる、使う際の課題、発展:分散+リアルタイムでの機械学習(Jubatus)、深層学習(Deep Neural Net)についてまとめましたRead less

    機械学習の理論と実践
  • 統計的機械学習入門 | 中川研究室

    導入pdf 情報の変換過程のモデル化 ベイズ統計の意義 識別モデルと生成モデル 最尤推定、MAP推定 データの性質 情報理論の諸概念 (KL-divergenceなど) 距離あるいは類似度 数学のおさらいpdf 行列の微分 線形代数学の役立つ公式 多次元正規分布 条件付き正規分布 Bayes推論pdf Bayseによる確率分布推定の考え方 多項分布、ディリクレ分布 事前分布としてのディリクレ分布の意味<\li> 正規分布と事後分布 指数型分布族 自然共役事前分布の最尤推定 線形回帰および識別pdf 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化 正則化項のBayes的解釈 線形識別 2乗誤差最小化の線形識別の問題点 生成モデルを利用した識別 学習データと予測性能pdf 過学習 損失関数と Bias,Variance, Noise K-Nearest Neighbor法への応用 b

  • 速水桃子「パターン認識と機械学習入門」

    250. Reference "Pattern Recognition and Machine Learning" Christopher M. Bishop Springer; 1st ed. 2006. Corr. 2nd printing edition (October 1, 2007) "Truth and Probability" Frank Plumpton Ramsey (1926) "The physical basis of IMRT and inverse planning" S Webb British Journal of Radiology (2003) 76, 678-689 251. Wikipedia 渡辺慧 http://ja.wikipedia.org/wiki/%E6%B8%A1%E8%BE%BA%E6%85 %A7 『No Free Lunch T

    速水桃子「パターン認識と機械学習入門」
  • 数式をなるべく使わないベイズ推定入門

    第13回 モヤLT発表資料

    数式をなるべく使わないベイズ推定入門