タグ

資料に関するsleepy_yoshiのブックマーク (91)

  • 第5回最先端NLP勉強会

    概要 自然言語処理分野におけるトップジャーナル・トップカンファレンスであるTACL (vol.1)、ACL 2013、NAACL 2013の論文の中から、参加者の投票によって厳選した論文を、各参加者が紹介する勉強会です。 勉強会の参加者は、各自1~2の論文を担当し、全体で30程度の論文の紹介をします。 第1回目は1研究室のメンバーを中心とした会でしたが、第2回目より、研究室の枠を超え、東京近郊の様々な研究室の学生・研究者有志一同による勉強会として開催しております。 このイベントを通じて、研究者間の活発な情報交換・意見交換・交流が行われ、今後の研究に活かされることを勉強会の狙いとしています。 昨年の勉強会の様子 スケジュール 8月31日 (土)

  • 統計的機械学習入門 | 中川研究室

    導入pdf 情報の変換過程のモデル化 ベイズ統計の意義 識別モデルと生成モデル 最尤推定、MAP推定 データの性質 情報理論の諸概念 (KL-divergenceなど) 距離あるいは類似度 数学のおさらいpdf 行列の微分 線形代数学の役立つ公式 多次元正規分布 条件付き正規分布 Bayes推論pdf Bayseによる確率分布推定の考え方 多項分布、ディリクレ分布 事前分布としてのディリクレ分布の意味<\li> 正規分布と事後分布 指数型分布族 自然共役事前分布の最尤推定 線形回帰および識別pdf 線形回帰のモデル 正則化項の導入 L2正則化 L1正則化 正則化項のBayes的解釈 線形識別 2乗誤差最小化の線形識別の問題点 生成モデルを利用した識別 学習データと予測性能pdf 過学習 損失関数と Bias,Variance, Noise K-Nearest Neighbor法への応用 b

  • H24:Introduction to Statistical Topic Models

    統計数理研究所 H24年度公開講座 「確率的トピックモデル」サポートページ 講師: 持橋大地 (統数研), 石黒勝彦 (NTTコミュニケーション科学基礎研究所) 講義スライド 持橋分 (2013/1/15) [PDF] (12MB) 石黒分 (2013/1/16) [PDF] ソフトウェア UM (Unigram Mixtures) um-0.1.tar.gz DM (Dirichlet Mixtures) dm-0.1.tar.gz, dm-0.2.tar.gz PLSI (Probabilistic Latent Semantic Indexing) plsi-0.03.tar.gz (外部サイト) LDA (Latent Dirichlet Allocation) lda-0.1.tar.gz 参考文献 「私のブックマーク: Latent Topic Model (潜在的トピックモデ

  • 相関と因果について考える:統計的因果推論、その(不)可能性の中心

    3. 今回のもくじ イントロ -『相関と因果』再訪 基礎編 - 因果概念の変遷: 心の習慣 から 反事実 へ - 因果と確率論を繋ぐ:Pearlのdo演算子 実務編 - 重回帰とは因果構造分解酵素である - バックドア基準による変数選択 考察 - 因果推論の不可能性, モデル選択の3視点 4. 相関と因果は一致しない 86 女 性 84 の 平 82 均 寿 80 命 78 (歳) 30 34 38 NHKの放送受信契約数(百万) http://www.stat.go.jp/data/nihon/02.htm 元データ→ http://pid.nhk.or.jp/jushinryo/know/pdf/toukei2010.pdf 5. 相関と因果は一致しない 86 p < 0.00000002 女 2 性 84 R = 0.99 の 平 82 均 寿 80 命 78 (歳) 30 34 3

    相関と因果について考える:統計的因果推論、その(不)可能性の中心
  • tomerun.info

    発表資料 2011-12-03 第11回中国GTUG勉強会「DevQuiz完全制覇までの道のり」 リンク 2012-06-17 PRML復々習レーン 2.3.3節 リンク 2012-06-17 PRML復々習レーン 2.3.4節 リンク 2012-06-30 ICPC国内予選直前対策会議「細かなコーディングテクについて」 リンク 2012-09-23 PRML復々習レーン 4.3.3-4.3.4節 リンク 2012-12-15 PRML復々習レーン 5.5.3-5.5.5節 リンク 2013-06-23 PRML復々習レーン 7.2.2節(資料というよりただのメモ)リンク 2013-08-24 PRML復々習レーン 8.4.5節 リンク 文章 TopCoder Algorithm 国別レーティングの歴史 自己紹介代わり Twitter はてなダイアリー TopCoder部日記 オマケ 今年

  • SML: Scalable Machine Learning

    Practical information Volume: 3 hours per week (3 credits) Time: Tuesday, 4-7pm (3 lectures /in one block) Location: 306 SODA Instructor: Alex Smola (available 1-3pm Tuesdays in Evans 418) TA: Dapo Omidiran Grading Policy: Assignments (40%), Project (50%), Midterm project review (10%), Scribe (Bonus 5%) Piazza discussion board Updates 041812 New set of assignments is online. 041812 Slides for grap

  • 62 Universities Have Partnered With Coursera - Coursera.org

    Unlock a year of unlimited access to learning with Coursera Plus for $199 (regularly $399).

    62 Universities Have Partnered With Coursera - Coursera.org
  • 日本統計学会創立75周年記念出版『21世紀の統計科学』(全3巻) 増補HP版 (2012年1月)

    2008年に日統計学会75周年記念出版として刊行されました国友直人・山拓監修『21世紀の統計科学』(全3巻)の増補版を, 日統計学会のホームページを通じて提供することとなりました.書の増補版の オンライン公開が統計科学の今後の発展に資することを期待しております. 第I巻 社会・経済の統計科学 (国友直人・山拓編) 第II巻 自然・生物・健康の統計科学 (小西貞則・国友直人編) 第III巻 数理・計算の統計科学 (北川源四郎・竹村彰通編)

  • 第2回DSIRNLP勉強会に参加しました #dsirnlp - nokunoの日記

    第2回 データ構造と情報検索と言語処理勉強会 #DSIRNLP - [PARTAKE] 自然言語処理はじめました by @phylloさん自然言語処理はじめました - Ngramを数え上げまくるDSIRNLPで発表させていただきました - Negative/Positive Thinking 自己紹介:Negative/Positive Thinking 今日の概要:いろんな方法でN-gram頻度を数える N-gramとは? 隣り合うN個の塊のこと 単語n-gramや文字n-gramがある ナイーブな方法 ハッシュに入れて数える 問題:大規模テキストやNを大きくしたら? N-gramの異なり数はNに対して指数的に爆発する 解決法:N-gramをメモリに保存しない! Suffix Arrayを使った方法 入力文のSuffix Arrayを使った方法 メモリの節約になってる?:3*N+4byt

  • EMNLP 2011 読み会を開催しました #emnlpreading - nokunoの日記

    EMNLP 2011 読み会を開催しました.会場はサイボウズさんです.いつもありがとうございます!ACL Anthology » D11EMNLP 2011 Exact Decoding of Phrase-based Translation Models through Lagrangian Relaxation by @nokuno統計的機械翻訳のデコーディングを速い!正確!な方法で解きましたという論文.手法としてはラグランジュ緩和を利用している.Exact Decoding of Phrase-based Translation Models through Lagrangian Relaxation #emnlpreading View more presentations from Yoh Okuno Introducing Tuning as Ranking by @ippei

  • #TokyoNLP で「∞-gram を使った短文言語判定」を発表しました - 木曜不足

    TokyoNLP 第8回に のこのこ参加。主催者の id:nokuno さん、発表者&参加者のみなさん、そして会場を提供してくださった EC ナビさん改め VOYAGE GROUP さん& @ajiyoshi さん、お疲れ様でした&ありがとうございました。 今回は「∞-gram を使った短文言語判定」というネタを発表。「短文言語判定」って、要は「このツイートは何語?」ってこと。 こちらが資料。 ∞-gram を使った短文言語判定 View more presentations from Shuyo Nakatani そして実装したプロトタイプ ldig (Language Detection with Infinity-Gram) とモデル(小)はこちらで公開。 https://github.com/shuyo/ldig 言語判定とは「文章が何語で書かれているか」を当てるタスクで、以前一度

    #TokyoNLP で「∞-gram を使った短文言語判定」を発表しました - 木曜不足
  • 第2回DSIRNLP勉強会で発表してきました - 射撃しつつ前転 改

    佐藤さんに誘われてDSIRNLP勉強会で発表してきました。 最近社内で高村輪講をやっていて、自分自身改めて良い勉強になったこと、以前TokyoNLPでランク学習の話をした際にはもしかしたら聴衆の半分ぐらいを置き去りにしてしまっていたのではと最近気づいたことなどから、今回はSVMって案外怖くないよね、みたいなことを順を追って説明してみる話にしてみました。既に知ってる人にとっては明らかに退屈な話だったと思いますが、分かりやすかったで賞的なものをいただけたので、わかりやすく、というところはある程度うまくいったのかなと思います。 発表資料はspeakerdeckに上げました。→機械学習と最適化の基礎 以下自分の発表についての感想と反省。 他の人の発表の最中に資料を作ってるとどうしても話が半分ぐらいしか聞けないので事前に作ってくるべき。 ただ今回は風邪のせいもあり仕方がなかった。 nokunoさん

    第2回DSIRNLP勉強会で発表してきました - 射撃しつつ前転 改
  • DSIRNLPで発表させていただきました - Negative/Positive Thinking

    12/10にmixiさんで行われたDSIRNLP勉強会で発表させていただきました 聴きにきていただいた方ありがとうございました スライド資料 http://www.slideshare.net/phyllo/ngram-10539181 自然言語処理はじめました - Ngramを数え上げまくる View more presentations from phyllo 発表で以下のコメントをいただきました 「有効なダイエット法を見つけるツールの進捗は?」 現在鋭意製作中です。すいません。 「Suffix ArrayはメモリじゃなくてHDDで作成することができますよ」 試してみます!

    DSIRNLPで発表させていただきました - Negative/Positive Thinking
  • 冬のLock-Free祭り

    Please select the category that most closely reflects your concern about the presentation, so that we can review it and determine whether it violates our Terms of Use or isn't appropriate for all viewers.

  • qwik.jp - このウェブサイトは販売用です! - qwik リソースおよび情報

    This webpage was generated by the domain owner using Sedo Domain Parking. Disclaimer: Sedo maintains no relationship with third party advertisers. Reference to any specific service or trade mark is not controlled by Sedo nor does it constitute or imply its association, endorsement or recommendation.

  • データマイニングで使われるトップ10アルゴリズム - データサイエンティスト上がりのDX参謀・起業家

    2006年のデータマイニング学会、IEEE ICDMで選ばれた「データマイニングで使われるトップ10アルゴリズム」に沿って機械学習の手法を紹介します(この論文は@doryokujin君のポストで知りました、ありがとうございます!)。 必ずしも論文の内容には沿っておらず個人的な私見も入っていますので、詳細は原論文をご確認下さい。また、データマイニングの全体観をサーベイしたスライド資料がありますので、こちらも併せてご覧下さい。 データマイニングの基礎 View more presentations from Issei Kurahashi 1. C4.5 C4.5はCLSやID3といったアルゴリズムを改良してできたもので、決定木を使って分類器を作ります。決定木といえばCARTが良く使われますが、CARTとの違いは以下のとおりです。 CARTは2分岐しかできないがC4.5は3分岐以上もできる C

    データマイニングで使われるトップ10アルゴリズム - データサイエンティスト上がりのDX参謀・起業家
  • 「機械学習とパターン認識」(PRML)のアンチョコ by herumi - 木曜不足

    社内で「機械学習とパターン認識」(PRML) の読書会をやっているのだけど、計算がやっぱり難しいようでみんな苦戦中。 そんなこんなで、光成さん(@herumi さん)が PRML の数式を手抜き無しで解説するアンチョコ(虎の巻 / PRML教科書ガイド)をマメに作ってくれている。*1 PRML のための数学(PDF) 内容は PRML の2章から4章と、9章、PRMLでもっとも計算が難しいと評判の10章を対象としている。 たとえば2章のアンチョコでは、2章の中で必要とされる解析や線形代数の道具(積分の変数変換、行列の各種操作)を一通り取り上げた後、ガウス分布の最尤推定における平均や分散による偏微分という、おそらく多くの人がつまづくのだろう計算がきちんと説明されている。 また3章のアンチョコでは、Woodbury の公式やヘッセ行列を解説しつつ、エビデンス関数などを導出しているし、4章になる

    「機械学習とパターン認識」(PRML)のアンチョコ by herumi - 木曜不足
  • オンライン凸最適化と線形識別モデル学習の最前線 - Preferred Networks Research & Development

    内容は線形識別モデルの学習について(Perceptron, PA, CW, AROW, NHELDとNLP2010のtutorial + 最新のアップデート. 更新式が整理されています)、オンライン凸最適化のregret解析、sublinearなSVMの学習の話です。最近公開したjubatusの中の学習アルゴリズムの解説でもあります。 コスト関数が凸である場合のOnline Gradient Descentのregret解析の証明は美しかったので、普通はこういうのはプレゼンではやらないとおもうのですが紹介しました。 Sublinearの学習の話は今後いろいろ発展しそうです。各学習例に動的に重みをつけて優先的に学習する方法は直感的にはできそうだと昔考えてたのですが、こういう形できれいに定式化できるのだと感心しました。 IBISはそこそこ参加していますが、毎年新しい分野の問題が登場してきて面白

    オンライン凸最適化と線形識別モデル学習の最前線 - Preferred Networks Research & Development
  • Rゼミ/Bayes輪読 - 引越作業中

    発表ファイル An introduction to R:ch1.pdf Introduction to bayesian thinking:この内容というか、ありがたいBayesの定理の説明ch2.pdf Single-parameter models:ch3.pdf, Ch3code.txt Multiparameter models:ch4.pdf Hierarchical modeling:ch7.pdf Model comparison:ch8.pdf Using R to interface with WinBUGS:ch11.pdf

    Rゼミ/Bayes輪読 - 引越作業中
  • 第7回自然言語処理勉強会で発表してきました - 蝉々亭

    第7回自然言語処理勉強会で文書要約に関するお話をさせていただきました。その際に用いましたスライドを公開します。今回は入門編(初級編)なので、そのうち中級編をやるかもしれません。 Introduction to Automatic Summarization View more presentations from Hitoshi NISHIKAWA 毎回、スライドのレイアウトがおかしくなっていましたが、今回はpdfに変換してアップロードしました。こうすれば良かったのですね。今回はレイアウトが乱れていないはずです。過去のスライドもpdf化してアップロードしなおすつもりです。 次はグーグルによるザガットサーベイ買収の話か、NLP若手の会第6回シンポジウムの話を書きます。

    第7回自然言語処理勉強会で発表してきました - 蝉々亭