タグ

ブックマーク / www.yasuhisay.info (8)

  • ろんぶん! - yasuhisa's blog

    まともに書いたことある論文がまだ卒論しかないid:syou6162です、こんばんわ(しかも、卒論も研究というよりお勉強という感じ。黒歴史)。 このままでは社会的に殺されてしまうので、年度末付近にある年次大会などなどの会議とかジャーナルに出すべくtouch main.texをしました。今年に入ったくらいからNLPとか機械学習の論文をちょっとずつ読み始めるようになったので、読むほうに関しては(まだまだ遅いし深く読めないけど)それなりになってきたと思うけど、書くほうは全然勝手が分からない...。 提案手法とか実験のところとかは4月に入って研究室に所属してからどういう見せ方がいいのかとか考えながら読むようにしていたので、その辺は多少こうするといいかなっていうのが分かるんだけど、イントロ、関連研究付近が意外と難しい。こういう書き方はうまいとか分かりやすいっていう感じの見方で読んでなかったのが主な原因

    ろんぶん! - yasuhisa's blog
    sleepy_yoshi
    sleepy_yoshi 2011/01/13
    質問のポイント2つ
  • 人工知能基本問題研究会(SIG-FPAI)での岡野原さんの発表のときに取ったメモ - yasuhisa's blog

    hillbig.cocolog-nifty.com ということで僕が取ったメモも出してみようと思う。内容としては大体3つで オンライン学習 L1正則化 索引を用いた効率化, 全ての部分文字列を利用した文書分類 という感じだったんだけど、最後の索引の付近はid:syou6162の勉強不足によりよく分からなかった。が、最初の二つはなんとか付いていけたので、出してみます。主に自分用のメモですが。 オンライン学習自然言語処理のデータは3つの特徴がある。 高次元 疎 冗長 で、あとはデータがばかでかいので、いわゆるバッチ処理だとメモリに乗り切らなかったりとかということがある。それでオンライン学習というのが今よく使われているようだ。オンライン学習の方法には下のような方法がある。簡単なものから難しいものへ。 perceptron 自然言語処理と相性がよい 色んなもののベースになる 線形分離できるときには

    人工知能基本問題研究会(SIG-FPAI)での岡野原さんの発表のときに取ったメモ - yasuhisa's blog
  • 2010-10-26

    2010-10-26 EMNLP読み会2010 自然言語処理 EMNLP 研究室 告知していたように、研究室でEMNLP読み会を開催しました。おかげ様で読み手の人数が増えたので、二回に分けてやることになりそうです(第二回目は11月に)。ai-aさんとkodai-t、joseph-iが読み手で参加してくれました、ありがとうございます(自分も一個担当)… 2010-10-26 #67 Joint Training and Decoding Using Virtual Nodes for Cascaded Segmentation and Tagging Tasks 論文100ノック EMNLP CRF 機械学習 Xian Qian, Qi Zhang, Yaqian Zhou, Xuanjing Huang, Lide Wu, in Proc. of EMNLP 2010, Massachu

    2010-10-26
  • Rの基本データ構造、よく使う関数紹介 - yasuhisa's blog

    Agenda データ構造 たくさんある>< ベクトル Rの格言 いろんなベクトルの作り方 規則的データの生成 同じデータを繰り返す ベクトルへのアクセスの方法 アクセス方法にもいろいろある まだまだあるよ、アクセス方法 行列 埋めていく順番 すでにあるベクトルを束ねる cbind rbind 行列へのアクセス方法 行列の基演算 積がやっかい 積を求めたいときは「%*%」を使うべし 逆行列を求める ちなみに 行列式 固有値 配列 リスト 例 ちなみに unlistのtips リストへのアクセス リストは結構難しい>< 例 リストの要素には名前を付けることができる Rでlistがどのように使われているか データフレーム 例 データフレームを作る データフレームに列を追加と削除 データフレームに行を追加 因子型 irisのデータでやってみる irisデータ 層別にSepal.Lengthの長さ

    Rの基本データ構造、よく使う関数紹介 - yasuhisa's blog
  • PRML読書会#11に参加しました - yasuhisa's blog

    C.M.ビショップ「パターン認識と機械学習(PRML)」読書会(第11回) : ATND Logを見ていると半年振りくらいの参加だったようです。 今回の主な内容はグラフィカルモデリングということでid:sleepy_yoshiさん、id:nokunoさん、id:n_shuyoさんが説明してくださいました。9章もちょっと入ってid:idojunさんが説明してくださいました。みなさん大変分かりやすい説明でした。分かりやすい例あり笑いありなプレゼンで、自分も真似したい。 第11回PRML読書会: 第8章グラフィカルモデル (後半) - 睡眠不足?! http://d.hatena.ne.jp/nokuno/20100206/1265467760 PRML 読書会 #11 資料(max-sum アルゴリズム) - Mi manca qualche giovedi`? この章を勉強する前までは「グラ

  • ゼミで半教師あり学習のことを発表したのでスライドを公開します - yasuhisa's blog

    理解が不完全だし、ゼミで再生核ヒルベクト空間のことやってなかったから途中で混ざってたりとかで大分あれな資料になってますが、公開してみるテスト。 半教師あり学習 from syou6162 次回は何を発表するか。。。

    ゼミで半教師あり学習のことを発表したのでスライドを公開します - yasuhisa's blog
  • 共役勾配法を実装してみた - yasuhisa's blog

    当は去年みたいなplotをしたいんだけど、面倒(ry。 工学基礎 最適化とその応用 (新・工科系の数学)の4.6章で遊んでいる。二次関数の簡単なのをとりあえず。 f <- function(x) { x1 <- x[1]; x2 <- x[2] 3 / 2 * x1^2 + x1 * x2 + x2^2 - 6 * x1 - 7 * x2 } nabla_f <- function(x) { x1 <- x[1]; x2 <- x[2] c(3 * x1 + x2 -6, x1 + 2 * x2 -7) } alpha_k <- function(x, d) { A <- matrix(c(3,1,1,2), 2, 2) # 正定値対称行列 - sum(d * nabla_f(x)) / (t(d) %*% A %*% d) } x0 <- c(2, 1) d <- - nabla_f(

    共役勾配法を実装してみた - yasuhisa's blog
  • 確率論、統計学関連のWeb上の資料 - yasuhisa's blog

    確率論と統計学は俺がまとめるから、他の分野はお前らの仕事な。 確率論 Index of /HOME/higuchi/h18kogi 確率空間 生成されたσ-加法族 確率の基的性質 確率変数とその分布 分布の例 分布関数 期待値、分散、モーメント 期待値の性質 独立確率変数列の極限定理 大数の弱法則(Weak Law of Large Numbers) 確率1でおこること 大数の強法則 中心極限定理 特性関数 Higuchi's Page Brown運動 Brown運動のモーメントの計算 連続性 Brown運動の構成:Gauss系として Brown運動に関する確率積分 空間L^2の元の確率積分 伊藤の公式(Ito formula) 日女子大学理学部数物科学科の今野良彦先生のところにあった資料 最尤法とその計算アルゴリズム 収束のモード 大数の法則と中心極限定理 指数分布族モデルにおける最

    確率論、統計学関連のWeb上の資料 - yasuhisa's blog
  • 1