サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
体力トレーニング
conditional.github.io
先日、第36回セマンティックウェブとオントロジー研究会-DBpediaシンポジウムに出席する機会を得た。最も大きな目的はStudio Ousiaの山田さんによるエンティティリンキングに関する招待講演を聴講することだったのだが、DBpediaやその周辺環境についての研究発表やディスカッションにも興味をひかれた。 その後、DBpediaについてしばらく調べていたのだが、すこしだけまとまったので、メモとして公開することにした。 What is DBpedia? Wikipediaを自動的に、RDFトリプルに変換する仕組み、あるいはそのプロジェクト。 できるだけ多くの項目を「あらかじめ決められた語彙」へマップすることによって、その語彙を使う他のリソースとの相互利用を進めたい、という意図がある(この動きを Linked Open Data と言うらしい)。 「自動的に変換する」と言っても、NLPの人
先日, @overlast さんから,DSIRNLP(データ構造と情報検索と言語処理勉強会 )という会にお誘いを頂きまして,以前から考えていたことをちょこっとお話してきました.当日の様子は, @mamoruk さんが togetter にまとめてくださっていますので,そちらもご覧ください. 第5回 データ構造と情報検索と言語処理勉強会 #DSIRNLP - Togetterまとめ 私の発表スライドは slideshare に置いておきました.いくつか直したいところがあるので,そのうち差し替えるかも. いまさら聞けない “モデル” の話 @DSIRNLP#5 from Koji Matsuda 他の方々がものっそい最先端な話ばかりのなか,私一人だけがひどくぼんやりとした内容でたいへん恐縮でしたが,問題意識を共有するきっかけを頂けたことに感謝しています. そもそもこの話をしようと思ったきっかけ
はじめに この記事は Machine Learning Advent Calendar 2013 の 7日目の記事です. 2013年,Deep Learning もアカデミックレベルではさまざまな分野への浸透が進み,バズワードの域を脱したように思えます. これまでは,機械学習というと,応用分野においては(分類/回帰といった)タスクを決めてしまった上でブラックボックスとして 扱うもの,という空気がありましたが, Deep Learning に代表される柔軟な,いかようにも組み上げられるモデルは,問題の性質を積極的に(特徴量としてではなく,モデル自体に)組み込むことを容易にする,大きな武器になるのではないかと感じています. 素性エンジニアリング vs モデルパラメータエンジニアリング の不毛な戦いが幕を上げた,という見方もできちゃいそうですが・・・.. さて今回は, Torch7 という,Ne
先日,身内の勉強会(&ラボの勉強会)で,Deep Learningについてお話してきました.これまで興味がなさそうだったのに何故急に?というのはおいておいて. 紹介したのは,Deep Learningの第一人者のひとり, Yoshua Bengio先生自身が執筆された,以下の論文. Yoshua Bengio, Practical recommendations for gradient-based training of deep architectures, arXiv:1206.5533v2, 2012 どうやら書籍の草稿のようで,Bengio先生の長年の研究で得られたさまざまなノウハウ(最近の手法まで)がぎっしり詰め込まれています.すごい. 以前から気にはなりつつも,ちょっと分量が多い(30ページくらいある)ので,なかなか手を出すことができなかったのですが,ようやくヤル気が出てきた
もう一週間ほど前になってしまうのですが,最先端NLP勉強会 という会に参加させていただきました. じつは昨年も参加するべく申し込みまでは行ったものの,事情があって参加できず.今年はなんとかリベンジを果たせました. 二日間で30本もの論文を読むこの勉強会,読む論文の選出プロセスにも工夫が凝らされています. 参加者全員が,対象となる会議の予稿集に目を通し,面白そうだと思った論文数本(今年は12本)に対して投票を行う. 多くの票を集めた論文,上位30本ほどを候補とし,参加者はその中から自分が紹介する論文を選ぶ. という二段階をとっているので,いわゆる「ハズレ」な論文が少なくなっており,どの発表もたいへん勉強になりました. 私が紹介したのは以下の論文, Mohammad Taher Pilehvar, David Jurgens and Roberto Navigli, Align, Disamb
自然言語処理に関する最高峰の国際会議 ACL が先日開催されました. 発表された論文をいくつか眺めてみたのでメモ. ほんとうはもっといっぱい紹介したい論文があるのだけれど,時間の都合上,5本だけ.気がむいたら続編あるかも. すべての論文は,ACL Anthologyで入手することができる. “Nonconvex Global Optimization for Latent-Variable Models” Matthew R. Gormley and Jason Eisner, ACL 2013 分枝限定法(評価関数の上限を推定しながら,探索木を刈りこむ)を用いて,隠れ変数モデルの大域解を求めよう,という話. 実験にはDMV(Dependency Model with Valence)というわりと有名な Unsupervised Dependency Parsingのモデルを用いている.
前回のVanishing Component Analysisに関する記事が思いのほか好評だったようで, なんか自分に対してのハードルあげちゃった感あったり,記事冒頭でデブとか書くんじゃなかった・・・(ハハハ)と後悔してたり... いつもどおり肩肘はらずに書きますね.例によって,マンスリー読み会で紹介した論文について. “Joint Modeling of a Matrix with Associated Text via Latent Binary Features” XianXing Zhang and Lawrence Carin , NIPS 2012. Joint Modeling of a Matrix with Associated Text via Latent Binary Features from Koji Matsuda 行列と,その列or行に紐づいたテキストが存在
急に蒸し暑くなってきましたね.でぶちんなのでけっこうこたえます.タイトルはちょっと釣り気味.ビビっと来た方は是非論文に目を通してみてください:) 例によって,仲間内でやっている小さな勉強会で論文紹介をしてきましたので,そのご紹介です.ぼくの専門というか興味の中心は自然言語処理なので,ふだんはそっち方面を追っているのですが,勉強会では機械学習方面を中心にいろいろ読んでみてます. 今回は岡野原さんのこのツイートで興味を持った以下の論文を読ませていただきました.名前もかっこいい.ヴァニッシングコンポーネントアナリシス! ICML2013のbestpaper。データ中の集合(例えば画像中の8の字など)が0になるような生成多項式を求める(=集合のコンパクトな表現)効率的なアルゴリズムを提案し教師有学習時の特徴生成などに使える。すごい http://t.co/DedSoyLaJR — 岡野原 大輔 (
およそひと月ぶりに,仲間内で行っている小さな勉強会で論文紹介をしてまいりました.ICML2013の予稿がちょっとづつ出てきているので,本日はその中から一本. “A Machine Learning Framework for Programming by Example” Aditya Menon et al, ICML 2013 A Machine Learning Framework for Programming by Example from koji_matsuda 機械学習を使って,Programming by Example(PbE)をしようという論文です.PbEというのは私も初耳だったのですが,ざっくり言うと,人間が「例」を与えることで,その例をうまく再現するようなプログラムを自動的に生成する,というタスクのようです. それを部分的に実現している(らしい)のが,Excel2
先日Prismaticを眺めていたら,興味深い記事を見つけたので紹介. Predicting Google closures Google Readerの停止がアナウンスされたのは記憶に新しいですね.はじまりあるものは,すべて終わりもあるもの.実際,最近のGoogleはビジネスにならないと判断したプロダクトを大胆に切っていっているような印象をうけます. この記事では,これまでGoogleが運営してきた350のサービス/プロダクトのデータを,疫学統計でよく用いられる(らしい)Coxモデルとよばれる統計モデルによって解析し,どのようなサービスが今後停止されるおそれが高いのか,分析を行っています. 特徴量 特徴量として用いているのは以下のような情報.詳細な基準は元記事を参照いただくとして,簡単に抜粋してみます. プロダクト名をクエリとしたGoogleのヒット数(そのまま使うのは不公平なので,サー
こんにちは.英語が書けなくて悩んでいる今日このごろです. 先月に引き続き,仲間内で行っている小さな勉強会にて論文紹介をしてまいりました. “Information-Theoretic Metric Learning” V. Davis et al, ICML 2007 (Best Paper) ちょっと古めの論文ですが,あまり踏み込んだことのない分野なので,名著っぽいものから確実におさえていくスタンスで. 発表スライドは以下においておきます.最後のスライドにいろいろ文献リンクしておいたので,ご興味をもって頂けましたら是非そちらも当たってみてください. Information-Theoretic Metric Learning from koji_matsuda 距離計量学習(以下単に距離学習)とは何ぞや,というのは小町さんの日記をご参照いただけると良いと思うのですが, ざっくり言うと,「分
完全に春ですね.そろそろ新入生が来る時期. 書類を整理していたら,むかし読んだ Roberto Navigli (knowledge based WSDの大家) によるgraph based unsupervised WSDに関する論文の感想が出てきたのでちょっと再編集して公開してみます.あくまでメモなので,非常に読みづらいかも.もしご興味をもって頂けましたら,元論文をあたってみてください. R. Navigli, M. Lapata. An Experimental Study of Graph Connectivity for Unsupervised Word Sense Disambiguation. IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 32(4), IEEE Press,
桜がとってもきれいですね.すずかけ台は8分咲きといったところです.ところで,仲間で行っている小規模な勉強会で “Unified Expectation Maximization” Samdani et al, NAACL2012 を紹介してきたので,資料をslideshareにあげておきました. Unified Expectation Maximization from koji_matsuda Unified EMというと,じゃっかん大風呂敷な感じのタイトルですが,キーとなるアイデアはとても単純で,EMアルゴリズムのE-Stepで最小化するKLダイバージェンスにちょっと細工を入れることで,Hard-EMとふつうのEMの中間くらいの性質を持ったアルゴリズムになりますよ.というお話です.Deterministic Annealing EMの逆バージョンみたいな雰囲気(実際,DAEMもこの枠組
眠いですね. とくに機械学習のクロスバリデーションや,ごっつい集計クエリなどの時間のかかるバッチジョブを流す間,とても眠い. 私の場合,そういう時にはディスプレイの前を離れて,お昼寝タイムにすることが多いです(基本いつも眠い).実行時間の見積もりがつくようなジョブなら適当にアラームかけておけばよいのですが,実際はそうも行かないことも多いですよね. そこで,iOSデバイスにプッシュ通知を送れるアプリケーション Prowl を用いて,ジョブの終了をiPhoneに通知してくれる短いRubyスクリプトを書いてみました.ジョブ終わったらブルッと鳴って目覚めスッキリ. Requirement Prowl prowl gem gem は gem intall prowl でインストールできます. Instalation まず,ProwlのウェブサイトからAPIキーを取得します.いちおう登録&ログインが必
このページを最初にブックマークしてみませんか?
『a lonely miner』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く