タグ

研究に関するsleepy_yoshiのブックマーク (148)

  • パッとしない研究キャリアを積み重ねる方法:Geekなぺーじ

    "How to Have a Bad Career in Research/Academia", Professor David A. Patterson、という発表資料がありました。 Patterson教授による2002年の講演資料です。 前半が研究/アカデミアの世界で「悪いキャリア」を着実に積み重ねる方法を解説しています。 後半では、悪いキャリアを歩まないためのアドバイスが述べられています。 以下、要約してみました。 実際に講演を聴いたわけではないので、発表の意図を汲めていない可能性も高いのでご注意下さい。 悪いキャリアを積み重ねる方法 大学の研究を知っている人であれば「その分野の第一人者は誰?」というのと「どうやって実現するの?」という質問を聴いた事があるはず。 これは良くない質問の例だ。 1. 「その分野」の第一人者になること 「その分野」における第一人者は一人しか存在できない。

  • 研究者のための Word 利用法

    研究者のための Word 利用法 パーソナルコンピュータとのつきあいは、20年近くになりますが、体系的に勉強したことはないので、知識は大変かたよっているだろうと思います。ただ、せっかく、(文房具としては非常に高価な)コンピュータを使うのだから、少しでも効率的に使って、ありがたみを増やしたいと思い、いろいろ工夫してきた面があるので、その中で、他の人にも有用かもしれないと思われることを紹介していきたいと思います。 (2009.2.26. 追記↓) 「新年早々」と言っていましたが、結局、3月になりました。についての情報、および、サポートページは、こちらです。 (2008.12.07. 追記↓) 紆余曲折ありましたが、ついに出版の運びとなりました。そろそろ印刷作業が始まり、新年早々には書店に並ぶ予定です。長い間、応援してくださった皆様、どうもありがとうございました。PC やソフトは年々状況が変わ

  • 自然言語処理関連の学会・研究会 (国内編) - まきもと@ねっとわーく

    ものすごくご無沙汰のエントリになります*1。春ということで、これから自然言語処理を始めようという方もたくさんいると思います。そういった方々がどのような学会や研究会を調べれば良いのか紹介したいと思います。 自然言語処理は機械学習人工知能、データベース、言語学、認知心理学、音声言語処理などの境界分野としての側面もあるので、一概にどこからどこまでが自然言語処理の範疇であると明言はできませんが、取り敢えず、メイントピックとして自然言語処理を掲げていて、NLPの研究者が関わるであろう団体を並べています。 言語処理学会 (NLP)その名の通り、自然言語処理をメイントピックとして扱う学会です。ジャーナル『自然言語処理』の刊行と年に一度の言語処理学会年次大会の開催を行なっています。年次大会には国内 (と一部国外) の自然言語処理研究者が集まる国内最大規模の自然言語処理を中心とした会議です。発表は査読なし

  • 大規模データからの機械学習と自然言語処理への応用 - 人工知能学会基本問題研究会 - 武蔵野日記

    人工知能学会基問題研究会というのに参加してきた(リンク先、next.html なんて名前なので、将来的に切れると思うが……)。この研究会、毎年1月は情報処理学会の自然言語処理研究会(通称 NL 研)と共催される研究会で、自然言語処理の中でも機械学習っぽいのはここでも発表されるようなのだが、参加したのは初めて。このあたりの国内の自然言語処理関係の学会については shimpei-m くんがまとめているので、そちらを参照されたい。 さて研究会のほうなのだが、特集が「大規模データからの機械学習と自然言語処理への応用」ということで、招待講演が 鍜治伸裕氏(東京大学生産技術研究所)「テキストからの評判分析と機械学習」 近年のCGMの爆発的な普及に伴って,テキストデータから特定の製品に関する評判を自動的に抽出して集約するための技術が注目を集めている.こうした技術は評判分析と呼ばれ,特に自然言語処理など

    大規模データからの機械学習と自然言語処理への応用 - 人工知能学会基本問題研究会 - 武蔵野日記
  • NC研究会ほか - 朱鷺の杜(IBIS)ブログ

    世の中の一部(特に関西地方)では「カーネルの呪い」が解けたという話題で盛り上がっています。 ついに拙著もメジャーデビュー?とは全く思いませんでしたが、ともかく道頓堀川からカーネルさんが 上がって以来、低迷していた拙著の Amazon ランクも再上昇ということで、なにやら因果関係があるかもしれません(絶対ないけど)。 さて、またまたしましまさんより教えてもらった感想 SuzukiMasayuki さんブログです。 お勧めいただきありがとうございます。  最後に書いてある「カーネルかわいいよカーネル」というのがいいですね。 毎度毎度しましまさんのアンテナ力には恐れ入ります。 ひょっとしてブログの未読無し?(昔は fj news の未読無しというすごい人もいましたが...) それにしても世の中みんな忙しそうです。 忙しさのポジティブフィードバックがかかりまくって忙しさバブル? こんなものははじけ

  • 大規模データを基にした自然言語処理 - DO++

    人工知能問題研究会 (SIG-FPAI)でタイトルの題目で一時間ほど話してきました。 発表資料 [pptx] [pdf] 話した内容は - 自然言語処理における特徴ベクトルの作り方と、性質 - オンライン学習, Perceptron, Passive Agressive (PA), Confidence Weighted Learning (CW) 確率的勾配降下法 (SGD) - L1正則化, FOLOS - 索引を用いた効率化, 全ての部分文字列を利用した文書分類 で、スライドで70枚ぐらい。今までの発表とかぶっていないのはPA CW SGD FOLOSあたりでしょうか オンライン学習、L1正則化の話がメインになっていて、その両方の最終形の 確率的勾配降下法 + FOLOSの組み合わせは任意の損失関数に対してL1/L2正則化をかけながらオンライン学習をとても簡単にできるという一昔前

    大規模データを基にした自然言語処理 - DO++
  • 国際会議に投稿することになったら - 発声練習

    痛い目みたのでメモ。論文の書き方はを読んだり、先生に聞いてください。 投稿先が決定した段階 会議のWebページをブックマークする 論文募集通知(Call for papers、略してCFP)を印刷し、すぐに目を通せるようにしておく(共著者から質問されたら即座に質問に答えられるようにするため。あと、突然の会議Webページのダウンにも対応するため) 会議の名前、開催場所、開催日時、投稿締切日、採択通知日をラインマーカーで目立つように彩色 投稿版の論文(manuscript, draft)の形式、ページ数制限をラインマーカーで目立つように彩色 トピックにもラインマーカーで目立つように彩色 論文のフォーマットファイルを探し、ダウンロードして、適当なタイトル、著者名、所属などを記入し第-1稿を用意する。フォーマットファイルが見つからない場合は至急、先輩や先生、場合によっては会議主催者に問い合わせる

    国際会議に投稿することになったら - 発声練習
  • Leo's Chronicle: 良い論文を書くために知っておくべき5つのこと

    英語で科学技術論文を書くための書籍はいくつか出版されていますが、大抵、日語と英語の表現やロジックの違いの説明が主で、「論文」というよりは「英語」の学習と質的に変わりません。ここでは、「論文」をいかに書くか、さらには「論文」を書くために「研究」をいかに進めるかという点に踏み込んだ内容を紹介していきます。 まず、コンピューター系の論文の書き方のHow toを示した書き物として、DB分野で有名なJennifer Widomの以下の記事が、良い指針となります: Tips for Writing Technical Papers (Jennifer Widom)この中から、introduction (導入部)で説明すべきことについて引用しました。 What is the problem? (解いている問題は何?) Why is it interesting and important? (なぜその

  • イラストで知る研究の世界とその醍醐味

    例えば大学4年で卒業し就職してしまうと(法学部や経済学部に多い)全くといっていいほど研究の世界を知らないまま社会に出ることになります。日では、報道などのメディアに就職する方も学部卒ということが多いため、テレビ・新聞などで研究の世界について深く書かれた記事を目にする機会はほとんどありません。 NHKのサイエンス・ゼロなどの番組で、研究者の様子を垣間見ることもできます。しかし、番組は研究の世界の一側面を見せているだけであり(取材時間に比べてカットが多く、内容も製作者の主観に左右される)、研究の世界で活躍していて評判の高い人は、実はほとんどメディアにでてこない事情もあります(「21歳からのハローワーク(研究者編)」を参照)。そのような研究者は、論文という形で一生懸命アウトプットを出しているのですが、論文は学部教育や大学院、博士での研究トレーニングを経ないと読みこなせない(研究の内容だけでなく、

    イラストで知る研究の世界とその醍醐味
  • SIGMOD2009 Accepted Papers

    Yahoo! Researchの"Generating Example Data for Dataflow Programs"は恐らくPig Latinのデバッグ用のサンプルデータ生成の話。Hadoopなどの上で、複雑なデータ構造を動的に組み立てていくプログラム書きながら、横に実行結果の例を「適切に」示したサンプルが表示されると、わかりやすいよね、という話。”Towards a simpler XML Schema: effortless handling of nondeterministic regular expressions”はついに来たか、という感じ。Relational styleの考えが入っていて、スキーマ(relation)から考えられるいろいろな木構造をNFAを使って同時に検証する、という流れだったら嬉しい。"DDE: From Dewey to a Fully Dyn

  • NLP(自然言語処理)研究者をスコアリングしてみた - Unchained Life

    IR研究者をスコアリングしてみた - 睡眠不足?! http://d.hatena.ne.jp/sleepy_yoshi/20090215/p1 この記事を読んでNLP分野ではどうだろう、と思ったのでやってみました。 対象とした会議は2001年~2008年のACLとEMNLPです(年によっては他会議との併設含む)。 cf. DO++: 自然言語処理の学会 http://hillbig.cocolog-nifty.com/do/2008/04/post_fe44.html ACL anthologyから以下のページを利用してデータを取得 ACL: http://www.aclweb.org/anthology-new/P/P08/ (2008年の場合。08の部分を変えれば他の年が見られる) EMNLP: http://www.aclweb.org/anthology-new/sigdat.h

    NLP(自然言語処理)研究者をスコアリングしてみた - Unchained Life
  • 世界の有名教授の授業がオンラインで聴講し放題!『Academic Earth』 - IDEA*IDEA

    ドットインストール代表のライフハックブログ

    世界の有名教授の授業がオンラインで聴講し放題!『Academic Earth』 - IDEA*IDEA
  • 確率論、統計学関連のWeb上の資料 - yasuhisa's blog

    確率論と統計学は俺がまとめるから、他の分野はお前らの仕事な。 確率論 Index of /HOME/higuchi/h18kogi 確率空間 生成されたσ-加法族 確率の基的性質 確率変数とその分布 分布の例 分布関数 期待値、分散、モーメント 期待値の性質 独立確率変数列の極限定理 大数の弱法則(Weak Law of Large Numbers) 確率1でおこること 大数の強法則 中心極限定理 特性関数 Higuchi's Page Brown運動 Brown運動のモーメントの計算 連続性 Brown運動の構成:Gauss系として Brown運動に関する確率積分 空間L^2の元の確率積分 伊藤の公式(Ito formula) 日女子大学理学部数物科学科の今野良彦先生のところにあった資料 最尤法とその計算アルゴリズム 収束のモード 大数の法則と中心極限定理 指数分布族モデルにおける最

    確率論、統計学関連のWeb上の資料 - yasuhisa's blog
  • 最強ランクの将棋ソフト「Bonanza」、ソースコードを公開 | スラド

    CNET/Venture Viewの記事より。“最強ランク”の1つに数えられるコンピュータ将棋プログラム「Bonanza(ボナンザ)」(開発者=保木邦仁氏)のソースコードが公開されている。ここには思考ルーチンのコードも含まれており、将棋ソフト開発者の間では「ソースを再利用すべきか」「Bonanzaクローンが蔓延するのではないか」といった声があがっているという。 Bonanzaは2006年の「第16回世界コンピュータ将棋選手権」において初出場で優勝するなど、個人が開発するソフトでありながら“最強ランク”の1つに数えられる将棋ソフト(2008年の第18回大会では第3位)。従来はバイナリのみの配布だったが、1月29日公開のv4.0.3よりソースコードも含め配布されるようになったようだ。 (追記:2009/02/22 12:02)公式サイトからのダウンロードはかなり重いので、入手したい場合は窓の杜

  • Ranking: Author - H-Index - Limit 1000

    Copyright © Univ. of Mich. and the CLAIR Group at the Univ. of Mich. All information provided herein should be considered tentative and still under construction. Further analysis and correction is still being performed. Please remember that all statistics contained herein are the results of independent research and should not be considered a statement of fact regarding any of the papers, a

    sleepy_yoshi
    sleepy_yoshi 2009/02/21
    NLPのauthor ranking
  • 学会とかで質問者が語りだして止まらなくなったら、 - Ockham’s Razor for Engineers

    一通り話したいだけ話をさせたあとに、「あなたのような研究者にお会いできて、私は非常に光栄です」と切り替えす。原文は、I am very happy to see you.うーん。これ、使いようによっては慇懃無礼だよね。

  • 大規模データ処理のための行列の低ランク近似 -- SVD から用例ベースの行列分解まで -- - 武蔵野日記

    id:naoya さんのLatent Semantic Indexing の記事に触発されて、ここ1週間ほどちょくちょく見ている行列の近似計算手法について書いてみる。ここでやりたいのは単語-文書行列(どの単語がどの文書に出てきたかの共起行列)や購入者-アイテム行列(どの人がどのを買ったかとか、推薦エンジンで使う行列)、ページ-リンク行列(どのページからどのページにリンクが出ているか、もしくはリンクをもらっているか。PageRank などページのランキングの計算に使う)、といったような行列を計算するとき、大規模行列だと計算量・記憶スペースともに膨大なので、事前にある程度計算しておけるのであれば、できるだけ小さくしておきたい(そして可能ならば精度も上げたい)、という手法である。 行列の圧縮には元の行列を A (m行n列)とすると A = USV^T というように3つに分解することが多いが、も

    大規模データ処理のための行列の低ランク近似 -- SVD から用例ベースの行列分解まで -- - 武蔵野日記
  • Blog | Castle104, LLC

    ブログはまだ書き込みがありません。 近日中に内容を追加していきます。

    Blog | Castle104, LLC
  • ACML 2009 - The 1st Asian Conference on Machine Learning

  • ニコニコ動画の大規模なデータに対するタグ付けとリンク解析 - 武蔵野日記

    ニコニコ動画データ分析研究発表会というのが開催されていたようだ。 タイトルや説明文はノイジーなので、動画につけられたタグを使うと割ときれいなデータとして可視化したりできる、という話は、はてなブックマークの関連エントリー機能のときも聞いたような話で、基的にはインターネットユーザに無料でデータのタグ付けをしてもらっている、という話なんだろうな、と思う。以前紹介したRion Snow の論文 (彼は2005年に Microsoft Research でインターンし、2006年に Powerset (現在は Microsoft に買収済み)、2007年には Google でインターンした人物。ACL という自然言語処理のトップカンファレンスで2006年にベストペーパー受賞)で、 今年の Rion Snow のトークは、Amazon Mechanical Turkというシステムを使って、非常に安価

    ニコニコ動画の大規模なデータに対するタグ付けとリンク解析 - 武蔵野日記