タグ

2009年11月11日のブックマーク (6件)

  • 大学院生が卒論・修論指導をすべき理由とそのやり方 - 発声練習

    大学院生(修士課程、博士課程)が卒論・修論指導をすべき理由は大きくわけて二つ。第一の理由は、後輩の論文を指導することにより自分の論文執筆能力および研究能力の向上をはかるため。第二の理由は、論文中の初歩的な点を大学院生の方にあらかじめ指摘してもらうことによって、教員がより質的な点について指導することができるようにすること。 指導をしてもらっている卒論生や修論生はこちらも読んで欲しい。 真っ赤な論文原稿が指導教員から帰って来たら? 「あっ、それ**さんにも、指摘されました」はメリットがないので言わないこと 他人の考えを勝手に想定して諦めちゃダメ! ちなみに、私の所属研究室では、修士1年が卒論指導、博士課程の学生が修論と卒論の指導をすることにしている。 論文指導で得られると期待されること 後輩の論文を指導することによって、自分の論文執筆能力および研究能力の向上が期待できる理由は以下のとおり。

    大学院生が卒論・修論指導をすべき理由とそのやり方 - 発声練習
    mamoruk
    mamoruk 2009/11/11
    たしかに大学院生にさせるのも教育の一環かなぁ
  • MSR Japan

    Tetsuya Sakai's blog on information retrieval research 酒井哲也の情報検索研究ブログ Prof Kurohashi introducing the Science Cafe@Kyoto University (Nov 6) MSR New England has only 10 researchers. So if we gather 10 Japanese researchers at MSRA, maybe we can form MSR Japan. (We now have three: Yasuyuki Matsushita, Tetsuya Sakai and Yuki Arase who will join us next April.) Celebration after the two successful "Comp

    MSR Japan
    mamoruk
    mamoruk 2009/11/11
    MSR Japan 期待あげ
  • 博士の学位を取得しました。 - Yasuo Tabeiの日記

    9月に博士の学位を取得しました。審査を担当してくださった先生方、ありがとうございました。 テーマは、RNAの構造アライメントアルゴリズムです。アライメントとは、配列の類似度を測る手法のことで、類似した配列発見や進化の解析などでバイオインフォマティクスでは必要不可欠な技術です。過去に提案されたRNAのアライメントアルゴリズムにSankoffのアルゴリズムがありましたが、O(n^6)の時間とO(n^4)のメモリーが必要で実用には耐えられませんでした。そこで、修士課程の時に、ステムの比較による高速かつ高精度な構造アライメントアルゴリズムを提案したのですが、博士課程では、それをマルチプルアライメント手法(複数の配列を同時に比較する手法)とローカルマルチプルアライメント手法(局所的に保存されたRNAをアライメントに基づき発見する手法)へと拡張しました。そこでは、条件付き確率場などの機械学習法を使っ

    博士の学位を取得しました。 - Yasuo Tabeiの日記
    mamoruk
    mamoruk 2009/11/11
    自分もそのうち。。。
  • Preferred Infrastructure(PFI)のインターンに参加してきました。 - Yasuo Tabeiの日記

    8月と9月の二ヶ月間, Preferred Infrastructure(略してPFI)のインターンに参加してきました。 PFIは、主に情報検索やレコメンデーションソフトウェアーを開発しているベンチャー企業です。PFIについては、http://preferred.jp/index.htmlを参照してください。 7月の終わりにインターンの募集があります。インターンに応募すると、まず書類選考があり、それに通過すると面接があります。面接時間は約30分で、2つの問題が出題されます。今年は、以下の問題が出題されました。 1.現在の情報検索のランキングについて調べて、その利点と欠点を述べよ。 2. 整数の集合を格納するデーター構造、及び、検索アルゴリズムを記述せよ。 1に関しては、事前に出題(といっても5日ぐらい前)されます。2に関しては、その場で出題しその場で解きます。問題からわかるとおり、面接では

    Preferred Infrastructure(PFI)のインターンに参加してきました。 - Yasuo Tabeiの日記
    mamoruk
    mamoruk 2009/11/11
    ほうほう
  • [book] Google PageRankの数理 ―最強検索エンジンのランキング手法を求めて― - Tocotonistの日記(晴れのち快晴)

    Google の PageRank に関する参考書 - 武蔵野日記 を拝見して私は即買いしたGoogleのPageRankやその周辺を解説した Google's Pagerank and Beyond: The Science of Search Engine Rankings 作者: Amy N. Langville,Carl D. Meyer出版社/メーカー: Princeton Univ Pr発売日: 2006/07/03メディア: ハードカバー購入: 6人 クリック: 50回この商品を含むブログ (11件) を見る の日語訳が出ているとのこと, Google PageRankの数理 ―最強検索エンジンのランキング手法を求めて― 作者: Amy N.Langville,Carl D.Meyer,岩野和生,黒川利明,黒川洋出版社/メーカー: 共立出版発売日: 2009/10/10メ

    [book] Google PageRankの数理 ―最強検索エンジンのランキング手法を求めて― - Tocotonistの日記(晴れのち快晴)
    mamoruk
    mamoruk 2009/11/11
    同感です「英語版もIIRよりやさしいくらいなので言葉の問題は小さめだと思います.」
  • Nonnegative Sparse Linear Discriminant Analysis - SuzukiMasayuki@Hatena::Diary

    物理的な意味解釈が可能な特徴量ベクトルを次元圧縮したいときには,非負な変換を使って次元圧縮を使うのが良い.非負な変換を使わないと,物理的意味解釈ができなくなってしまう.それから,次元圧縮後のデータの意味づけがしやすくなるという点で,スパースな変換だとなお良い. NonnegativeでSparseな次元圧縮法の一つに,Nonnegative Sparse PCA*1(NSPCA)がある. NSPCAの前に,普通のPCAを復習する.次元の特徴量を個並べた行列を,次元への圧縮を実現する求めるべき変換行列をとすると,PCAでは (,はフロベニウスノルム) を解くことになる.これは解析解がもとまって,結論はの分散共分散行列を固有値分解し,固有値の大きいものから対応する固有ベクトルを並べたもの,が求めるべきである. NSPCAは,上で書いた最大化問題に,非負の制約条件と,スパースにするための正則化項

    Nonnegative Sparse Linear Discriminant Analysis - SuzukiMasayuki@Hatena::Diary
    mamoruk
    mamoruk 2009/11/11
    Nonnegative Sparse Matrix PCA について