サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GPT-4o
masayukipo.hatenadiary.org
今年3月に博士号取得予定です。 学部4年生のころから、ずっと同じ研究室に所属し続けたおかげか、自分の研究に加え、後輩との共同研究もたくさん行うことが出来ました。その結果、博士論文提出時のジャーナル・国際会議・国内会議の論文数をすべて合計すると、主著が27本、共著は59本もあります。質の面はまだまだ精進が足りませんが、数の面だけは、自慢できるほどあるかなあと思っています。 今日は、そんな私がこれまでの経験で得た、大学院生が研究ネタを見つけるための、4つの方法を紹介したいと思います。 方法1:アプリから考える方法 まずアプリケーションやタスクを考え、それを実現するためにいろいろがんばる、というやり方です。 アプリやタスクを考える上で大事なのは、以下の2点です。 そのアプリができたらうれしいのか。(有益性、usefulness) そのアプリは技術的に実現できるのか。(実現可能性、feasibil
去年の12月,古井先生が「なにかが足りない音声認識研究」というタイトルで発表をなさった. 現在までの音声認識研究を振り返った上で,「なにかが足りない,けどそれがなにかは知らない」という内容. かなり刺激的なお話だったので,各地からいろんな反響(例えばhttp://d.hatena.ne.jp/tihara/20091226)があった. 「なにが足りないのか?」にはいろんな答えがあると思う.答えは一つだけではないと思う. その上で,僕は 時刻tじゃない音声認識 が一つの答えになるのかなあ,と考えている. 以下,これまで行われてきた変化に着目した音声認識に関する研究を見ながら,自分なりの考えを書きたいと思う. デルタ特徴量関係 デルタ特徴量は,古井先生が提案された,今やデファクトスタンダードな特徴量. デルタ特徴量は,時系列の特徴量に対する回帰係数のことで, 具体的には時刻tのフレームの前後N
物理的な意味解釈が可能な特徴量ベクトルを次元圧縮したいときには,非負な変換を使って次元圧縮を使うのが良い.非負な変換を使わないと,物理的意味解釈ができなくなってしまう.それから,次元圧縮後のデータの意味づけがしやすくなるという点で,スパースな変換だとなお良い. NonnegativeでSparseな次元圧縮法の一つに,Nonnegative Sparse PCA*1(NSPCA)がある. NSPCAの前に,普通のPCAを復習する.次元の特徴量を個並べた行列を,次元への圧縮を実現する求めるべき変換行列をとすると,PCAでは (,はフロベニウスノルム) を解くことになる.これは解析解がもとまって,結論はの分散共分散行列を固有値分解し,固有値の大きいものから対応する固有ベクトルを並べたもの,が求めるべきである. NSPCAは,上で書いた最大化問題に,非負の制約条件と,スパースにするための正則化項
読み始めました. カーネル多変量解析そのものを研究している人じゃなくて,カーネル使ってちょっといいことしたいよねと思っている人に非常におすすめです.まだ全部は読み切れていないけど,とりあえず第一章がすごくわかりやすい. === 線形回帰にカーネル法のエッセンスを入れてみます. 線形回帰は出力を入力の線形関数と見て,その線形関数のパラメタを最適化する問題.最小自乗法,微分して0,で簡単に解けます.ここで入力データと学習データとの自乗誤差のかわりに,入力データと学習データとのカーネル関数値をつかってやるというのがカーネル法の考え方です.ここでミソなのは,線形問題の学習データを別の値(カーネル関数)に入れ替えているだけなので,最適化のためのプロセス(線形回帰なら微分して0みたいな操作)は線形問題とまったく同じだということ.にもかかわらず,カーネル関数が非線形性をもっているので,フィッテングは非線
このページを最初にブックマークしてみませんか?
『SuzukiMasayuki@Hatena::Diary』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く