2019.4.14 関東CV勉強会で発表した資料です. Attention機構について発表しています.
![最近の深層学習におけるAttention機構 - CVとNLPを中心に -](https://cdn-ak-scissors.b.st-hatena.com/image/square/854dd3f88a824e899d21eeec3dc39be9dd97ceb1/height=288;version=1;width=512/https%3A%2F%2Ffiles.speakerdeck.com%2Fpresentations%2F30c2ad7a43894bfb9824b73c29b48b3e%2Fslide_0.jpg%3F12346870)
自然言語処理 [NLP : natural language processing] 自然言語処理(NLP)に関してのマイノートです。 特に、ニューラルネットワーク、ディープラーニングによる自然言語処理(NLP)を重点的に取り扱っています。 今後も随時追加予定です。 尚、ニューラルネットワークに関しては、以下の記事に記載しています。 yagami12.hatenablog.com 又、より一般的な機械学習に関しては、以下の記事に記載しています。 yagami12.hatenablog.com 目次 [Contents] 自然言語処理(NLP) one-hot encode と one-hot ベクトル 埋め込みベクトル [embedding vector] と埋め込み行列 [embedding matrix] 言語モデル [LM : Language model] N グラム言語モデル ニ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く