NLPにCNNを利用したモデルはすっかり当たり前になりました。 少し前に「CNNでテキスト分類」という記事を書きましたが、 その時はPytorchでCNNを扱うための基本的なコードだけに留まっていました。 kento1109.hatenablog.com 今回はNERなどで用いられる文字情報をCNNで表現する際のコーディングについて書こうと思います。 以下は単語を文字単位に分割してその分散表現を獲得する場合のイメージです。 End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRFより引用 今回はこれをPytorchで書いてみたいと思います。 Char Embedding 簡単のため、文字列は既にpadding済であることを前提とします。 vocab_size = 100 char_emb_size = 30 char_emb
