タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

*algorithmとNLPとconvに関するsh19910711のブックマーク (3)

  • Pytorch:CNNで文字表現の抽出 - 機械学習・自然言語処理の勉強メモ

    NLPCNNを利用したモデルはすっかり当たり前になりました。 少し前に「CNNでテキスト分類」という記事を書きましたが、 その時はPytorchCNNを扱うための基的なコードだけに留まっていました。 kento1109.hatenablog.com 今回はNERなどで用いられる文字情報をCNNで表現する際のコーディングについて書こうと思います。 以下は単語を文字単位に分割してその分散表現を獲得する場合のイメージです。 End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRFより引用 今回はこれをPytorchで書いてみたいと思います。 Char Embedding 簡単のため、文字列は既にpadding済であることを前提とします。 vocab_size = 100 char_emb_size = 30 char_emb

    Pytorch:CNNで文字表現の抽出 - 機械学習・自然言語処理の勉強メモ
    sh19910711
    sh19910711 2024/04/14
    "2文字列単位でフィルターをスライド / 文字の前後にwindow_size-1の行列をpadding / 各チャネルの特徴マップ全てからmax_poolingを行う / NER等の場合、これを後続のLSTMなどに渡してあげる" doi:10.18653/v1/P16-1101 2019
  • 艦これのセリフ分類をCNNでやる - にほんごのれんしゅう

    (2017/2/24追記. いろいろ試したんですが、objective functionをcategorial cross entropyからpoissonに変更し, softmaxの出力をlogを取ることで、急峻なスパイクを抑えることができある程度改善しました ) 艦これのセリフ分類をCNNでやる 幾つかの基礎と、業務で使用できるかどうかの調査した結果、CNNでのテキスト分類が最近評判が良いことがわかった。 RNNが負けると言われていた分野は分類とか識別の部分で、テキストの生成や連続系ではまだ、RNNが有利であると思う。 ディープラーニング以前のアルゴリズムは変数の重要度に対しての解釈をする方法が、ある程度ノウハウが蓄積されており、変数の係数や、決定時の出現する変数の頻度でそれっぽく解釈はできたが、ディープラーニングは中身がうかがい知れない事が多い。しかし、性能は高いとされている[1]

    艦これのセリフ分類をCNNでやる - にほんごのれんしゅう
    sh19910711
    sh19910711 2021/06/20
    "キャラクタの発言がそもそもMeCabなどで形態素解析するのに不適な語彙がおおい > なので、形態素解析を必要としない単語粒度のCNNでの分類を行った / epoch 10~20あたりがちょうど良さそう"
  • TextCNN の pytorch 実装 (IMDb 感情分析) - 木曜不足

    いきなりタイトルと話が違うが、DistilBERT で Sentiment Analysis を実装してみた。 transformersのBERTでfine-tuningして、IMDB映画レビューを評判分析するコードを動かしてみた。https://t.co/6V3OF0YQgb 基はHuggingFaceの公式ドキュメントからリンクされているサンプルの通りだけど、evaluate_during_trainingなんて無いって怒られるのを直し、(続く)— shuyo (@shuyo) 2021年3月16日 これは accuracy=0.9344, f1 score=0.9347 くらいの性能を叩き出す(初期値などの具合で実行するたびに変わる。気になる人はシード指定して)。 きっとすごいんだけど、 これだけ見てるとどのくらいすごいかわからない。 そこでロジスティック回帰・ランダムフォレスト・

    TextCNN の pytorch 実装 (IMDb 感情分析) - 木曜不足
    sh19910711
    sh19910711 2021/06/13
    "TextCNN [Kim2014] > 畳み込みと max-pooling を組み合わせたテキスト分類器 / わずかなコードを書くだけ / TextCNN に attention を入れる提案をしているっぽい論文もある"
  • 1