タグ

BERTに関するshikimihuaweiのブックマーク (30)

  • BERTによる文書分類 | CCT-recruit

    はじめに BERTとは、自然言語処理に使われる汎用言語モデルの名前である。Googleが2018年に発表した(原論文)。このモデルをファインチューニングすることにより、自然言語処理の多くのタスクでSOTA(State Of The Art)が達成されている。今回はこのBERTを用いた文書分類を、既存コードとライブラリを用いて行う。 問題設定 以下の問題を考える。 文書を複数個用意する。各文書はタイトルと文(document)から成る。ここで、文とは文(sentence)の集まりのことである。 文書は複数の分野から集める。 タイトルあるいは文だけからその分野を予測したい。 最初に、タイトルによる分類(タイトル分類)を考える。 タイトル分類の方針 タイトルを1つの文とみなし、これをBERTを用いて1つの多次元ベクトル(文埋め込み:sentence embeddings)に変換する。分野を

  • BERTの単語ベクトルを覗いてみる - Qiita

    Googleが2018年10月に発表し、大いに話題となった自然言語処理モデルBERT。このBERTのモデルから単語ベクトルが抽出できるようなので、色々と調べてみようと思います。 BERTの単語ベクトルの特徴 単語ベクトルといえばWord2Vecですが、Word2Vecの単語ベクトルは、異なる意味の単語でも字面が同じならば全て同じ値になってしまうという欠点があります。 例えば下のような文があった場合、この文の最初の「HP(ヒューレット・パッカード)」と2つ目の「HP(ホームページ)」は別の意味を持つ単語ですが、ベクトルとしては同じになります。 HP社は、2019年11月18日に新製品をHPで発表した。 ところが、BERTの場合は、2つの「HP」のベクトルは異なる値になります。それだけではなく、下の例のような同じ意味の3つの「HP」も、すべて異なるベクトルになります。 HP社は、HP社と、HP

    BERTの単語ベクトルを覗いてみる - Qiita
  • BERTで文章のベクトル表現を得るための環境構築紹介 - Qiita

    BERTが様々な自然言語処理タスクでSOTAを達成し、コミュニティを賑わせたことは記憶に新しいと思います。 同時にBERTの事前学習には時間がかかることが知られていますが、ありがたいことにGoogleや有志の方々が事前学習を行ったBERTモデルを配布しています。 記事ではそんなBERTの恩恵を得るべく、表題のように事前学習済みのBERTを通して文章のベクトル表現を得るための環境作りを紹介します。 私が業務で試した範囲だとBERTのベクトル表現に変更しただけで全てのタスク、特に教師データが少ないタスクでは精度が大きく向上しました。 今までWord2vecやGloVe,fastTextしか知らなかった方は是非試してみてください。 ちなみに記事で紹介する手法の代案としてbert-as-serviceなどもありますが、デプロイが複雑になりやすいことと、何かしらの例外が発生すると固まってしま

    BERTで文章のベクトル表現を得るための環境構築紹介 - Qiita
  • 超初心者向け爆速BERTチュートリアル - Qiita

    はじめに 自然言語処理全くワカラン人でもBERTが使えるようになるためのノートブックです。 対象とする人 とにかくBERTを触ってみたい 環境構築が苦手 やること GoogleColabでBERTを使うための爆速チュートリアル JPOPの歌詞を可視化してみるデモ BERTの簡単な説明 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding We introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent language representation mo

    超初心者向け爆速BERTチュートリアル - Qiita
  • 「ELECTRA」新たな自然言語処理モデルが示したMLMの問題点とは!?

    3つの要点 ✔️その1 高速・高精度な自然言語処理モデルELECTRAが登場 ✔️その2 低精度なGeneratorにより入力を置換することで、文全体から効率的に学習を行う ✔️その3 RoBERTaの約1/4の学習量で同等の性能を発揮 ELECTRA: PRE-TRAINING TEXT ENCODERS AS DISCRIMINATORS RATHER THAN GENERATORS written by Kevin Clark, Minh-Thang Luong, Quoc V. Le, Christopher D. Manning (26 Sep 2019 (modified: 10 Mar 2020)) Comments: accepted by ICLR 2020 Subjects: Machine Learning (cs.LG); Machine Learning (sta

    「ELECTRA」新たな自然言語処理モデルが示したMLMの問題点とは!?
  • BERTとは何か?Googleが誇る最先端技術の仕組みを解説!|Udemy メディア

    BERTとは?特徴を知っておこう BERTとは「Bidirectional Encoder Representations from Transformers(Transformerによる双方向のエンコード表現)」を指し、2018年10月11日にGoogleが発表した自然言語処理モデルです。 BERTの特徴として、汎用性の高さが挙げられます。これは、WikipediaやBooksCorpusなどから得た大量の文章データを学習モデルが事前学習し、文章理解や感情分析などの様々なタスクに応用できるというものです。 例えば、感情分析タスクであれば、与えられた文から感情を読み取って「肯定的」か「否定的」かのどちらであるかという結果を出力できます。これを活かして、アルゴリズムが複数の映画レビューを参照し、その映画の平均的な評価を分析するというタスクを高精度で行っています。 また、BERTは、今後「文脈

    BERTとは何か?Googleが誇る最先端技術の仕組みを解説!|Udemy メディア
  • NLPの神様「BERT」とは何か

    自然言語を処理している方なら必ず聞いたことのある「BERT」。初めてBERTについて勉強したところ、この様な疑問が出てきました。 - 「BERTは何のデータを入力して何ができるのか」、 - 「BERTに関する記事は何故Self-Attention層しか説明してないのか」、 - 「一見何も出来なさそうなBERTなのになぜ神格化されるのか」 この様な疑問を答える為、今日はBERTの細かい構造と数学を無視して大まかにBERTの役割に関して説明してみます。 BERTとはBERTは 2018年Googleが発表した自然言語処理(NLP)モデルです。発表した論文の名前は「 “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”.」で、Self-Attention層で使ったTransformer

    NLPの神様「BERT」とは何か
  • 2019年はBERTとTransformerの年だった | AI専門ニュースメディア AINOW

    著者のManu Suryavansh氏は機械学習エンジニアとしてキャリアを積んだ後、2020年1月からAppleでデータサイエンティストとして勤めています。同氏がMediumに投稿した記事『2019年はBERTとTransformerの年だった』では、近年の自然言語処理の動向がBERTを中心軸としてまとめられています。 TransformerとBERTが発表される以前の自然言語処理モデルでは、時系列データを処理するRNNとその発展形であるLSTMが使われてきました。このLSTMには、構造が複雑になってしまうという欠点がありました。こうしたなか、2017年6月に発表された論文「Attentionこそ必要なすべてのもの」で論じられた言語モデルTransformerとAttentionと呼ばれる手法は、LSTMのような複雑な構造を使わずに高性能を実現したのでその後の言語モデル開発に大きな影響を与

    2019年はBERTとTransformerの年だった | AI専門ニュースメディア AINOW
  • 汎用言語表現モデルBERTを日本語で動かす(PyTorch) - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 今DL for NLP界で、BERTというモデルが話題です。PyTorchによる実装が公開されていたので、日Wikipediaコーパスに適用してみました。 コードはこちらに公開しております。 2018/11/27 作成したBERTのモデルを使って内部動作の観察とその考察を行いました。単語の潜在表現獲得の部分で感動的な結果を見せてくれました。ご興味あればご覧ください↓ https://qiita.com/Kosuke-Szk/items/d49e2127bf95a1a8e19f この記事ではBERTのポイントの解説と、ポイントごとの実

    汎用言語表現モデルBERTを日本語で動かす(PyTorch) - Qiita
  • 汎用言語表現モデルBERTの内部動作を解明してみる - Qiita

    100Mコーパスで訓練したBERT 500Mコーパスで訓練したBERT 2500Mコーパスで訓練したBERT BERTの訓練に使うコーパスサイズが小さい時は単語が入り混じって分布していますが、コーパスサイズを上げていくにつれてクラスター分布がはっきりしていく様子がわかります。 同じ単語でも一点に収束せず、文章の数だけ違う点にマッピングされているのがBERTの特徴です。それでは多義語はどのようにマッピングされるかを観察してみます。 今回は「首」という単語をマッピングしてみることにします。 首には大きく三つの語義があります。 人体の一部の意の「首」 解雇、リストラの意の「首」 市長、知事などリーダーの意の「首」 「知事」「市長」「解雇」「退職」を検索単語として追加します。マッピング空間の位置関係を保つために、一個前の実験で使用した主要単語も一緒に空間に配置しておきます。 1.知事、市長の周りに

    汎用言語表現モデルBERTの内部動作を解明してみる - Qiita