2023年4月10日のブックマーク (4件)

  • spaCy入門 (2) - ルールベースマッチング|npaka

    1. ルールベースマッチング「spaCy」のルールベースマッチングを使用すると、探している単語やフレーズを見つけられるだけでなく、ドキュメント内のトークンの関係を知ることができます。つまり、周囲のトークンを分析したり、スパンを単一のトークンにマージしたり、名前付きエンティティを追加したりできます。 【情報】 「ルールベース」と「モデルの学習」のどちらが良いか 「モデルの学習」は学習データがあり、それを使ってシステムを汎化できる場合に役立ちます。ローカルコンテキストに手がかりがある場合は、特に機能します。「個人名」「会社名」などがこれにあたります。 「ルールベース」は、検索すべきサンプルが有限である場合、または、ルールや正規表現で明確にトークンを表現できる場合役立ちます。「国名」「IPアドレス」「URL」などがこれにあたります。 複雑なタスクの場合、「モデルの学習」をお勧めしますが、学習デー

    spaCy入門 (2) - ルールベースマッチング|npaka
    gengohouse
    gengohouse 2023/04/10
    “spaCy入門 (2) - ルールベースマッチング”
  • GPTの仕組みと限界についての考察(2.1) - conceptualization

    全3回のシリーズパート2の記事では、GPTの能力と可能性をAttention/Transformerの仕組みをふまえて考察します。 というつもりでしたが、凄く長くなってしまったのでパート2は以下の3回に分けようと思います。 (2.1)各技術の定性的な説明(記事) (2.2)Transformerのアルゴリズム詳細 (2.3)GPTの能力と可能性について 2.1 各技術の定性的な説明 自然言語の構造を考えてみる まず我々が使う言語についてちょっと振り返るところから話を始めましょう。 文や文章は、おおもとのデータである文字から始まって、単語、文節、句、節、文、文章、さらにその上の意味、という風に階層的な構造を持っていると我々は概念的に認識してますよね。 構文の階層 そして、各階層や階層間には、文法や語法といった言葉のルールがあります。 深層学習はその名の通り、層を深くしたニューラルネットワ

    GPTの仕組みと限界についての考察(2.1) - conceptualization
  • 【GPT】大規模言語モデルまとめ - Qiita

    はじめまして、sonesuke( https://twitter.com/sonesuke ) です。 LLMのニュースを追っかけ続けたので、これからキャッチアップする人用にまとめておきます。 これだけは知っとけ用語 各モデル、プロジェクトの説明を読む前に、「これだけは知っとけ用語」を読んでおくと意味がわかります。知っている人は飛ばしてください。 LLM 大規模言語モデル (Large Language Model)の略。膨大なテキスト言語を使って学習したニューラルネットワークのこと。パラメータの数が性能の指標になっており、〇〇Bみたいな形で表記されています。GPT-3で175B (1750億個)。 基的には、入力に続く、次の単語を推論して出力しているに過ぎないのですが、応用範囲が広く、世の中的に注目されています。 学習データ 学習用のデータセットとも呼ばれます。 RLHF (Reinf

    【GPT】大規模言語モデルまとめ - Qiita
  • GPT-3.5世代のオープンな言語モデルを調べてみた - Qiita

    GPT-3.5世代のオープンな言語モデルを調べてみました。 稿では以下の特徴をもって「GPT-3.5世代」の言語モデルと定義しました。 ChatGPT等(text-davinci-003、gpt-3.5-turbo)の登場した2022年11月以降に登場 GPT-3と同様にテキスト生成ができる言語モデル GPT-3text-davinci-003等)を主なベンチマークにしたり、学習に利用したりしている 「オープンな言語モデル」としていますが、稿では以下いずれかを満たしていればオープンな言語モデルとします。一般的なオープンソース・ソフトウェアの定義等とは少し異なります。 学習済モデルが公開されている 学習データと学習用ソースコードが公開されており、学習済モデルの再現が可能である GPT-3.5世代のオープンな言語モデルの特徴 稿で紹介するGPT-3.5世代のモデルには、以下のような特徴

    GPT-3.5世代のオープンな言語モデルを調べてみた - Qiita