タグ

ブックマーク / fintan.jp (2)

  • RAGの性能を改善するための8つの戦略 | Fintan

    近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

    RAGの性能を改善するための8つの戦略 | Fintan
    misshiki
    misshiki 2024/02/09
    学術的な知見を踏まえた内容。例えばハイブリッド検索の性能比較例などを説明。
  • ChatGPT vs BERT:どちらが日本語をより理解できるのか? | Fintan

    はじめに ChatGPTやGPT-4をはじめとする大規模言語モデル(LLM)の能力が大幅に向上し、自然言語処理の分野で多くの注目を集めています。これらのLLMは、さまざまな自然言語処理タスクにおいて、タスクに固有な学習データを用いてモデルをファインチューニングすることなく、推論時にタスクの説明といくつかの例を見せるだけでさまざまなタスクを解くことができます。タスクに関する指示だけを与える場合をZero-shot、いくつかの事例も与える場合をFew-shotと呼びます。 Zero-shotとFew-shotの例。「英語から日語に翻訳してください。」と指示している。Few-shotでは、事例も与える。 ChatGPTのようなモデルは、メールの文面の生成や文書要約といったテキスト生成系のタスクで使われている例を多く見かけますが、実は自然言語理解のタスクでも高い性能を発揮することが知られています

    ChatGPT vs BERT:どちらが日本語をより理解できるのか? | Fintan
    misshiki
    misshiki 2023/09/01
    “日本語に対する言語理解能力を測るベンチマークであるJGLUEを用いて、ChatGPTの日本語に対する理解能力を定量的に評価してみました。その結果をBERTやRoBERTaなどのモデルをファインチューニングした場合と比べると...”
  • 1